Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
В этом подходе используется понятие энтропии как меры неопределенность, учитывающей вероятность появления того или иного сообщения. Учитывает конкретные условия применения систем.
Статистическая мера – вероятностный подход к определению количества информации.
1948 год – Клод Шеннон.
(N – количество возможных опытов, k – количество типов опытов, i – iтый исход, повторяющийся ni раз, pi – вероятность появления опыта с iтым исходом, Ii – количество информации)
Средняя информация доставляемая одним опытом определяется:
Свойства энтропии:
1) Всегда неотрицательна
2) Обращается в ноль, когда одно из состояний системы достоверно, а остальные невозможны
3) Если события равновероятны, то количество информации шеннона равно количеству информации по Хартли
4) Энтропия системы с конечным множеством состояний достигает максимального значения, когда эти состояния равновероятны, а при увеличении числа состояний энтропия повышается.
Количество информации – уменьшение энтропии вследствие опыта или какого-либо акта познания.
1) Если неопределенность снимается полностью количество информации равно энтропии. I=H
2) В случае неполного разрешения имеет место быть частичная информация, которая определяется как разность между начальной и конечной энтропией I=H1-H2
3) Наибольшее количество информации получается, когда полностью снимается неопределенность.
Абсолютная избыточность информации:
Относительная избыточность информации:
Дата публикования: 2015-01-25; Прочитано: 462 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!