Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Статистическая мера информации



В этом подходе используется понятие энтропии как меры неопределенность, учитывающей вероятность появления того или иного сообщения. Учитывает конкретные условия применения систем.

Статистическая мера – вероятностный подход к определению количества информации.

1948 год – Клод Шеннон.

(N – количество возможных опытов, k – количество типов опытов, i – iтый исход, повторяющийся ni раз, pi – вероятность появления опыта с iтым исходом, Ii – количество информации)

Средняя информация доставляемая одним опытом определяется:

Свойства энтропии:

1) Всегда неотрицательна

2) Обращается в ноль, когда одно из состояний системы достоверно, а остальные невозможны

3) Если события равновероятны, то количество информации шеннона равно количеству информации по Хартли

4) Энтропия системы с конечным множеством состояний достигает максимального значения, когда эти состояния равновероятны, а при увеличении числа состояний энтропия повышается.

Количество информации – уменьшение энтропии вследствие опыта или какого-либо акта познания.

1) Если неопределенность снимается полностью количество информации равно энтропии. I=H

2) В случае неполного разрешения имеет место быть частичная информация, которая определяется как разность между начальной и конечной энтропией I=H1-H2

3) Наибольшее количество информации получается, когда полностью снимается неопределенность.

Абсолютная избыточность информации:

Относительная избыточность информации:





Дата публикования: 2015-01-25; Прочитано: 462 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.007 с)...