Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Энтропийная характеристика информации



Энтропийная характеристика информации принята в теории информации и кодирования. Она представляет собой меру неопределенности в появлении некоторых событий и выражается математической зависимостью от совокупности вероятности этих событий. Количество информации в сообщении определяется при энтропийном методе оценки тем, насколько уменьшится эта мера после получения сообщения.

В вычислительной технике вся обрабатываемая информация не зависимо от ее природы (текст, число, изображение и т.д.) представляется в двоичной форме записи числа, т.е. состоящая из двух символов 0 и 1. Один такой символ называется битом. В теории информации единица информации – 1 бит – сообщение, уменьшающее неопределенность знаний в 2 раза.

Примеры:

***«Орел–решетка» при бросании монеты. 2 исхода, исходы равновероятны. В сообщении: “Монета выпала орлом.” – 1 бит информации. Было два возможных исхода, остался 1.

***Опыт по выбору загаданной карты из восьми карт одной масти: 7, 8, 9, 10, В, Д, К, Т. Загадана 10. Вопросы надо ставить так, чтобы ответы "Да", "Нет" уменьшали неопределенность в два раза.

Тогда: картинка? Нет! 1 бит

две старшие? Да! 1 бит

девятка? Нет! 1 бит.

Ясно, что это десятка. Понадобилось 3 бита при 8 равновероятных исходах. В колоде из 32 карт для однозначного выбора десятки надо задать 5 вопросов, т.е. в сообщении: «Я загадал 10 ¨» содержится 5 бит информации.

Проанализируем рассмотренные ситуации:

***Для карт одной масти: N = 8, N – число равновероятных исходов

H =3, H – энтропия информации

***Для карт всех мастей: N=32, H=5.

***Опыт с монетой: N=2, H=1.

Подводим итог: 21=2, 23=8, 25=32, 2H=N.

Проглядывает следующая закономерность: H = log 2 N,

Данную формулу предложил в 1928 г Хартли, США.

Если исходов N, но их вероятности различны: p1, p2… pN, то применяют формулу Клода Шеннона, США, предлженную в середине 40-х.

H= -(p1 log2 p1 + p2 log2 p2 + … + pN log2 pN).

Легко заметить, что если вероятности p1, …, pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.





Дата публикования: 2015-01-23; Прочитано: 264 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.005 с)...