Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Энтропия, среднее количество информации в принятом сообщении



При передаче дискретных сообщений по ДКС различают следующие энтропии:

ü - безусловная энтропия источника, или среднее количество информации на символ, выдаваемое источником.

ü – безусловная энтропия приемника или среднее количество информации на символ, получаемое приемником.

ü – условная энтропия Y относительно Х, или мера количества информации в приемнике, когда известно, что передается Х. Эта энтропия харак­теризует количество ложной информации, созда­ваемой помехами:

(7.21)

ü – условная энтропия X относительно Y, или мера количества информации об источнике, когда известно, что принимается Y. Харак­теризует количество информации, потерянной за счет помех:

(7.22)

Условную энтропию можно так же представить в виде

где величина

(7.23)

называется частной условной энтропией. Она харак­теризует неопределенность состояния системы А (передатчика) в случае, когда известно состояние у наблюдаемой системы В (приемника). Зафик­сировав состояние системы В, мы тем самым изменяем комплекс условий, при которых может реализоваться событие . Это обнаруживается как изменение вероятности реа­лизации события (имеет место статистическая зависимость). Если до изменения условий указанная вероят­ность была равна безусловной (полной) вероятности , то после изменения условий она стала равной условной вероятности . При отсутствии статистической зависи­мости

, поскольку

При наличии статистической зависимости энтропия может оказаться как меньше, так и больше . Напомним, что для энтропии всегда справедливо неравенство

.

ü – совместная энтропия системы передачи (энтропия объединения) – средняя информация на пару (переданного и принятого) символов:

. (7.24)

Для независимых систем

Для зависимых систем

В качестве примера вычислим энтропии , , и взаимную информацию , когда системы А и В описываются двумерным распределением , заданным в виде табл. 7.1. Вычисленные значения условной вероятности записаны в табл. 7.2

Таблица 7.1. Двумерное распределение

X y x1 x2 p (yj)
y1 y2 =0,5 =0,25 =0 =0,25 0,5 0,5
p (xi) 0,75 0,25  

Таблица 7.2. Условные вероятности

X y x1 x2
y1 y2 =1 =0,5 =0 =0,5

Используя записанные в таблицах значения вероятностей, получим

Отсюда





Дата публикования: 2015-09-17; Прочитано: 824 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.011 с)...