![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
|
При передаче дискретных сообщений по ДКС различают следующие энтропии:
ü
- безусловная энтропия источника, или среднее количество информации на символ, выдаваемое источником.
ü
– безусловная энтропия приемника или среднее количество информации на символ, получаемое приемником.
ü
– условная энтропия Y относительно Х, или мера количества информации в приемнике, когда известно, что передается Х. Эта энтропия характеризует количество ложной информации, создаваемой помехами:
(7.21)
ü
– условная энтропия X относительно Y, или мера количества информации об источнике, когда известно, что принимается Y. Характеризует количество информации, потерянной за счет помех:
(7.22)
Условную энтропию можно так же представить в виде

где величина
(7.23)
называется частной условной энтропией. Она характеризует неопределенность состояния системы А (передатчика) в случае, когда известно состояние
у наблюдаемой системы В (приемника). Зафиксировав состояние
системы В, мы тем самым изменяем комплекс условий, при которых может реализоваться событие
. Это обнаруживается как изменение вероятности реализации события
(имеет место статистическая зависимость). Если до изменения условий указанная вероятность была равна безусловной (полной) вероятности
, то после изменения условий она стала равной условной вероятности
. При отсутствии статистической зависимости
, поскольку

При наличии статистической зависимости энтропия
может оказаться как меньше, так и больше
. Напомним, что для энтропии
всегда справедливо неравенство
.
ü
– совместная энтропия системы передачи (энтропия объединения) – средняя информация на пару (переданного и принятого) символов:
. (7.24)
Для независимых систем


Для зависимых систем


В качестве примера вычислим энтропии
,
,
и взаимную информацию
, когда системы А и В описываются двумерным распределением
, заданным в виде табл. 7.1. Вычисленные значения условной вероятности
записаны в табл. 7.2
Таблица 7.1. Двумерное распределение 
X
y
| x1 | x2 | p (yj) |
| y1 y2 | =0,5
=0,25
| =0
=0,25
| 0,5 0,5 |
| p (xi) | 0,75 | 0,25 |
Таблица 7.2. Условные вероятности
X
y
| x1 | x2 |
| y1 y2 | =1
=0,5
| =0
=0,5
|
Используя записанные в таблицах значения вероятностей, получим







Отсюда

Дата публикования: 2015-09-17; Прочитано: 869 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!
