![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
I=mn (3.1)
Недостаток этой меры – неадитивность (непропорциональность количества информации и длины сообщения). Логично предположить, что сообщение, имеющее, например, в два раза большую длину, несет в два раза большую информацию.
2-я количественная мера – мера Р.Хартли
Роберт Хартли – американский инженер, работал в телеграфной компании. Рассуждая о количестве информации, содержащемся в телеграфном тексте, заложил основы теории информации, определив логарифмическую меру количества информации (1928г.).
(3.2)
Отсюда возникла и двоичная единица информации. Сообщение должно иметь минимум один символ: nmin=1. Алфавит должен иметь минимум два элемента: mmin=2. Вот в таком сообщении и содержится минимально возможное количество информации.
Imin = nmin∙log mmin
При использовании двоичного логарифма Imin = 1 (бит, от англ. bi nary dig it).Поэтому в теории информации используется логарифм по основанию 2.
I = n∙log2m. (3.3)
Мера Хартли (логарифмическая мера) (3.2) не учитывает вероятностный характер сообщения (вспомним, что сообщение имеет смысл, когда оно неизвестно заранее).
3-я количественная мера – мера К.Шеннона
Количественная мера Шеннона получена из следующих соображений. Если символ появляется в сообщении с вероятностью 1 (на определенном месте), то такой символ никакой информации не несет. В случае если любой из m символов алфавита равновероятен p=1/m. Количество информации, содержащееся в сообщении из одного элемента определяется так:
Дата публикования: 2015-09-17; Прочитано: 377 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!