Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Я количественная мера информации



I=mn (3.1)

Недостаток этой меры – неадитивность (непропорциональность количества информации и длины сообщения). Логично предположить, что сообщение, имеющее, например, в два раза большую длину, несет в два раза большую информацию.

2-я количественная мера – мера Р.Хартли

Роберт Хартли – американский инженер, работал в телеграфной компании. Рассуждая о количестве информации, содержащемся в телеграфном тексте, заложил основы те­о­рии информации, определив логарифмическую меру количества информации (1928г.).

(3.2)

Отсюда возникла и двоичная единица информации. Сообщение должно иметь минимум один символ: nmin=1. Алфавит должен иметь минимум два элемента: mmin=2. Вот в таком сообщении и содержится минимально возможное количество информации.

Imin = nmin∙log mmin

При использовании двоичного логарифма Imin = 1 (бит, от англ. bi nary dig it).Поэтому в теории информации используется логарифм по основанию 2.

I = n∙log2m. (3.3)

Мера Хартли (логарифмическая мера) (3.2) не учитывает вероятностный характер сообщения (вспомним, что сообщение имеет смысл, когда оно неизвестно заранее).

3-я количественная мера – мера К.Шеннона

Количественная мера Шеннона получена из следующих соображений. Если символ появляется в сообщении с вероятностью 1 (на определенном месте), то такой символ никакой информации не несет. В случае если любой из m символов алфавита равновероятен p=1/m. Количество информации, содержащееся в сообщении из одного элемента определяется так:





Дата публикования: 2015-09-17; Прочитано: 367 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.007 с)...