Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Вопрос. Вероятностный подход к измерению информации



Вопрос.

Вероятностный подход к измерению информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.

Источник сообщений – объект, передающий сообщение по каналу связи.

Сообщение может быть случайным, то есть набор символов распределяется случайным образом. Символы появляются с разными вероятностями.

Источник дискретных сообщений – источник сообщений, который может в любой момент времени принимать одно из конечных возможных состояний.

Вопрос

Алфавитный подход - объективный подход к измерению информации. Кол-во информации зависит от объема текста и мощности алфавита.

Мощность алфавита – полное количество символов алфавита.

При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от мощности, объёма текста.

Применение алфавитного подхода удобно при использовании технических средств работы и информации.

Вопрос.

Получение новой информации расширяет знания человека. Если какое-либо сообщение уменьшит неопределённость знаний, то можно говорить, что оно содержит информацию.

Информация одного и того же сообщения может быть разной для разных людей.

Чтобы сообщение было информировано, оно в 1-ую очередь должна быть понятна для человека, логически связанная с предыдущими знаниями.

Сообщение несёт информацию, если содержащиеся сведения являются новыми и понятными.

Такой подход является субъективным из за различия предыдущих знаний разных людей.

Вопроc

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Впервые понятия энтропия и информация связал К.Шеннон в 1948 [299]. С его подачи энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Следует подчеркнуть, что под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. К.Шеннон стоял на позиции функционалиста. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии.

Вопрос

Алфавит – набор символов, предназначенный для отображения информации.

Алфавит может содержать разное количество символов. Даже один.

Вторичный алфавит имеет 2 знака, это любые символы, но в вычислительной технике знаки – 1 и 0, которые обозначают истину или ложь.

Код – правило, в соответствии с которым символ одного алфавита сопоставляется символу другого алфавита.

Азбука Морзе предполагает, что мы каждому символу другого языка сопоставляем уникальную комбинацию.

Кодирование, операция отождествления символов или групп символов одного кода с символами или группами символов другого кода. Необходимость кодирования возникает прежде всего из потребности приспособить форму сообщения к данному каналу связи или какому-либо другому устройству, предназначенному для преобразования или хранению информации. Так, сообщения, представленные в виде последовательности букв, например русского языка, и цифр, с помощью телеграфных кодов преобразуются в определённые комбинации посылок тока. При вводе в вычислительные устройства обычно пользуются преобразованием числовых данных из десятичной системы счисления в двоичную и т.д..

К. в информации теории применяют для достижения следующих целей: во-первых, для уменьшения так называемой избыточности сообщений и, во-вторых, для уменьшения влияния помех, искажающих сообщения при передаче по каналам связи. Поэтому выбор нового кода стремятся наиболее удачным образом согласовать со статистической структурой рассматриваемого источника сообщений. В какой-то степени это согласование имеется уже в коде телеграфном, в котором чаще встречающиеся буквы обозначаются более короткими комбинациями точек и тире.

В вычислительной технике широко применяется двоичный код. Возникла таблица кодировок, в которой используются двойные и шестнадцатеричные записи кода, но наихудшая обработка данных в двойном коде – байт, в котором содержатся биты.

Наибольший символ может быть любым и его выбирают обусловлено, целесообразно для применения в какой либо области технических устройств.

8 бит – это кодировка для представления десятичных цифр.

Во многих кодировках используется 7 бит, а потом появились более улучшенные.

Вопро.

Система счисления – способ записи чисел; представление чисел, с помощью знаков.

Позиционная система счисления – система, в которой значение каждого числа знака зависит от его позиции.

В двоичной системе b = 2, где b – это разряд. В этой системе находятся всего лишь две цифры – 0 и 1.

Двоичные цифры – бит (binary digits).

Шестнадцатеричная система счисления широко используется в низкоуровневом программировании, в документации.

В 16 системе счисления от 0 до 5 можно записать с помощью 4 бит.





Дата публикования: 2015-02-03; Прочитано: 412 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.005 с)...