Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Теоретическая часть. Информация (от лат. informatio - разъяснение, осведомление) - это один из широко используемых на сегодня терминов



Информация (от лат. informatio - разъяснение, осведомление) - это один из широко используемых на сегодня терминов, которые употребляет человек в процессе деятельности. Создаются информационные центры, передаются информационные программы, говорят о лавинном росте информационных потоков, сообщается информация «для размышления» и т.д. Практически одновременно и взаимосвязано с появлением кибернетики в XX столетии создается теория информации - раздел кибернетики, посвященный математическому описанию процессов получения, хранения, переработки и передачи информации.

Эта теория возникла в ходе решения задач передачи потоков сообщений по каналам связи в технических системах, и первый фундаментальный труд принадлежит К. Шеннону «Математическая теория связи» (1948 г.). Сегодня понятие «информация» является одной из основных философских категорий, наряду с такими категориями, как материя, энергия, без которых невозможно описание функционирования живых систем.

К основным понятиям теории информации относятся: сообщение, сигнал, количество информации, энтропия, кодирование, пропускная способность канала связи.

Сообщение - это некоторая информация о событиях, закодированная в форме определенного сигнала.

Сигнал - физический носитель информации. Сигналом может быть звук, свет, буква, механический удар и др.

Прежде чем рассмотреть вопрос о количестве информации, необходимо отметить следующие ее свойства:

1. Информация имеет смысл только при наличии ее приемника (потребителя). Если принимающий объект отсутствует, то нельзя говорить о существовании информации. Так, если в комнате работает телевизор, но в ней нет человека, то все, что по­казывается и говорится, не является информацией.

2. Наличие сигнала не обязательно говорит о том, что передается некоторая информация. Информативно только такое сообщение, которое несет в себе что-то неизвестное ранее, в чем нуждается объект, которому оно передается.

3. Информация может передаваться не обязательно только через наше сознание. Она передается и на подсознательном уровне, и на уровне внутренних процессов в организме. Для мышц двигательного аппарата пришедшие к нему нервные импульсы несут информацию о необходимых действиях; для сердца объем крови в диастолу несет информацию о необходимой силе последующего сокращения, перестройка конформации фермента несет информацию для процессов переноса ионов и др.

4. Если событие достоверное (то есть его вероятность р=1), то сообщение о том, что оно произошло, не несет никакой информации для потребителя. Так, если вы в настоящий момент читаете эту страницу и вам кто-то об этом сообщает, то в этом сообщении для вас нет ничего нового, то есть не содержится абсолютно никакой информации.

5. Сообщение о событии, вероятность которого р<1, содержит в себе информацию, и тем большую, чем меньше вероятность события, которое произошло.

Таким образом, чем меньше вероятность некоторого события, тем большее количество информации содержит сообщение о том, что оно произошло.

Так например, если во Вселенной появилась сверхновая звезда, событие крайне маловероятное, об этом сообщают все мировые информационные агентства и газеты, так как в этом сообщении содержится огромное количество информации.

Шеннон дал следующее определение информации:

"Информация, содержащаяся в сообщении, есть мера того количества неопределенности, которое ликвидируется после получения данного сообщения».

Количество информации I (хi), содержащееся в сообщении хi, равно логарифму величины, обратной вероятности Р(хi) этого события:

За единицу информации принято количество информации, содержащееся в сообщении о том, что произошло одно из двух равновероятных событий, то есть если Р(А) = Р(В) = 0,5, то

Это количество информации называют бит.

Пример: Сколько бит информации содержит произвольное трехзначное число?

Первая цифра имеет 9 различных значений от 1 до 9 (т.к. 0 в начале числа незначим), вторая и третья - по 10 значений (от 0 до 9). Тогда

бит.

В теории информации источник информации задается в виде множества сообщений X1, Х2,...,Хn, с вероятностями соответственно Р1, Р2,...,Рn. В этом случае среднее количество информации, приходящееся на одно сообщение, определяется по формуле Шеннона: , где i = 1, 2,... n.

Пример: Рассчитаем количество информации IА и IB в сообщениях о событиях А и В, вероятности которых: Р (А) = 3/4 и Р(В) = 1/4.

Для сообщения A: IA =-log 2 (3/4) = 0,42 бит.

Для сообщения В: IB = -log 2 (l/4) = 2,0 бит.

Среднее количество информации на одно сообщение:

бит

Величина I рассматривается как мера неопределенности сведений об источнике информации, которая имела место до приема сообщений и была устранена после их получения.

Эту меру неопределенности называют энтропией (Н) источника информации, приходящейся на одно сообщение. Таким образом:

Среднее количество информации и энтропия Н численно равны, но имеют противоположный смысл.

Чем из большего числа сообщений получатель информации должен сделать выбор, тем большее значение имеет информационная энтропия.

Для источника с единственно возможным сообщением, вероятность которого стремится в 1 (Р→1), энтропия стремится к нулю (Н →0).

Если все к возможных сообщений источника равновероятны (Р(хi) = 1/к), то его энтропия Н максимальна: .

Предполагается, что каждому сообщению соответствует только одно из возможных состояний источника. В этом случае величина Н может служить мерой неорганизованности системы, являющейся источником информации. Чем менее организована система, тем больше число ее возможных состояний и величина максимальной энтропии;

Для примера рассмотрим три источника информации А, В и С, характеризуемые тремя сообщениями каждый: I, II и III с вероятностями, указанными ниже:

Сообщения I II III
А 0,8 0,1 0,1
В 0,4 0,4 0,2
С 0,33 0,33 0,33

Вычислим энтропии источников А, В и С на одно сообщение:

Как видим, источник информации С, который характеризуется сообщениями с одинаковыми вероятностями (Р=0,33), имеет самую большую Н = Нmах, то есть самую большую степень неопределенности.

Уровень определенности (детерминированности) источника информации характеризуется величиной R=1-(H/Hmax), где Н - энтропия на одно состояние источника информации, Нmах - максимальная энтропия на одно сообщение, когда все сообщения равновероятны. В нашем примере RC=0, RB = 0,02, RA = 0,4.

Если R=1,0-0,3, источник информации считается детерминированным, R=0,3-0,1 - вероятностно детерминированным, R<0,1 вероятностным (стохастическим). Таким образом, источники В и С - стохастические, а источник А - детерминированный.

Среднее количество информации, которое может получить объект, зависит от характеристик канала связи. Каналом связи может быть провод, световой луч, волновод, нервные волокна, кровеносные сосуды и др. Основной характеристикой канала связи является его пропускная способность. Она будет определяться предельной скоростью передачи информации, измеряемой в бит/с.

Для передачи сообщения по каналу информация кодируется, например, положение флага на флоте, азбука Морзе, последовательность, частота, длительность импульсов в нервной сети и др. На приемной стороне необходим декодер, который осуществляет обратное кодеру преобразование: код сигнала преобразуется в содержание сообщения. Блок-схема канала связи показана на рис. 3.1.

Рис. 3.1. Блок-схема канала связи

При передаче информации по каналу связи могут происходить ее искажения за счет помех из внешней среды и нарушений в самой линии.

Эффективными способами борьбы с искажениями информации является создание ее избыточности и передача сигналов по большому числу параллельных каналов. Оба эти способа широко используются в организме человека. В нервных сетях всегда обеспечивается дублирование основного сообщения большим числом параллельных сигналов, поэтому количество рецепторов значительно превышает количество нейронов, к которым от них поступают сигналы.

Пропускная способность любых рецепторных аппаратов существенно выше возможностей осознания сенсорной информации. Человеческое сознание пользуется очень малой долей информации, поставляемой в мозг периферическими отделами анализаторов - сенсорными входами. Так, например, максимальный поток информации в процессе зрительного восприятия, осознаваемого человеком, составляет всего 40 бит/с, тогда как информационная емкость потока нервных импульсов в зрительных нервах оценивается величиной 107 бит/с. За счет столь огромной избыточности достигается высокая надежность процессов в организме.





Дата публикования: 2014-11-04; Прочитано: 350 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.011 с)...