Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Информация есть сообщение, осведомление, о чем- либо, содержащее новые для получателя сведения, которые им восприняты, поняты и оценены как полезные по тому или иному критерию



Под термином «сведения» здесь понимается содержание сообщения (политические новости, административно - производственные данные, необходимые для принятия решений в сфере управления, научно-технические данные и тому подобное, словом, все, что может передаваться от человека к человеку устно, письменно, по техническим каналам и т.д.) Полезность может оцениваться по любому критерию (научная, коммерческая и иная ценность, любознательность и проч.)

Добавим еще два понятия, характеризующие ценность и существенность информации.

Следует сразу отметить, что универсального понятия ценности информации современная наука пока не выработала и едва ли в ближайшее время выработает. Это связано с целым рядом трудностей принципиального характера, главная из которых состоит в необходимости учета влияния полученной данной системой информации на ее дальнейшее поведение и развитие. А это влияние может быть весьма неоднозначным и зависеть как от природного качества системы, ее строения, уровня организации, строения и т.п., так и от условий существования и функционирования.

Понятие ценности сведений может быть определено только в связи с рецепцией информации, тот есть реакцией системы на данное сообщение.

Мерой ценности информации являются последствия ее рецепции воспринимаемой системой, а они далеко неоднозначны для разных систем.

Поэтому, рассматривая только целенаправленные системы, определим ценность информации через ее соответствие поставленной системой цели.

Если цель деятельности, функционирования системы определена точно, то ценность информации определим через посредство приращения вероятности достижения этой цели - через разность между вероятностью достижения цели при наличии данной информации и вероятностью достижения этой цели при условии, что информация отсутствует.

В наиболее общем виде мера ценности информации может быть выражена аналитически следующим образом:

(3.90)

- начальная (до поступления информации) вероятность достижения цели; - конечная(после поступления информации) вероятность достижения цели.

Существенность информации. Любое событие всегда происходит в пространстве и во времени. Поэтому при оценке информации рассматривается ее существенность с трех точек зрения:

Ø существенность самого события;

Ø существенность времени совершения события или его наблюдения (рано - поздно - момент);

Ø существенность пространства, в котором происходит событие (место, адрес, номер, точка в пространстве, координата и т.п.)

Функция существенности отражает степень важности информации о том или ином значении параметра системы с учетом времени и пространства и должна удовлетворять условиям нормировки. Конкретный вид этой функции зависит от целого ряда условий, рассматривать которые здесь не будем.

11.3. Во всех приведенных определениях мы пока еще недалеко ушли от функциональной концепции, поскольку все определения, как уже отмечалось, так или иначе, связываются с передачей сообщений.

По нашему мнению существенным шагом вперед является подразделение информации на два больших класса – структурную и оперативную.

По этому поводу Р.А.Абдеев пишет:

«... мы разделяем информацию на:

Структурную (или связанную), присущую объектам неживой и живой природы естественного и искусственного происхождения. Последние (орудия труда, предметы быта, произведения искусства, научные теории и т.д.) возникают путем объективирования («оседания», «опредмечивания») циркулирующей информации, то есть благодаря и в результате целенаправленных управленческих процессов.

2) оперативную (или рабочую), циркулирующую между объектами материального мира и используемую в процессах управления в живой природе и человеческом обществе. Преемственность этих двух форм информации очевидна. Генетически структурная информация неживой природы явилась необходимой предпосылкой возникновения оперативной информации и функциональных систем живой природы. Объекты потому могут порождать процессы, что в объектах содержится информация, которая при определенных условиях может реализовываться в передающую часть отражения. Субъект извлекает из объектов неживой природы информацию, включает ее в контур познания и (или) управления. При этом выявляется содержание информации, она приобретает ценность, то есть раскрываются семантический и прагматический аспекты информации.

Таким образом, две разновидности (два класса информации) тесно связаны взаимными переходами и обусловленностью. При этом сигналы могут быть даны и приняты другой системой благодаря структурной неоднородности самих систем и среды, через которую они передаются»[40].

Другими словами, информация содержится в структуре любого объекта. Она тогда превращается в оперативную информацию, когда появляется получатель и канал связи. То есть информация в неорганической природе существует объективно, но как бы в потенциальной форме. С появлением жизни, а, значит, и получателя информации начинается ее использование в целях познания и управления.

При анализе таких понятий, как «сообщение», «сигнал», рассмотрении проблем передачи сообщений и вообще информационных процессов, мы вернемся к проблеме взаимосвязи структуры системы, структурной и оперативной информации.

12. Все сказанное относится к теориям информации, которые базируются на вероятностных, статистических подходах. Между тем существует целый ряд попыток построения теории информации, которые базируются на иных основаниях. Рассмотрим один из них - алгоритмический подход А.Н. Колмогорова.

Сущность его в следующем. Предполагается, что для двух объектов A и B существует программа P получения B из A, минимальная длина которой и является алгоритмическим количеством информации, или сложностью B относительно A. Длина программы выступает как некоторый алгоритм, то есть последовательность операций, который в необходимом порядке надлежит выполнить, чтобы воспроизвести исследуемый объект. Чем больше разнообразие элементов и отношений порядка в исходной последовательности, тем более сложной (более длинной) оказывается программа.

Другими словами, сложность системы здесь определяется числом двоичных единиц информации, которые полностью описывают данную систему.

Алгоритмическое определение понятия количества информации вводится по аналогии с понятием относительной энтропии и выступает как функция связи, отношения двух объектов (систем) и выражает относительное количество различия (или тождества) этих объектов.

13. В связи с появлением теорий информации, основанных на иных, нежели вероятностные подходы, следует отметить: развитие науки показало, что жесткая логическая схема, ставшая традиционной (теория вероятности ® теория информации) оказалась недостаточной. Более того, оказалось возможным не только определение количества информации без вероятности, но и определение вероятности посредством количества информации.

Невероятностные подходы к построению теории информации позволили академику В.М.Глушкову сформулировать одну из наиболее глубоких с нашей точки зрения трактовку сущности информации: «Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все протекающие в мире процессы» [41].

С учетом же всего сказанного, обобщение различных подходов позволяет рассматривать информацию как меру качественной определенности объектов и процессов материального мира.





Дата публикования: 2015-01-23; Прочитано: 218 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.007 с)...