Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Основные категории и понятия информатики



Основные категории и понятия информатики

Изучение любой дисциплины так или иначе начинается с формулировки определений ее фундаментальных терминов и категорий. Особенностью термина "информация" является то, что, с одной стороны, он является интуитивно понятным практически для всех, а с другой - общепризнанной его трактовки в научной литературе не существует. Одновременно следует особо отметить, что как научная категория "информация" составляет предмет изучения для самых различных областей знания: философии, информатики, теории систем, кибернетики и т. д.
Как известно, термин "информация" происходит от латинского слова "informatio", изначально означающего изложение или разъяснение. В качестве примера приведем следующее его определение.
Информация
- это совокупность сигналов, воспринимаемых нашим сознанием, которые отражают те или иные свойства объектов и явлений окружающей нас действительности. Природа данных сигналов подразумевает наличие принципиальных возможностей по их сохранению, передаче и трансформации (обработке).
Очевидно, что данное определение носит исключительно "пояснительный" характер и ни в коей мере не претендует на научную строгость, так как базируется на достаточно нечетких и расплывчатых категориях: "сигналы", "объекты", "действительность", "восприятие" и т. п.
Другой подход к определению информации отталкивается от схематичного представления процесса ее передачи. На предельном уровне абстрагирования в нем можно выделить два фундаментальных элемента:

При их взаимодействии, собственно говоря, и возникает информация - некоторое сообщение, которое тем или иным способом уменьшает незнание потребителя (приемника) о некотором объекте, факте или явлении. Основываясь на данном подходе, один из основоположников теории информации Клод Шеннон определил информацию как снятую неопределенность.
В одном терминологическом ряду с информацией стоят понятия "данные" и "знания".
Под данными обычно понимают информацию, представленную в конкретных формах, которые адекватны возможным (ожидаемым) процессам ее обработки.
Знания
- это информация, на основании которой путем логических рассуждений могут быть получены определенные выводы1. Сразу оговоримся, что приведенная формулировка является крайне упрощенной, а более подробно соответствующие проблемы будут рассмотрены в главе 13.
Также под знаниями иногда понимают данные, имеющие сложную организацию, обладающие как фактографической, так и семантической составляющими. Под фактографической составляющей понимается информация, связанная с регистрацией событий и явлений, а под семантической - информация, касающаяся содержательного (смыслового) толкования зарегистрированных фактов.

1.1.1. Информация: структура, форма, измерение

Важнейшими характеристиками информации являются ее структура и форма. Структура информации - это то, что определяет взаимосвязи между ее составными элементами. Фундаментальным свойством информации является свойство системности. Как известно, системой называют такую совокупность, которая обладает такими свойствами, которыми не обладает ни один из входящих в нее элементов в отдельности. Без труда можно привести массу примеров, демонстрирующих, что соединение разрозненных информационных сигналов порождает систему, обладающую качественно более высокой содержательной ценностью.
Другой стороной информации является форма ее представления. Среди основных форм могут быть названы:

Практическое значение научных подходов к определению термина "информация" связано с решением проблемы измерения информации. В соответствии с положениями общей теории информации в качестве эталона меры для нее выбирается некоторый абстрактный объект, который может находиться в одном из двух состояний (например, включен/выключен, да/нет, 0/1 и т. п.), или, как еще говорят, бинарный объект. Говорят, что такой объект содержит информацию в 1 бит. Безусловно, данный метод измерения информации во многом был предопределен возможностями ее хранения в различных технических устройствах, где на элементарном уровне информация запоминается с помощью магнитно-электрических устройств, которые могут находиться либо в намагниченном, либо в размагниченном состояниях. От бита как наименьшей меры количества информации происходят производные единицы:
1 байт = 8 бит,
1 килобайт (Кбайт) = 1024 байт = 210 байт,
1 мегабайт (Mбайт) = 1024 килобайт = 220 байт,
1 гигабайт (Гбайт) = 1024 мегабайт = 230 байт и т. д.
Как можно заметить, приставки кило-, мега- и т. д. здесь употребляются в отличающемся от традиционного смысле, означая умножение на 1024 = 210, а не на тысячу. Данное решение позволяет гармонично связать методы измерения информации с бинарной (двоичной) организацией системы ее хранения.





Дата публикования: 2014-12-10; Прочитано: 401 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.006 с)...