Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Определение информации



В литературе можно найти множество самых разных определений информации. Например:

· Информация ‒ от лат. informatio, разъяснение, изложение, осведомлённость. Для обыденных целей достаточно, но достаточно ли для работы с информацией как одним из трех "китов", на которых стоит наш мир? Например, отвечает ли это определение на вопрос о том, откуда берется информация? Или о закономерностях её преобразования?

· Информация есть сведения, сообщения…

· Информация есть мера упорядоченности…. Уже лучше, как мы увидим далее, здесь отражен очень важный аспект, но вопросы все еще остаются.

· Информация есть содержание процессов отражения…

· Информация есть алгоритм или инструкция…. А как быть с неформализуемыми и неалгоритмизируемыми задачами, т.е. именно теми задачами, решение которых, относящееся к категории творчества, и представляет наибольший интерес? Ведь ни алгоритм, ни инструкция ничего нового не создают - они лишь повторяют ранее существующее. А человек наделен способностью к творчеству, т.е. к созданию нового, ранее не существовавшего.

· «Информация есть информация, а не материя и не энергия. Это третье». (Норберт Винер) С этим можно согласиться, но какова ценность такого определения? Что из него можно конструктивного извлечь, как применить?

· Часто встречается т.н. "энтропийный подход" к определению информации. Этот подход мы рассмотрим чуть ниже, при обсуждении количественной оценки информации, сейчас же отметим лишь, что он относится к вопросу измерения количества информации, но никак не к её определению.

Рассмотрим определение, предложенное Генри Кастлером:

«Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных» [1].

Достоинство этого определения ‒ оно отвечает на вопрос как о механизме возникновении информации ‒ механизме выбора, так и необходимых для этого условиях:

1. "внешнее" или объективное условие ‒ наличие альтернатив;

2. и "внутреннее"или субъективное - наличие свободы выбора и памяти.

Обратим особое внимание, что это определение, единственное из всех, вышеприведенных, акцентирует внимание на необходимости наличия творца информации или автора ‒ того, кто осуществляет выбор. Информация не возникает сама по себе, ниоткуда ‒ она создается, у неё всегда есть автор.

Это определение было развито Ириной Вигеновной Мелик-Гайказян в следующее:

«Феномен информации есть многостадийный, необратимый процесс становления структуры в открытой неравновесной системе, начинающийся со случайного запомненного выбора, который эта система делает, переходя от хаоса к порядку, и завершающийся целенаправленным действием согласно алгоритму или программе, отвечающим семантике выбора» [2].

Рассмотрим ключевые моменты этого определения:

1. Необратимость процесса. Следуя [3] будем понимать систему логически необратимой, если по сигналу на выходе нельзя однозначно определить сигнал на входе. Необратимость обусловлена открытостью системы [4] – наличием в ней диссипативного фактора [5, 6].

2. Становление структуры. Внутренняя структурированность, внутренняя связность элементов ‒ важнейший атрибут, отличающий информацию от шума. Мера внутренней структурированности ‒ длина корреляции. [7-9]

3. Открытость и неравновесность системы. Порождение информации возможно только в открытой системе, т.е. системе, имеющей приток и сток, обменивающейся со своим окружением. Неравновесность ‒ важнейшее условие, в равновесной систем ничего не происходит. [4, 10]

4. Случайность. Если выбор не случаен, то он чем-то мотивирован, какой-то подсказкой, т.е. какой-то информацией. Следовательно, в полном смысле порождения информации нет, есть лишь её рецепция (восприятие) и преобразование.

5. Запомненность выбора. Если результат выбора не запомнен, то … о чем тогда можно говорить?

6. Переход от хаоса к порядку. Здесь подчеркнута важнейшая т.н. творческая роль хаоса - без хаоса нет творчества. Способность к творчеству у человека неразрывно связана со способностью к "погружению в хаос" ‒ переходу к хаотической динамике нейронной активности коры головного мозга. [11-14]

3.2. Рассмотрим вопрос количественной оценки информации.

В настоящее время популярен т.н. " энтропийный подход " к оценке количества информации. Основы этого подхода заложены в классических работах Ральфа Хартли [15] и Клода Шеннона [16]. Хартли в 1928 г. предположил, что информация допускает количественную оценку. Завершенный и полный вид этой теории придал в 1948 году Клод Шеннон.

Р. Хартли процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. т.е.:

.

Допустим, нужно угадать одно число из набора чисел от 1 до 8. По формуле Хартли можно вычислить, какое количество информации для этого требуется: . Таким образом, сообщение о верно угаданном числе содержит количество информации, равное 3 единицы информации.

Обратим внимание, что здесь речь идет о выборе одного из сообщений. Т.е. рассматривается на вопрос порождения информации, а вопрос передачи и приема сообщений ‒ уже существующей информации. Это важный момент, который часто упускается из виду.

Но данный процесс получения информации (сообщений) рассматривает равновероятное число конечных элементов N. К примеру являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.

Рис.1. Уменьшение неопределенности путем последовательного принятия решений по выбору варианта.

Для задач такого рода Клод Шеннон предложил в 1948 г. [16] другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

,

где pi - вероятность появления i - ого сообщения, n - общее число сообщений.

Если все варианты равновероятны, то есть , то мы получаем классическую формулу Хартли.

Шеннон под информацией понимает сообщение, уменьшающее неопределенность (энтропию) у получателя сообщения. Информация ‒ снятая неопределенность. Точнее получение информации ‒ необходимое условие для снятия неопределенности. Неопределенность возникает в ситуации выбора. Задача, которая решается в ходе снятия неопределённости – уменьшение количества рассматриваемых вариантов (уменьшение разнообразия), и в итоге выбор одного соответствующего ситуации варианта из числа возможных. Снятие неопределенности даёт возможность принимать обоснованные решения и действовать. В этом управляющая роль информации. Отметим, что формула Шеннона отражает количество информации, но не её ценность.

Для того, чтобы наглядно увидеть разницу между приемом сообщений, рассматриваемым Хартли и Шенноном, и информацией приведем простой пример ‒ количество информации в сообщении, определяемое формулой Шеннона, не зависит от того или иного сочетания букв: можно сделать сообщение бессмысленным, просто переставив буквы. В этом случае ценность информации исчезнет, она превращается в шум, а количество информации, определяемой формулой, останется прежним. Таким образом, энтропийный подход, применимый к теории передачи сообщений по линиям связи (теория связи), не учитывает различие между информацией и шумом.

Корреляционная мера. Альтернативой «энтропийного подхода» может служить подход с позиции корреляционной меры, учитывающий такой важнейший атрибут информации, как её внутренняя структурированность, связность её элементов. Подход, как следует из названия, основан на использовании функции корреляции.

Функция взаимной корреляции двух функций и определяется следующим образом:

.

Если , то функция корреляции называется функцией автокорреляции.

Аргументом функция корреляции является сдвиг первой функции относительно второй . Если , то при имеем максимальное значение функции корреляции. По мере сдвига одной функции относительно другой значение функции корреляции убывает относительно максимального значения. Скорость этого убывания показывает взаимную связь значений функций в точках, отстоящих друг от друга на величину сдвига. Если эти значения никак друг с другом не связаны (не коррелированы), то функция корреляции равна нулю.

Таким образом, скорость убывания автокорреляционной функции может служить мерой внутренней связности функции, её структурированности. В качестве такой оценки обычно используют параметр, называемый длиной корреляции или радиусом корреляции – полуширину глобального максимума функции автокорреляции по заданному уровню от максимального значения. Если рассматривать как некоторый фрагмент информации длиной 2 L, то оценки информационной емкости можно использовать отношение, называемой обобщенной частотой

.

Литература к лекции 1-2.

1. Кастлер Г. Возникновение биологической организации. – М.: Мир, 1967.

2. И.В. Мелик-Гайказян. «Информационные процессы и реальность». М.: 1997.

3. Ландауэр Р. Необратимость и выделение тепла в процессе вычислений // В кн. Квантовый компьютер и квантовые вычисления (Библиотека «Квантовый компьютер»). Под.ред. Садовничего В.А. – Ижевск, 1999. Т.2. С.9 – 32.

4. Кадомцев Б.Б. Динамика и информация. Изд.2-е. – М.: Ред. журн. УФН, 1999. – 400 С.

5. Чернавский Д.С. Синергетика и информация. Динамическая теория информации. Изд.3-е, доп. – М.: URSS, 2009. – 300 С. ISBN 978-5-397-00207-3.

6. Климонтович Ю.Л. Введение в физику открытых систем – М.: Янус-К, 2002. – 284 С. ISBN 5-8037-0101-7.

7. Корогодин В.И. Информация и феномен жизни. Пущино.: АН СССР, 1991. 202 С.

8. Корогодин В.И. Информация и феномен информации. Пущино: 2007. 197 С.

9. Пригожин И.Р., Стенгерс И. Время, хаос, квант. К решению парадокса времени. Пер. с англ./ Под.ред. Аршинова В.И. Изд.6-е. - М.: КомКнига, 2005. 232 С. ISBN 5-484-00180-3.

10. Кальоти Дж. От восприятия к мысли: О динамике неоднозначного и нарушениях симметрии в науке и искусстве. – М.: Мир, 1998. – 221С. ISBN 5-03-003306-8.

11. Ижикевич Е.М., Малинецкий Г.Г. О возможной роли хаоса в нейросистемах // ДАН. 1992. Т. 326. С.627 – 632.

12. Фриман Дж.У. Динамика мозга в восприятии и сознании: творческая роль хаоса // В сб. «Синергетика и психология». Вып.3. "Когнитивные процессы". – М.: Когито-Центр, 2004. С.13-28.

13. Князева Е.Н. Методы нелинейной динамики в когнитивной науке // В сб. «Синергетика и психология». Вып.3. "Когнитивные процессы". – М.: Когито-Центр, 2004. С. 29 – 48.

14. Комбс А. Сознание: Хаотическое и странно-аттракторное // В сб. «Синергетика и психология». Вып.3. "Когнитивные процессы". – М.: Когито-Центр, 2004. С. 49 – 60. Харкевич А.А. О ценности информации // Проблемы кибернетики. 1960. вып. 4.

15. Hartley, R.V.L. Transmission of Information // Bell System Technical Journal, July 1928, pp. 535–563.

http://www.dotrose.com/etext/90_Miscellaneous/transmission_of_information_1928b.pdf

16. Shannon C. E. A Mathematical Theory of Communication // Bell System Technical Journal. — 1948. — Vol. 27. — P. 379—423. http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf Русский перевод: Шеннон К. Э. Математическая теория связи // Работы по теории информации и кибернетике / Пер. С. Карпова. — М.: ИИЛ, 1963. — 830 с.

17. Стартонович Р.Л. Теория информации. М.: "Сов. радио", 1975. 424 С.

18. Бонгард М.М. Проблемы узнавания. М.: Наука, 1967. - 321 с.


Лекция 3-4.

3. Два подхода к обработке информации и два класса вычислителей: аналоговые и цифровые.

  Аналоговые Цифровые
Представление данных Аналоговое Дискретное
Точность представления данных и вычислений Определяется относительно максимального значения операнда Определяется относительно шага дискретизации, поэтому выше, чем у А.
Объем и скорость вычислений +  
Гибкость, универсализм   +

Цифровые методы представления и обработки данных превосходят аналоговые в части точности, гибкости и универсализма, но уступают им в части требований к вычислительной мощности и объему памяти в силу большего объема вычислений. Отсюда следуют и различия в областях их применения – цифровые методы применяются там, где важны точность и универсализм, а аналоговые при создании специализированных процессоров, ориентированных на решение узкого круга задач одного класса (или только одной), отличающихся высокими требованиями к вычислительной мощности. Пример – выполнение в реальном времени интегральных преобразований типа свертки над массивами информации, имеющими двумерную область определения (изображениями). Аналоговые вычислители (АВМ) бывают как электронные, так и оптические.

Особое место занимают квантовые вычисления и, соответственно, квантовые компьютеры.

Тема доклада: Аналоговые ЭВМ.

Тема доклада: Квантовые вычисления и квантовые компьютеры.

Тема доклада: Связь между квантовыми вычислениями и оптикой (голографией).

4. Теоретические основания цифровых методов обработки и вычислений. Теорема Котельникова (1933 г. [1]).

Влади́мир Алекса́ндрович Коте́льников (24.08 (06.09) 1908, Казань, Российская империя – 11.02.2005, Москва, Россия). Доказал теорему в 1933 г.

Тема доклада: Теоремы Котельникова, Найквиста – Шеннона, отсчетов – вопросы приоритета. Кто и что именно когда предложил и доказал.

Операция преобразования Фурье функции f(x), удовлетворяющей следующим условиям:

1. Функция f(x) абсолютно интегрируема;

2. Функция f(x) непрерывна или имеет конечное число разрывов первого рода и конечное число максимумов и минимумов в любых конечных пределах;

3. Функция f(x) не имеет разрывов второго рода.

Фурье-образ функции f(x) определяется посредством следующего преобразования (преобразование Фурье функции f (x) )

(1.1)

здесь n - пространственная частота, w - круговая пространственная частота w = 2pn.

Обратное преобразование Фурье связывает Фурье-образ с его прообразом (самой функцией)

(1.2)

так как ,

то

отсюда . (1.3)

Теорема Котельникова лежит в основе методов дискретизации непрерывных сигналов и, тем самым, в основе всех современных методов компьютерной обработки и передачи по каналам связи аудио и видео информации. Применительно к задаче ИИ она представляет интерес в силу того, что информация из внешнего мира поступает на сенсоры в виде непрерывных функций, а как сами сенсоры, так и обрабатывающие ее структуры (нейронные структуры), дискретны.

Пусть имеется сигнал f (x) со спектром F (n), ограниченным максимальной частотой nmax.

(1.4)

Поскольку пределы интегрирования ограничены пределами - , то можно продолжить функцию (спектр) вне этих пределов посредством ее периодического повторения с периодом 2nmax. Тогда эту новую функцию (спектр) можно представить рядом Фурье

, (1.4)

Где

(1.5)

Подставив выражение (1.5) в формулу (1.4), получим

изменяя порядок интегрирования и суммирования получим

нетрудно видеть, что при x=-k/2nmax

,

Откуда

,

а интеграл

,

Где – обозначение Вудварда для функции вида .

Тогда

Поскольку k принимает значения от -¥ до +¥, то знаки при k можно поменять местами, а величину 1/2nmax обозначить Dx. Отсюда получим окончательное выражение для дискретного представления нашей непрерывной функции с ограниченным спектром:

т.е. непрерывная функция со спектром, ограниченным максимальной частотой nmax может быть представлена посредством отсчетов, отстоящих друг от друга на расстояние Dx=1/2nmax.

А поскольку любой реальный сигнал или процесс (функция одной координаты) или поле (функция двух координат)ограничены (во времени или пространстве), то и описывающая и функция также ограничена, следовательно, число отсчетов также конечно.

5. Цифровой компьютер (ЦК). Определения.

Цифровой компьютер – машина, которая может решать задачи, выполняя данные ей команды. Последовательность команд, описывающих решение определённой задачи, называется программой. [2]

ЭВМ - устройство, которое принимает данные, обрабатывает их в соответствии с хранимой программой, генерирует результаты и обычно состоит из блоков ввода/вывода, памяти, арифметики, логики и управления. [3]

ЭВМ - искусственная (инженерная) машина, предназначенная для вычислений на основе алгоритмов. [4]

Основное назначение ЦК – выполнение вычислений, формализованных в виде алгоритма (программы). Следовательно, именно свойства алгоритмов, вкупе с наличествующей элементной базой, и определяют принципы построения ЦК – его архитектуру.

АЛГОРИТМ [от algorithm; algorismus, первоначально — лат. транслитерация имени ср.-азиат. учёного 9 в. Хорезми (Мухаммед бен Муса аль-Хорезми)], программа, определяющая способ поведения (вычисления); система правил (предписаний) для эффективного решения задач. [5]

6. Многоуровневая компьютерная организация (иерархия).

Проблема: компьютеру доступны только команды на машинном языке (язык нулевого уровня - Я0), люди формулируют задачи и методы их решения на другом языке (язык уровня N – ЯN, например, Я1).

Два способа решения проблемы:

1. Исполнение программы, написанной на Я1, заменой каждой команды из Я1 эквивалентным набором команд на Я0. Эта технология называется трансляцией. При трансляции вся программа на Я1 преобразуется в программу на Я0, программа на Я1 отбрасывается, а новая программа на Я0 загружается в память и исполняется.

2. Создание на Я0 программы, получающей в качестве входных данных программы, написанные на Я1. Каждая команда Я1 обрабатывается поочередно исполнением соответствующего набора команд Я0. Это интерпретация, а программа на Я0 – интерпретатор. При интерпретации каждая команда на Я1 перекодируется на Я0 и сразу же исполняется. Новая программа на Я0 не создается.

Для каждого уровня языка можно ввести понятие виртуальной машины соответствующего уровня ЯN – МN.

Проблема: для эффективной трансляции и/или интерпретации языки Я0 и Я1 должны быть близки между собой. Но это значит, что Я1 далек от естественного языка (ЕЯ). Отсюда вытекает многоуровневая организация как средство решения этой проблемы (Рис.2). [2]

Рис.2. Принципиальная схема многоуровневой машины.

Язык и виртуальная машина взаимосвязаны. Каждая виртуальная машина поддерживает определенный язык, команды которого она может выполнить, и наоборот.

Обратим внимание на определение «виртуальная». Можно создать реальную машину, поддерживающую язык высокого уровня, но вопрос упирается не в принципиальную возможность её создания, а в целесообразность по критерию стоимость/эффективность.

На Рис.3 дана принципиальная схема «шестиуровневой» машины. Определение «шестиуровневая» взято в кавычки, так как на схеме семь уровней, самый нижний из которых – уровень элементной базы программисты обычно исключают из рассмотрения. Но именно он и определяет не только характеристики вычислителя, но и саму возможность его создания, т.е. является базовым уровнем.

Ниже рассмотрим шесть уровней, уровень элементной базы сейчас рассматривать не будем.

Рис.3. Принципиальная схема «шестиуровневой» машины. Под каждым уровнем указан способ его поддержки.

Уровень 0 – цифровой логический уровень. На этом уровне объекты называются вентилями. У каждого вентиля есть один или несколько входов, на которые поступают бинарные сигналы (0 или 1), вентиль вычисляет простые функции этих сигналов, например, НЕ (отрицание), И (дизъюнкция), ИЛИ (конъюнкция). Несколько вентилей формируют 1 бит памяти, который может содержать 0 или 1. Биты памяти объединяют в группы по 16, 32 или 64 бита – это регистры. Каждый регистр может содержать одно число в двоичном формате.

Уровень 1 – уровень микроархитектуры. Образуется наборами регистров (8 или 32), которые формируют локальную память и арифметико-логическое устройство (АЛУ). АЛУ реализует арифметические операции.

Регистры вместе с АЛУ формируют тракт данных. Базовая операция тракта данных – выбирается один или два регистра (в зависимости от того, какая операция – одноместная (отрицание) или двухместная (сложение) выполняется), над операндами выполняется операция и результат помещается в регистр результата операции.

Работа тракта данных может контролироваться особой программой – микропрограммой (преимущественно, на старых моделях), а может управляться напрямую аппаратными средствами (преимущественно в современных моделях).

Если тракт данных контролируется микропрограммой, то на этом уровне обычно находится программный интерпретатор и уровень может называться уровнем микропрограммирования. Микропрограмма в этом случае – интерпретатор команд на уровне 2. Она последовательно считывает команды из памяти и исполняет их, использую тракт данных.

Программы, написанные на машинном языке (Я1) могут непосредственно, т.е. без использования интерпретаторов и трансляторов) исполняться электронными устройствами М0. Эти электронные устройства, включая память и средства ввода-вывода, т.е. реальные материальные устройства, формируют аппаратное обеспечение вычислителя. Программное обеспечение – модели, алгоритмы, программы. В первых компьютерах различие между программным и аппаратным обеспечением было очевидно. При этом важно иметь в виду, что программное и аппаратное обеспечение компьютера логически эквивалентно [2]. Поэтому выбор того, каким способом будет реализована та или иная операция – программно или аппаратно, каждый раз принимается исходя из анализа комплекса сопутствующих факторов по критерию стоимость/эффективность.

Уровень 2 – уровень архитектуры набора команд. Этот уровень, в отличие от более низких, уже доступен пользователю, так как он публикуется в руководствах к компьютерам. Описываемые в этих руководствах наборы команд на самом деле не команды машинного уровня, так как в реальности они исполняются микропрограммами-интерпретаторами или аппаратным обеспечением.

Отметим, что первые ЭВМ (40-е годы ХХ века) имели только два уровня – те, что мы обозначили как уровни 0 и 2. Это была эпоха ламповых ЭВМ, отличавшихся низкой надежностью. Проблема низкой надежности цифрового логического уровня усугублялась тем, что развитие набора команд было возможно только за счет развития электронных схем, увеличения их сложности, т.е. снижения надежности вычислителя в целом. Уровень 1 появился в 1951 году, когда Морис Уилкс из Кембриджского университета предложил кардинально упростить аппаратное обеспечение за счет введения промежуточного уровня 1, предназначенного для интерпретации программ уровня 2 (архитектуры набора команд). Эта интерпретация осуществляется неизменяемой программой – микропрограммой и аппаратное обеспечение (уровень 0) должно исполнять только ограниченный набор команд микропрограммы – за счет ограниченности набора команд микропрограммы требования к аппаратному обеспечению снижаются. Этот подход, известный также под названием микропрограммирование, наглядно демонстрирует правомочность постулата о логической эквивалентности программного и аппаратного обеспечения.

Уровень 3 – уровень операционной системы. Этот уровень можно рассматривать как гибридный, поскольку большинство команд этого уровня наличествуют также и на предыдущем уровне – архитектуры набора команд. Особенности этого уровня:

- новый набор команд;

- другая организация памяти;

- возможность исполнения нескольких программ одновременно;

- ряд иных.

Тем самым на этом уровне обеспечивается большее разнообразие, чем на предыдущих.

Исполнение новых средств и команд уровня 3 обеспечивает работающий на уровне 2 интерпретатор, называющийся операционной системой (ОС). Те команды уровня 3, что идентичны командам уровня 2, ОС не задействуют и исполняются микропрограммой или аппаратно. Поэтому уровень ОС часто определяется как гибридный. [2]

Уровни 1 – 3 прикладными программистами обычно не используются. Эти уровни ориентированы на интерпретаторы и трансляторы, обеспечивающие работу на более высоких уровнях, они разрабатываются системными программистами. Уровни 2 – 3 всегда интерпретируются. Прикладные программисты работают на уровнях 4 – 5. Эти уровни обычно транслируются (транслирующая программа – ассемблер).

Уровни 1-3 4-5
Использование Системные программисты Прикладные программисты
Механизмы поддержки более высоких уровней Интерпретаторы Трансляторы
Машинные языки Цифровые Символьные
     
     

Уровень 4 – символическая форма языков более низкого уровня. Символический язык транслируется в язык более низкого уровня (цифровой) ассемблером.

Уровень 5 – уровень языков высокого уровня. Язык высокого уровня – язык для прикладных программистов. Эти языки транслируются на низшие уровню компиляторами, хотя иногда используются и интерпретаторы, в частности. Для конкретной прикладной области, например, символической логики.

7. Архитектура - о чем, собственно, наш курс

Набор типов данных, операций и характеристик каждого отдельно взятого уровня называется архитектурой. Она связана с аспектами, видимыми пользователю соответствующего уровня. Ресурсы памяти – аспект архитектуры. Технология реализации памяти к архитектуре в этом смысле не относится. [2]

Но! При анализе понятия архитектура ЦК нужно иметь в виду, что на сегодня разработка ЦК – это не независимая разработка "железа" и программного обеспечения по отдельности, а разработка системы. Понятие архитектуры актуально в контексте взаимодействия аппаратных и программных компонентов. Можно выделить некий условный стандартный цикл работы вычислителя:

1. выборка инструкции из основной памяти;

2. выборка операндов из оперативной памяти и/или регистров;

3. выполнение инструкции;

4. фиксация результата – запись в память, регистр, вывод.

На сегодня существует ряд трактовок и определений понятия архитектуры ЦК. Возможно, что термин «архитектура» применительно к ЦК впервые был использован корпорацией IBM в середине 60-х годов при разработке семейства IBM 360. Ряд авторов считают термины «архитектура» и «организация» синонимами [2]. Под термином «архитектура» часто понимается представление возможностей ЦК с точки зрения пользователя, разрабатывающего программу на машинно-ориентированном языке. Соответственно, архитектура отражает те стороны структуры и функционирования ЦК, что существенны и видимы для такого программирующего пользователя в контексте разрабатываемых им программ.

Архитектура – совокупность характеристик ЦК, существенных с точки зрения пользователя [6]. Ключевой момент здесь – способ использования ЦК.

Другая формулировка: Архитектура – совокупность общих принципов организации аппаратно-программных средств и их характеристик, определяющая функциональные возможности вычислителя при решении соответствующих классов задач.

Другое определение: Архитектура – логическое построение вычислителя, как оно представляется программисту, разрабатывающему программу на машинно-ориентированном языке [7].

Согласно [2]: “Архитектура связана с аспектами, которые видны программисту. Например, сведения о том, сколько памяти можно использовать при написании программы – часть архитектуры, а аспекты разработки (например, какая технология используется при создании памяти) не является частью архитектуры. Изучение того, как разрабатываются те части компьютерной системы, которые видны программистам, называется изучением компьютерной архитектуры. Термины компьютерная архитектура и компьютерная организация означают, в сущности, одно и тоже…”.

Архитектура – как раскрытие способов взаимодействия центрального процессора (ЦП) с памятью, периферийными устройствами, окружением и пользователем (интерфейсный подход).

Альтернативный подход основан на противопоставлении понятий «архитектура» и «организация». В рамках этого подхода, архитектура определяет возможности ЦК, а организация – реализацию этих возможностей в конкретных моделях. Правомочность такого подхода видна при сравнении моделей, принадлежащих одному семейству – как правило, эти модели обладают одной архитектурой, но разной структурной организацией.

Согласно [8]: “При описании компьютерных систем принято различать их структурную организацию и архитектуру. Хотя точное определение этим понятиям дать довольно трудно, среди специалистов существует общепринятое мнение о смысле этих понятий и различий между ними.

Термин архитектура компьютерной системы (компьютера) относится к тем характеристикам системы, которые доступны извне, то есть со стороны программы или, с другой точки зрения, оказывает непосредственное влияние на логику выполнения программ.

Под термином структурная организация компьютерной системы подразумевается совокупность операционных блоков (устройств) и их взаимосвязей, обеспечивающих реализацию спецификаций, заданных архитектурой компьютера.

В число характеристик архитектуры входят набор машинных команд, формат разрядной сетки для представления данных разных типов, механизм обращения к средствам ввода/вывода и метод адресации памяти.

Характеристики структурной организации включают скрытые от программиста детали аппаратной реализации системы: управляющие сигналы, аппаратный интерфейс между компьютером и периферийным оборудованием, технологию функционирования памяти”.

Организация ЦК.

Структурная организация определяет устройство ЦК - задает структуру на уровне устройств ЦК и организацию связей между этими устройствами на уровне аппаратных интерфейсов.

Функциональная организация определяет принципы функционирования ЦК, т. е. собственно вычислительные процессы.

Два уровня представления архитектуры ЦК:

- программная архитектура включает в себя аспекты, видимые программистам и, соответственно, программам

- аппаратная архитектура включает аспекты, невидимые для программиста.

В этом смысле понятие аппаратной архитектуры и структурной организации ЦК можно рассматривать как синонимы.

В связи с делением программистов на прикладных и системных, программную архитектуру также можно разделить на 2 вида: прикладную и системную.

Основными компонентами архитектуры ЦК принято считать следующие:

1. Вычислительные и логические возможности

1. Система команд

2. Формат команд - то, из чего состоит команда

3. Способы адресации

4. Назначение и состав регистров

2. Аппаратные средства

1. Структура

2. Организация памяти

3. Организация ввода-вывода

4. Принципы управления

3. Программное обеспечение

1. ОС

2. Языки программирования

3. Прикладное ПО





Дата публикования: 2014-12-11; Прочитано: 625 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.032 с)...