Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение



Страхи есть у всех, и некоторые из них оправданы. Но иные страхи зарождаются и растут без нашего ведома. Они растут из нерешительности и сомнения. Вон их!

Расскажите мне Ваше алиби – и Я расскажу о Вас. Алиби не нужно тому, кто думает – и (стало быть!) богатеет.

Не в деньгах счастье? Но именно деньги помогают обрести счастье, долголетие, наслаждение и душевный покой.

Здоровье – величайшее богатство. Победите страх – и Вы избавитесь от болезней, вызываемых страхом. Величайшие сокровища ждут, чтобы Вы их взяли!

Смелость города берет.

1)

Информатика, как наука. Понятие кибернетики. Вопросы, изучаемые информатикой. Понятие информации. Уровни обработки и анализа информации. Способы хранения и передачи информации. Информационные технологии. Свойства информации.

Информатика.

Область человеческой деятельности, связанная с процессами преобразования с помощью вычислительной техники.

Техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных с помощью средств вычислительной техники, а также принципы функционирование средств и управление.

Область научных знаний, Объект которой информация, ее свойства, общие закономерности преобразования, технологии обработки с использованием прогрессивных средств.

Кибернетика – наука об общих законах получения, хранения, передачи, переработки информации в сложных системах (технические, биологические, социальные и другие системы).

Информатика включат в себя бесконечность математических, инженерных, философских аспектов, через которые она становиться фундаментальной наукой, занимающейся схематично формализованным представлением информации, вопросами ее обработки, а также различными средствами, с помощью которых можно производить обработку информации.

Информатика включает:

1)технические (методы и средства надежного сбора, хранения, передачи, обработки и представления информации);

2)семантические (определяет способы описания смысла информации, изучает языки ее описания);

3)прагматические (описывает методы кодирования информации);

4)синтаксические (решение задач по формализации, автоматизация различных видов научно-технической деятельности).

Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.

Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.

Процессы обработки:

1) фиксирование, классификация, расположение информации с целью её хранения и последовательного извлечения и распределения между потребителями;

2) передача и преобразование информации, связанная с формальным увеличением или уменьшением её объёма, представлением в другой форме без преобразования смысла;

3) неформальная обработка информации, связанная с анализом смысла, и приносимая пользу от её применения.


2)

Основные понятия информатики. Аспекты понятия информации. Представление информации. Представление информации. Свойство информации. Понятие количества информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Представление – это способ отображения внешней формы информации.

Кодирование – процесс представления информации в определённом виде.

Информация – понятие абстрактное.

Интерпретация – переход от представления информации к абстрактной. Важно, чтобы система представления была единой и согласованной. Внешняя форма информации – это представления.

Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.

Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.

Существуют разные системы представления информации:

  1. Высказывательная. Используется в обычной жизни (истинное и ложное высказывание). Высказывания – языковое образование, в отношении которого имеет смысл говорить об истинности/ложности. Логика высказывания – это характерный пример информационной системы. Высказывания, их языковое представление, правила преобразования – пример структуры, в которой достаточно часто используется информация. Связки и, или, не.
  2. Для представления информации в вычислительной технике используются системы счисления – системы, в которых кодируется информация по определённым правилам. В вычислительной технике удобно представлять информацию 2 цифрами (2 состояния) => используется двоичная система счисления. Количество информации можно посчитать (сигналы). Бит – это кусочек, элемент, частица.

Свойства информации.

Достоверность информации (истинная, ложная, ложная+истинная).

Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.

Ценность. Зависит от того, какие задачи может решить.

Ясность. Информация должна быть выражена в таком виде, который понятен получателю.


3)

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).
  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
  3. Ценность. Зависит от того, какие задачи может решить.
  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

Измерение:

1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).
  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
  3. Ценность. Зависит от того, какие задачи может решить.
  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

Измерение:

2. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.


4)

Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.
Измерение:

  1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

Чем меньше основание системы, тем меньше количество информации.

Задача.

27 монет (1 фальшивая – легче)

2 чашки весов

За сколько взвешиваний найдём?

log227

log23 за 1 взвешивание

х – количество взвешиваний

х * log23 ≥ log227

х ≥ 3

Формула Хартли применима для равновероятной информации.

2. Статистическая мера информации.

События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий.

Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта.

N – возможное количество исходов опыта.

k – количество типов возможных исходов

n – количество повторов i-го исхода

Ii – количество информации типа исхода

Среднее количество полученной информации:

Iср=(n1I1+n2I2+…+nkIk)/N

I = log2(1/p) = -log2p, где р – вероятность появления события

Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N

Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk)

вероятность события

Iср=p1(-log2p1)+…+ pk(-log2pk)

Iср=-∑ pi log2pi=H – энтропия

Свойства энтропии

  1. Всегда неотрицательна p<1 => log<0
  2. =0, когда 1 из pi=1, а все остальные=0, событие предопределено
  3. Имеет наибольшее значение, когда события равновероятны
  4. Энтропия объекта, состояние, которое образуется совместной реализацией состояний 2 других объектов, равных сумме энтропий исходных объектов.

5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.
Системы счисления

СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления.

СС:

  1. позиционные (значение цифры зависит от позиции в записи, место – разряд, кол-во цифр – разрядность; каждому разряду соответствует степень основания)
  2. непозиционные

Понятие бита и байта

В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.

28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт.


6)

История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение..





Дата публикования: 2014-11-29; Прочитано: 329 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.012 с)...