![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
Страхи есть у всех, и некоторые из них оправданы. Но иные страхи зарождаются и растут без нашего ведома. Они растут из нерешительности и сомнения. Вон их!
Расскажите мне Ваше алиби – и Я расскажу о Вас. Алиби не нужно тому, кто думает – и (стало быть!) богатеет.
Не в деньгах счастье? Но именно деньги помогают обрести счастье, долголетие, наслаждение и душевный покой.
Здоровье – величайшее богатство. Победите страх – и Вы избавитесь от болезней, вызываемых страхом. Величайшие сокровища ждут, чтобы Вы их взяли!
Смелость города берет.
1)
Информатика, как наука. Понятие кибернетики. Вопросы, изучаемые информатикой. Понятие информации. Уровни обработки и анализа информации. Способы хранения и передачи информации. Информационные технологии. Свойства информации.
Информатика.
Область человеческой деятельности, связанная с процессами преобразования с помощью вычислительной техники.
Техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных с помощью средств вычислительной техники, а также принципы функционирование средств и управление.
Область научных знаний, Объект которой информация, ее свойства, общие закономерности преобразования, технологии обработки с использованием прогрессивных средств.
Кибернетика – наука об общих законах получения, хранения, передачи, переработки информации в сложных системах (технические, биологические, социальные и другие системы).
Информатика включат в себя бесконечность математических, инженерных, философских аспектов, через которые она становиться фундаментальной наукой, занимающейся схематично формализованным представлением информации, вопросами ее обработки, а также различными средствами, с помощью которых можно производить обработку информации.
Информатика включает:
1)технические (методы и средства надежного сбора, хранения, передачи, обработки и представления информации);
2)семантические (определяет способы описания смысла информации, изучает языки ее описания);
3)прагматические (описывает методы кодирования информации);
4)синтаксические (решение задач по формализации, автоматизация различных видов научно-технической деятельности).
Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.
Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.
Процессы обработки:
1) фиксирование, классификация, расположение информации с целью её хранения и последовательного извлечения и распределения между потребителями;
2) передача и преобразование информации, связанная с формальным увеличением или уменьшением её объёма, представлением в другой форме без преобразования смысла;
3) неформальная обработка информации, связанная с анализом смысла, и приносимая пользу от её применения.
2)
Основные понятия информатики. Аспекты понятия информации. Представление информации. Представление информации. Свойство информации. Понятие количества информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Представление – это способ отображения внешней формы информации.
Кодирование – процесс представления информации в определённом виде.
Информация – понятие абстрактное.
Интерпретация – переход от представления информации к абстрактной. Важно, чтобы система представления была единой и согласованной. Внешняя форма информации – это представления.
Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.
Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.
Существуют разные системы представления информации:
Свойства информации.
Достоверность информации (истинная, ложная, ложная+истинная).
Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
Ценность. Зависит от того, какие задачи может решить.
Ясность. Информация должна быть выражена в таком виде, который понятен получателю.
3)
Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Свойства информации.
Измерение:
1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Свойства информации.
Измерение:
2. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
4)
Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.
Измерение:
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
Чем меньше основание системы, тем меньше количество информации.
Задача.
27 монет (1 фальшивая – легче)
2 чашки весов
За сколько взвешиваний найдём?
log227
log23 за 1 взвешивание
х – количество взвешиваний
х * log23 ≥ log227
х ≥ 3
Формула Хартли применима для равновероятной информации.
2. Статистическая мера информации.
События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий.
Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта.
N – возможное количество исходов опыта.
k – количество типов возможных исходов
n – количество повторов i-го исхода
Ii – количество информации типа исхода
Среднее количество полученной информации:
Iср=(n1I1+n2I2+…+nkIk)/N
I = log2(1/p) = -log2p, где р – вероятность появления события
Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N
Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk)
вероятность события
Iср=p1(-log2p1)+…+ pk(-log2pk)
Iср=-∑ pi log2pi=H – энтропия
Свойства энтропии
5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.
Системы счисления
СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления.
СС:
Понятие бита и байта
В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.
28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт.
6)
История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение..
Дата публикования: 2014-11-29; Прочитано: 329 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!