Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
В XVII веке немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным.
Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна.
Язык компьютера — это язык двоичных чисел - двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации — бит (англ. bit, от binary — двоичный и digit — знак). Одного бита информации достаточно, чтобы передать слово "да" или "нет", закодировать, например, состояние электролампочки. Кстати, на некоторых выключателях пишут "1 —включено" и "0 — выключено". Взгляд на выключатель снимает для нас неопределенность в его состоянии. При этом мы получаем количество информации, равное одному биту.
БИТ — наименьшая единица измерения информации, соответствующая одному разряду машинного двоичного кода.
Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:
Дата публикования: 2015-02-03; Прочитано: 435 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!