При передаче, хранении и обработке информации ее представляют в виде различных физических сигналов. В зависимости от того, для кого предназначены эти сигналы, они могут иметь разную физическую природу. Для человека это могут быть сигналы, то есть физические процессы, несущие информацию. Главной особенностью сигналов является возможность их восприятия тем, для кого они предназначены.
В теории понятие информации связано с ее измерением. Для этого используют две основные меры: объем и количество информации. Под объемом информации в сообщении понимают количество символов в сообщении. Одно и то же сообщение может быть записано с использованием различных алфавитов, например, число пятнадцать можно записать следующим образом:
· «пятнадцать» (кириллица);
· 15 (арабские цифры);
· ХV (римские цифры);
· 1111 (двоичный алфавит).
Единицей измерения количества информации является байт (1 байт = 8 бит). Производные от него:
· килобайт (Кб) = 210 байт;
· мегабайт (Мб) = 220 байт;
· гигабайт (Гб) = 230 байт;
· терабайт (Тб) = 240 байт.
В связи с тем, что разные компьютеры при обработке информации могут выполнять действия сразу над несколькими байтами, принять говорить о машинном слове, под которым понимают количество двоичных разрядов, одновременно вводимых для обработки или выводимых после нее центральным процессором компьютера. Это количество равно разрядности внешней шины данных центрального процессора и составляет один, два, четыре или восемь байт.
Под количеством информации понимают характеристику сигнала, которая характеризует степень неопределенности, исчезающей после получения сообщения в виде этого сигнала. Таким образом, с помощью сигналов представляются сообщения о каком-либо физическом процессе, состоянии какой-либо системы и т.д.
Например, если сообщения должны передавать информацию о состоянии некоторого технического устройства, то нужно иметь возможность с помощью сигналов предоставить все его состояния. При этом используется вероятностная модель поведения системы. До получения сообщения получатель не имеет представления о том, в каком состоянии находится данное устройство, таким образом, состояние системы является для него неопределенным. Получаемые сообщения снимают эту неопределенность, а количество информации в каждом сообщении характеризует, насколько уменьшается неопределенность.
Хартли Р. предложил в качестве меры неопределенности логарифм от числа возможным состояний системы, эта формула справедлива, если система может находиться в любом из состояний с одинаковой вероятностью:
,
где К – коэффициент пропорциональности, М – число возможных состояний системы, а – основание логарифма, оно равно количеству символов алфавита, который используется при передаче сообщений.