1.4. Информационные основы процесса управления. Общие сведения об информации

Информация определяет многие процессы, происходящие в системах управления технологическими объектами и производственными комплексами. В общем виде процесс управления происходит в следующей последовательности: подготовка исходной информации, переработка введенной информации, управление процессом на основании полученной информации. Практически все задачи управления связаны с обработкой информации, описывающей свойства объектов: изделий, узлов и деталей, из которых эти изделия состоят, материалов, производственных подразделений и т.д. Особо выделяются задачи, при решении которых приходится учитывать связи между различными объектами.

Термин «информация» — один из самых популярных в нашем лексиконе. В него вкладывается широкий смысл, и, как правило, его объяснение дается на интуитивном уровне. Информация передается по телефону, радио, телевидению. Она хранится в библиотеках, архивах, базах данных. Информация - это новые сведения, которые могут быть использованы человеком для совершенствования его деятельности и пополнения знаний. Информация является отражением материальной сущности объекта или системы, служит способом описания взаимодействия между источником информации и получателем.

Весь комплекс данных, отражающих состояние объектов и течение процессов производства и необходимый для эффективного управления технологическим оборудованием, определяется как информационное обеспечение.

Все процессы, протекающие в СУ, связаны с различными физическими носителями информационных сообщений, а узлы и объекты этой системы образуют информационную среду, в которой протекают все информационные сообщения.

Воздействуя на параметры системы, информационные сообщения переводят ее из одного состояния в другое. Это и есть процесс управления.

Информация о каких-либо событиях, процессах, состояниях объектов содержится в сигналах, приходящих от этих объектов. А сами эти сигналы, несущие информацию, могут быть непрерывными (аналоговыми) или дискретными.

Исследованием методов передачи, хранения и приема информации занимается теория информации. Согласно теории информации, во всех системах управления происходит процесс приёма, преобразования и передачи информации. Одна и та же информация может быть преобразована различным образом. Главное в таком преобразовании — однозначность представления информации и ее различимость. Представление информации и перевод ее из одной системы в другую при полном сохранении содержания называется кодированием информации.

Упорядоченный набор кодовых комбинаций называется кодом.

Множество символов, описывающих кодовые комбинации, называют алфавитом кода, который можно представить (а1, а2, … аn).

Известны позиционная (десятичная) и непозиционная (римская) системы счисления. Позиционная система – система, в которой число зависит от его положения в записи. Чаше всего пользуются десятичной системой счисления. Для десятичной системы счисления алфавит кода имеет вид: (0, 1, 2, … , 9).

Однако в вычислительной технике и в системах ЧПУ по целому ряду причин используют другие системы счисления.

Решение многих задач связано с обработкой информации, описывающей свойства большого количества объектов: изделий, узлов и деталей, из которых это изделие состоит, материалов, производственных подразделений и т.п. Особо выделяются задачи, при решении которых приходится учитывать связи между различными объектами. Решение подобного рода задач требует количественной и качественной оценки характеристик управляемых объектов.

В теории передачи и обработки информации для САУ вводится понятие меры количества и качества информации.

Только принимая за основу новизну сведений, можно дать количественную оценку информации. Основываясь на идее, что информация устраняет некоторую неопределенность, т.е. незнание, описание любого события или объекта формально можно рассматривать как указание на то, в каком из возможных состояний находится объект. Тогда протекание событий во времени есть не что иное, как смена состояний, выбранных с некоторой вероятностью из числа всех возможных. Чем выше уровень неопределенности выбора, тем больший требуется объем информации. Поэтому в теории информации количество информации является мерой снятия неопределенности одной случайной величины в результате наблюдения за другой. Если величины независимы, то количество информации равно нулю.

Рассмотрим структуру меры информации.

Согласно теории информации, элементарная единица управляющей программы (УП) — символ.

Символы, собранные в группы образуют слова.

Информационное сообщение, оформленное в виде слов, называется кадром. Кадры управляющей программы несут в себе информацию по отдельным технологическим переходам, основным и вспомогательным командам. Различают главный кадр – первый кадр в последовательности кадров, характеризующий начальное состояние следующего за ним участка управляющей подпрограммы.

Формат кадра – это условная запись структуры кадра с максимально возможным объемом информации (страница, строка и т.д.). В зависимости от системы управления формат кадра определяет порядок слов, объем информации.

При обработке информации в машине применяется своеобразная терминология.

В качестве элементарной единицы информации принята двоичная единица – бит.

Бит (binary digit, bit)  – это количество информации, получаемой в результате однократного выбора из двух равновероятных событий (орел – решка). Т.е. при любой неопределенности сужение области выбора вдвое дает одну единицу информации. Это рассуждение можно продолжить: 3 бита информации соответствует неопределенности из 8 равновероятных событий, 4 бита – 16 равновероятных событий и т.д. Таким образом, если сообщение указывает на один из n равновероятных вариантов, то оно несет количество информации равное log n.

В битах формально можно измерить любую информацию, которая измеряется в цифрах. При этом совершенно не учитывается смысловое содержание информации, ее полезность, ценность для пользователя.

При обработке информации в машинах, ради удобства представления слов в виде совокупности неделимых частей стандартной длины, в качестве таких частей выбраны 8-разрядные порции. Поэтому, наряду с битом, получила распространение укрупненная единица – байт. 1 байт = 8 битам.

Например, если блок памяти имеет емкость 1000 байт, то это означает, что в нем можно хранить текст длиной 1000 знаков.

В физике существует понятие энтропии, которая характеризует степень неупорядоченности (хаотичности) физической системы. Неупорядоченность можно интерпретировать в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь о системе, энтропия системы снизилась, т.е. для наблюдателя система стала более упорядоченной. Энтропия – это мера оценки вероятности появления того или иного сообщения.

Таким образом, энтропия системы выражает степень ее неупорядоченности, а информация дает меру ее организации.

Измерение только количества информации не отвечает потребностям потребителей информации – необходима мера ценности информации. Проблема определения ценности информации исключительно актуальна в настоящее время, когда уже трудно даже с помощью компьютеров обработать мощные информационные потоки.

Информация называется полезной, если она уменьшает неопределенность решающего алгоритма. Не имеет смысла говорить о ценности информации, содержащейся в сигнале, если не указаны задача, которая решается и свойства декодирующего алгоритма. Кроме того, для понимания и использования информации ее получатель должен обладать определенным запасом знаний.

Количество полезной (ценной) информации, извлекаемой получателем из поступающих сообщений, зависит от его подготовленности.

Пока можно сделать вывод, что задача определения ценности информации не решена, поскольку требует высокой степени формализации, т.е. математического выражения.