Информационный подход к анализу систем
- понятие информации;
- схема передачи информации;
- меры информации.
Системный анализ немыслим без информации. Процесс системного анализа и принятия решений представляют собой информационное взаимодействие участников (отправителей и получателей информации); включают сбор сведений об объекте и анализ полученной информации. Информация является одним из самых важных атрибутов управления.
Существует множество определений понятия «информация», но до сих пор нет точного общепризнанного определения этого феномена. Приведем некоторые из определений информации. Разными исследователями она определяется как:
1) снятая неопределенность (К. Шеннон);
2) обозначение используемого разнообразия (Н. Винер);
3) передача разнообразия, снятая неразличимость (У.Р. Эшби);
4) мера неоднородности распределения материи и энергии в пространстве и во времени, показатель изменений, которые сопровождают все протекающие в мире процессы (В.М. Глушков);
5) содержание сигналов, поступающих в кибернетическую систему из окружающей среды, которая может быть использована для целей управления (Л.П. Крайзмер);
6) закодированный эквивалент события (Е.З. Майминас);
7) данные, организованные в систему, уменьшающие степень неопределенности при разработке и принятии управленческого решения (А.Г. Венделин);
8) вероятность выбора (А.М. Яглом);
9) оригинальность, мера сложности (Х. Моль);
10) результат отражения одного объекта в другом, используемый, в конечном счете, для формирования управляющих воздействий (Философский словарь);
11) связь или отношение между системами, в результате которой повышается негэнтропия системы-приемника (Э.Х. Лийв).
Поскольку объектом исследования в системном анализе являются системы, создаваемые для решения определенных задач, то информацию также можно определить как сведения, полезные для решения данных задач (Ю.И. Черняк).Если сведения не имеют никакой пользы, то они представляют собой не информацию, а «шум». Если они отклоняют от правильного решения, то представляют собой дезинформацию. Таким образом, можно говорить о полезности информации и наличии в ней смысла для конкретной системы. Информация имеет воплощение в виде знаков, символов. Знак является материальным носителем информации. Приемник информации имеет способность к восприятию, преобразованию и воспроизводству знаков в определенном диапазоне, отведенном ему природой или искусственным устройством.
Любая социально-экономическая система – это одновременно информационная система, которая может быть рассмотрена в двух аспектах: как множество каналов связи (технический аспект) и как множество потоков сообщений – информационных потоков (содержательный аспект). Основная задача информационной системы – обеспечение управления (процесса принятия решений) необходимой информацией в нужное время и в нужном месте. Информационные ресурсы организации – это весь объем информации в информационной системе. Общая схема движения информации в системе такова (рис. 3.2):
1 2 3 3.
передача
5 6
Рис. 3.2. Схема движения информации в системе.
1) в системе происходит одно из возможных событий, которое фиксируется наблюдателем;
2) наблюдатель формулирует сведения о происшедшем событии, определяет язык, т. е. осуществляет отображение события в понятие;
3) в соответствии с правилами понятие кодируется, т. е. заменяется определенным знаком;
4) отправитель информации передает закодированное сообщение по каналу связи получателю;
5) получатель расшифровывает полученное сообщение, т. е. восстанавливает его содержание путем формулировки понятия;
6) получатель информации оценивает и отбирает необходимые сведения для использования.
На этой схеме отчетливо видны три типа проблем, возникающих при передаче сообщений в системах, в соответствии с которыми выделяются три аспекта исследования информации:
· проблема точности передачи символов (знаков), применяемых для передачи сообщений – техническая проблема;
· проблема точности выражения содержания символами – проблема смысла;
· проблема влияния принятого сообщения на выбор поведения получателя – проблема ценности сообщения.
В процессе передачи или восприятия сообщения часть информации может быть потеряна в силу различных причин. Вначале сообщение, представленное упорядоченной последовательностью знаков, передается по физическому каналу связи и принимается. Качество приема зависит от физического шума в канале и приемнике, от пропускной способности последнего. В этом смысле можно говорить, что при восприятии сообщение проходит физический фильтр. То, что прошло через него, можно считать информацией синтаксической или статистической (в смысле классической теории информации).
Далее сообщение должно быть понято, усвоено получателем. Для этого оно должно пройти тезаурус, играющий роль семантического фильтра, отсеивающего семантический шум: отсутствие однозначного соответствия между знаком и объектом, между знаком и понятием, что не позволяет точно истолковать полученное сообщение; отсутствие в сообщении сведений, не содержащихся в тезаурусе получателя; отсутствие в тезаурусе получателя кода для расшифровки полученного сообщения и т. п. Сообщение, прошедшее семантический фильтр, т. е. принятое и включенное в тезаурус получателя – есть семантическая информация.
Содержание сообщения может быть принято, понято, и все же не исключено, что для конкретного получателя оно не доставит информации, если он не настроен на его восприятие и использование. Следовательно, содержание сообщения должно быть еще и оценено. Эту функцию выполняет третий - прагматический фильтр. Сведения, бесполезные для решения актуальных задач отсеиваются им как прагматический шум. Сообщение, прошедшее прагматический фильтр, т. е. сообщение, содержащее полезные сведения – прагматическая информация. Итак, под информацией следует понимать новые знания, принятые, понятые, и оцененные как полезные для решения тех или иных задач. Информация – это то, что доведено до получателя через тройной механизм восприятия[28].
Меры информации
Информацию можно измерить. Три аспекта рассмотрения информации – синтаксический, семантический, прагматический, – предопределяют три направления количественных исследований информации.
Меры синтаксической информациисвязывают с уменьшением неопределенности, ограничением разнообразия и т. п.При этом необходимо абстрагироваться от смысла сообщения. Формальное определение количества информации дал К. Шеннон на основе вероятностного подхода. Суть подхода состоит в утверждении, что между сигналом и событием существует однозначная связь. Совокупность сигналов является изоморфным отображением некоторых сторон реального события. Связь сигнала с событием воспринимается как смысловое содержание сигнала или сообщения, сущность которого состоит в том, что благодаря ему получатель побуждается к выбору определенного поведения. Всякое сообщение может рассматриваться как сведения об определенном событии х в момент t. Это событие содержит данные о том, в каком из множества возможных состояний находилась система S в момент времени t. Процесс связи предполагает наличие множества возможностей.
Очевидно, что в сложном сообщении содержится сумма информации, которую несут отдельные сообщения. Однако действительное количество информации зависит не только от числа возможных сообщений, но и от их вероятностей. Сообщение несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. При этом ценность информации в основном определяется степенью неожиданности (неопределенности) сообщения.
Неопределенностьвсегда имеет место при выборе одного элемента из некоторой совокупности элементов. Степень неопределенностивыбора характеризуется отношением числа выбранных элементов к общему числу элементов множества. Вероятность можно описать как частоту появления именно данного исхода в длинной серии однотипных испытаний. Понятия возможности, случайности, вероятности находятся в определенном отношении с понятием неопределенности. Если множество состоит из одного элемента, то степень неопределенности равна нулю. Вероятность выбора в этом случае равна 1.
В качестве меры неопределенности выбора была предложена энтропия источника сообщений (Н). Энтропия обладает необходимыми свойствами неопределенности: неотрицательна; равна 0, если исход испытания предопределен, т.е. вероятность одного из исходов равна 1, а остальных – 0; энтропия достигает максимума при равных вероятностях всех исходов и становится равной логарифму числа исходов:
H (A) = log m, (1)
где А – испытание, имеющее m возможных исходов.
К. Шеннон предложил измерять количество информации, содержащейся в данном сообщении, как логарифм его вероятности, взятый с обратным знаком:
I (ai) = - log p(ai), (2)
где I(ai) – количество собственной информации (относительно самого себя) события (сообщения) ai;
р(ai) – вероятность получения сообщения ai.
Тем самым, информация – это то, что снимает неопределенность.
Пример[3]: многолетние наблюдения за погодой (А) показывают, что вероятность дождя 15 мая равна 0,4 (соответственно, вероятность его отсутствия = 0,6). Количество собственной информации, содержащейся в сообщении о том, что 15 мая идет дождь, I(a1) = - log 0,4 =1,32. В сообщении о том, что дождя нет - I(a2) = - log 0,6 =0,74. Чем более неожиданным (менее вероятным) является сообщение, тем больше информации оно содержит.
В общем виде формула степени неопределенности (количество информации в битах) имеет следующий вид:
, (3)
где — вероятность появления некоторого события .
Эта формула была предложена К. Шенноном в 1948 г. Ее еще называют формулой абсолютной негэнтропии.Формула абсолютной негэнтропии аналогична формуле энтропии, только имеет отрицательный знак. Знак «минус» в правой части приведенного уравнения использован для того, чтобы величина Н стала положительной.
Понятие энтропииввел немецкий физик-теоретик Р. Клаузиус в 1865 г. Энтропия обозначает меру деградации какой-либо системы. Австрийский физик Л. Больцман в 1872 г. связал энтропию с вероятностью состояния. Изменения энергии в изолированной системе описываются вторым законом термодинамики,который был сформулирован следующим образом: теплота не может сама собою перейти от более холодного тела к более теплому. Суть этого закона состоит в том, что способность изолированных систем совершать работу уменьшается, так как происходит рассеивание энергии. Формула энтропии определяет степень беспорядка, хаотичности молекул газа в сосуде. Естественным поведением любой системы является увеличение энтропии.
Наблюдаемое явление возрастания энтропии замкнутых физических систем – обычный однонаправленный процесс. Взаимодействующие объекты с различной величиной потенциальной энергии, например, температурой, уровнями жидкости сообщающихся сосудах, через определенное время взаимодействия уже имеют некоторую среднюю температуру, а также примерно равные уровни жидкости. После этого взаимодействия возможность совершения какой-нибудь работы снижается до нуля, а энтропия возрастает до некоторого максимального значения, характерного для данной замкнутой системы. Это и есть «тепловая смерть замкнутой системы» – характерный процесс возрастания энтропии для замкнутых физических систем в процессе функционирования, соответствующий второму началу термодинамики. Если энтропия имеет тенденцию к возрастанию, то система теряет информацию и деградирует.
Выдающийся бельгийский ученый И. Пригожин доказал, что при неравновесных условиях энтропия может «производить» не деградацию, а порядок. Непривычное представление об энтропии как источнике организации означает ее высокую значимость в изучении процесса развития материи. Созданная И. Пригожиным фундаментальная теория диссипативных структур, за которую ему в 1971 г. была присуждена Нобелевская премия, является, по сути, универсальной аналитической моделью информационных процессов и технологий природы и общества.
Чтобы система не деградировала, необходимо внести в нее дополнительную информацию (негэнтропию). Негэнтропия – это некоторое, изначально локальное состояние нарушения устойчивости, процесса возрастания энтропии в определенным образом структурированной материи (информационные структуры), приводящее к лавинообразному процессу уменьшения энтропии.Отсюда энтропия системы есть мера дезорганизации, а информация есть мера организованности.Всякий раз, когда в результате наблюдения система получает какую-либо информацию, энтропия этой системы уменьшается.
В приведенной выше формуле абсолютной негэнтропии Шеннона информация рассматривается как снятая, устраняемая неопределенность. Появление информации устраняет, уменьшает любую неопределенность. Однако информацию можно рассматривать не только как снятую неопределенность, а несколько шире. Например, в биологии информация – это, прежде всего совокупность реальных сигналов, отображающих качественное или количественное различие между какими-либо явлениями, предметами, процессами, структурами, свойствами. При таком подходе считают, что понятие информации неотделимо от понятия разнообразия. Природа информации заключается в разнообразии, а количество информации выражает количество разнообразия. Любой процесс, объект, явление при разных обстоятельствах может содержать различное количество информации. Это зависит от разнообразия, которое наблюдается в системе.
Множество, у которого все элементы различны, имеет максимальное количество разнообразия. Чем больше в системе разнообразия, тем больше неопределенность в поведении такой системы. Уменьшение разнообразия уменьшает неопределенность системы. Вероятность выбрать наугад данный элемент из множества с максимальным разнообразием равна единице, деленной на количество всех элементов множества (1/N). Количество информации в этом случае имеет максимальное значение.
Множество, у которого все элементы одинаковы, содержит минимальное количество разнообразия – всего один элемент. Количество информации в такой совокупности равно нулю. В множестве информация появляется только тогда, когда один элемент отличается от другого. Между минимальным и максимальным количеством разнообразия в множестве существует ряд промежуточных состояний, которые появляются в результате ограничения разнообразия. Понятие ограничения разнообразия является очень важным. Оно представляет собой отношение между двумя множествами. Это отношение возникает, когда разнообразие, существующее при одних условиях, меньше, чем разнообразие, существующее при других условиях.
Сообщение, уменьшающее неопределенность, содержит информацию, количество которой связывается с изменением возможных состояний (исходов):
I = log m – log n,
где I – количество информации в сообщении;
m - количество возможных событий (исходов испытания) до получения сообщения;
n - количество возможных событий (исходов испытания) после получения сообщения.
Пример[3]: следствие располагает данными о 9 подозреваемых, среди которых 3 женщины и 6 мужчин. Проведение экспертизы позволило заключить, что подозреваемый – мужчина. Количество информации, доставленной экспертизой:
I = log 9 – log 6 = 0,59.
Относительной информацией сообщения bj относительно аi называется изменение собственной информации аi вследствие поступления сообщения bj:
, (4)
где – количество информации, содержащейся в bj относительно аi;
– вероятность наступления события аi;
– вероятность наступления события аi после получения сообщения bj.
Меры семантической информации. Ю.А. Шрейдер предложил измерять количество семантической информации, содержащейся в тексте Т относительно тезауруса Q, степенью изменения тезауруса Q под воздействием оператора, соответствующего тексту Т. Этот оператор преобразует образы и символы текста в символы тезауруса. При этом часть информации может утеряться в силу того, что у получателя в тезаурусе нет понятий, являющихся значениями полученных знаков. С другой стороны, если всё сообщение уже включено в тезаурус получателя, то он опятьне получит информации. Наибольшее количество информации получается тогда, когда имеется достаточно много общего в тезаурусе и сообщении для понимания последнего, а также содержатся новые сведения (рис. 3.3).
Заметим, что предварительное расширение тезауруса может как уменьшить, так и увеличить количество информации, содержащейся в сообщении (в отличие от синтаксической информации, которая всегда уменьшает неопределенность). Так, процесс обучения расширяет тезаурус и дает возможность извлекать больше информации из последующих «порций» новых сообщений. В сущности, это качественный подход к оценке.
Рис. 3.3. График изменения количества семантической информации
I – количество семантической информации;
S – сообщение;
Q – тезаурус получателя;
Y=S∩Q - пересечение сообщения и тезауруса получателя.
Меры прагматической информации. Ценность (полезность) информации разумно оценивать по тому эффекту, который она оказывает на результат системы. Известны несколько способов определения ценности информации. Все они основаны на представлении о цели, достижению которой способствует информация. Чем в большей мере информация помогает достижению цели, тем более ценной она считается.
1. Если цель наверняка достижима, и притом, несколькими путями, то возможно определение ценности информации по уменьшению материальных или временных затрат благодаря использованию информации. Например, сочетание хороших предметного и алфавитного каталогов библиотеки сокращают время на составление списка литературы по интересующему нас вопросу. Этот метод предложен, в частности Стратоновичем Р.Л.
2. Если достижение цели не обязательно, но вероятно, то возможно использование критерия ценности информации Iц, предложенного А.А. Харкевичем и М.М. Бонгардом, который определяется как изменение вероятности достижения цели, реализации какой-либо задачи при получении дополнительной информации:
.
Здесь р0 - начальная (до получения данной информации) вероятность достижения цели, р1 - вероятность достижения цели после получения данной информации. Физический смысл логарифмической единицы ценности информации состоит в том, что информация ценностью в р единиц позволяет повысить качество решения задачи в log p раз. При этом существуют, как минимум, три возможности.
А) Если полученная информация не изменяет вероятности достижения цели: р1 = р0, , то I ц = 0. Это означает, что ценность полученной информации равна нулю. Такая информация называется информационным шумом.
Б) Если полученная информация может изменять ситуацию в худшую сторону, т. е. уменьшать вероятность достижения цели, то Iц < 0. Такая информация называется дезинформацией, которая измеряется отрицательным значением количества информации (пример: указатель дорог, развернутый в другую сторону).
В) Если полученная информация может изменять положение дела в лучшую сторону, т. е. увеличить вероятность достижения цели, то Iц > 0. Такая информация называется полезной (ценной) информацией.
3. Предлагаются и детерминированные методы, в частности, такие, в соответствии с которыми ценность информации от проведения исследований определяется как разность между оценкой затрат, связанных с ошибкой в результате отсутствия исследования (дополнительной информации), и затратами, связанными с ошибкой при использовании исследований. Данный метод исходит из допущения, что ЛПР (лица, принимающие решения) могут дать достаточно точную оценку затрат, связанных с неверным решением.
4. Оценкой полезности информации может служить ожидаемый дополнительный доход, который может быть достигнут при использовании сведений в процессе принятия решений. При этом оценки этого ожидаемого дохода будут различны в случаях: определенности, риска, неопределенности. Используют теорию игр и теорию статистических решений. При этом ценность информации может быть определена как разность между результатами решений, принятых с использованием данной информации и без нее. Применяются также методы типа «дерева решений».