Фундаментальность категорий «энергия» и «информация» для современной науки
Попытка представить психику как инвариант энергоинформационных взаимоотношений была сделана на факультете психологии ЛГУ в 1969—1970 гг. [37]. Эта гипотеза опиралась на данные биологических дисциплин, а также на теорию информации, кибернетику. Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, — писал Н. Винер, — есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации» [41]. И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности. Мера орга-
низации и в физике и в теории информации является вероятностно-статистической:
Н
; = п Ъ Р. log Р.,
где: Р — вероятность состояния i элемента;
п — количество 'элементов множества;
Н — мера количества информации. «Передаваемую сигналом информацию, — писал Н. Винер, — возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности» [41]. Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (N) или его логарифмом (log N). Исходя из этих отношений, чем больше число элементов множества состояний носителя (источника), тем больше его неупорядоченность, тем больше неопределенность, снимаемая каждым из этих элементов, и отсюда — тем больше упорядоченность соответствующего множества — сигнала относительно множества — источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, — пишет Л.М. Веккер, — можно измерять неупорядоченностью множества состояний источника — обе меры могут быть выражены одной и той же числовой величиной» [38].
Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впервые предложившему приведенную выше формулу, распространить общефизический термин «энтропия» на величину количества информации, характеризующую в этом случае упорядоченность множества состояний источника.
В рассматриваемой идеальной ситуации полного отсутствия шума энтропия источника целиком переходит в сигнал.
По этому поводу Л.М. Веккер высказался таким образом:
«конкретизация основных исходных понятий термодинамики и статистической физики раскрыла органическую связь информации (как упорядоченности системы) с физической энтропией как величиной, которая, выражая тенденцию системы к наиболее вероятному состоянию неупорядоченности, вместе
с тем характеризует разнокачественность различных форм энергии и связанную с этим меру необратимости .процессов в системе» [38]. Тем самым выявлена глубокая связь понятия информации с фундаментальным общефизическим понятием энергии, обладающим во всяком случае не меньшим рангом по уровню обобщения.
Представляется, что высказанную проф. Л.М. Веккером и другими авторами мысль о глубокой связи «энергии» и «информации» можно уточнить. Эквивалентность энтропии и количества информации впервые отметил Л. Сциллард: сумма информации и энтропии при данном распределении вероятностей состояния постоянная и равна максимально получаемой информации или максимальной энтропии в данных условиях [38]. Следовало бы говорить не о связи двух понятий, а о двух сторонах одного и того же физического явления: кванте упорядоченного (неупорядоченного) пространства.
Есть физическая реальность, представляющая собой некую структуру (систему, организацию). Структура есть форма связи элементов, ее составляющих. Вспомним, Логосы — «умная структурность» чувственного мира — так пишет А. Сидоров в Комментариях к Творениям преп. Максима Исповедника [172]. Если есть субъект, то он воспринимает эту структуру как меру упорядоченности системы — информацию, а оставшаяся в системе «неупорядоченность» — энтропия — «остаток» антиэнтропийной тенденции — есть несвязанная энергия системы.
Таким образом, это как бы две стороны одной медали. «Упорядоченность» системы или кванта пространства это дву-ликий'Янус: это и «информация», с точки зрения субъекта, и потенциальная, уже связанная в данной системе энергия. Процесс упорядочивания, структурализация элементов системы, или самоорганизация, связан, как пишет И.А. Трофимова, с энерго-информационным взаимодействием системы со средой [175]. Это процесс усвоения организации внешней среды, ее энергии и порядка. Но для этого внешняя среда или другая внешняя система должна быть доступна самоорганизующейся системе, т.е. ее организация не должна намного превышать уровень сложности самоорганизующейся системы. Доступное окружение — необходимое условие развития самоорганизации.
Так как мир, как мы установили раньше, это Система систем, где все друг с другом взаимосвязано, то и рассматривать
информационные (структурные) характеристики одной системы нельзя вне их связи с энтропией окружающей среды — рост упорядоченности системы происходит за счёт роста энтропии в окружающей ее среде. В теории И. Пригожина энтро-пиястановится прародительницей порядка^ 146].
В.А. Карташев в своей обобщающей многолетние итоги теории систем монографии писал, что «ряд авторов, и, в особенности, идеологи общей теории систем, вообще не определяют причин и следствий, лежащих «вне» системы, и трактуют систему как «совокупность взаимосвязанных элементов» (это типичное определение системы), делая ее в самом определении статичной, т.е. лишенной функциональности, и лишь «самоорганизующиеся» системы наделяются целевым качеством» [80].
Таким образом, информация есть связанная активность, как бы связанная энергия системы. Энтропия, существующая в первозданном хаосе и в сегодняшней Вселенной, является, вероятно, реализацией той свободы, которой, помысли Н.А. Бердяева и В.Н. Ильина [17, 78], Бог наделил всякую тварь — от атома до человека.
Превращение хаоса в порядок — потеря микрообъекгами своей «свободы» при вступлении их в связь Друг с другом — есть процесс структурообразования, процесс связывания свободной актуальной энергии микрообъекта и перевод ее в потенциальную энергию структуры — системы. Эта «связанная» энергия (структура) и есть информация для субъекта. Вспомним по этому поводу богословскую мысль. В Комментариях творений преп. М. Исповедника А. Сидоров писал: «логос придает вид или форму, тип бесформенному веществу. Под материей разумеется бесформенная основа бытия, принимающая в зависимости от того или другого формирующего начала ту или другую форму. В этом смысле она подвержена сжиманию и расширению, т.е. движению от самого родового рода до самого видового вида (до отдельного индивида или существа» [172, с. 186]. А вот что по этому поводу писал ученый И.А. Полетаев: «Можно, по-видимому, воспользовавшись понятием информационной энтропии, обобщить понятие физической энтропии на более широкий круг явлений — всех явлений, могущих быть источником той же цели. Именно таким путем было введено недавно появившееся понятие организации, которое применимо к широкому кругу объектов или систем и которое дает число-
вую меру статистических связей отдельных элементов, входящих в систему» [142].
Далее И.А. Полетаев показывает, что «статистическая мера организации системы, выражающая степень свободы ее элементов, дается величиной неэнтропии» [цитируется по Л.М. Веккеру, с.89]. Фундаментальность категорий «информации» и «энергии» проявляется в том, что они в современной науке становятся ведущими категориями и в космологии, и в биологии.