Фундаментальность категорий «энергия» и «информация» для современной науки

Попытка представить психику как инвариант энергоин­формационных взаимоотношений была сделана на факультете психологии ЛГУ в 1969—1970 гг. [37]. Эта гипотеза опиралась на данные биологических дисциплин, а также на теорию ин­формации, кибернетику. Сущность количественной характери­стики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, — писал Н. Винер, — есть мера дезорганизации, так и передавае­мая рядом сигналов информация является мерой организации» [41]. И в случае определения меры физической энтропии, и при определении меры информации применяются законы случай­ных событий, описываемые теорией вероятности. Мера орга-

низации и в физике и в теории информации является вероятно­стно-статистической:

Н

; = п Ъ Р. log Р.,

где: Р — вероятность состояния i элемента;

п — количество 'элементов множества;

Н — мера количества информации. «Передаваемую сигналом информацию, — писал Н. Ви­нер, — возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности» [41]. Степень упорядо­ченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (N) или его логарифмом (log N). Исхо­дя из этих отношений, чем больше число элементов множе­ства состояний носителя (источника), тем больше его неупо­рядоченность, тем больше неопределенность, снимаемая каж­дым из этих элементов, и отсюда — тем больше упорядочен­ность соответствующего множества — сигнала относительно множества — источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, — пишет Л.М. Веккер, — можно измерять неупорядоченностью множества состояний источни­ка — обе меры могут быть выражены одной и той же числовой величиной» [38].

Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впер­вые предложившему приведенную выше формулу, распростра­нить общефизический термин «энтропия» на величину количе­ства информации, характеризующую в этом случае упорядо­ченность множества состояний источника.

В рассматриваемой идеальной ситуации полного отсут­ствия шума энтропия источника целиком переходит в сигнал.

По этому поводу Л.М. Веккер высказался таким образом:

«конкретизация основных исходных понятий термодинамики и статистической физики раскрыла органическую связь ин­формации (как упорядоченности системы) с физической энт­ропией как величиной, которая, выражая тенденцию системы к наиболее вероятному состоянию неупорядоченности, вместе

с тем характеризует разнокачественность различных форм энергии и связанную с этим меру необратимости .процессов в системе» [38]. Тем самым выявлена глубокая связь понятия информации с фундаментальным общефизическим понятием энергии, обладающим во всяком случае не меньшим рангом по уровню обобщения.

Представляется, что высказанную проф. Л.М. Веккером и другими авторами мысль о глубокой связи «энергии» и «ин­формации» можно уточнить. Эквивалентность энтропии и ко­личества информации впервые отметил Л. Сциллард: сумма информации и энтропии при данном распределении вероят­ностей состояния постоянная и равна максимально получае­мой информации или максимальной энтропии в данных усло­виях [38]. Следовало бы говорить не о связи двух понятий, а о двух сторонах одного и того же физического явления: кванте упорядоченного (неупорядоченного) пространства.

Есть физическая реальность, представляющая собой некую структуру (систему, организацию). Структура есть форма связи элементов, ее составляющих. Вспомним, Логосы — «умная структурность» чувственного мира — так пишет А. Сидоров в Комментариях к Творениям преп. Максима Исповедника [172]. Если есть субъект, то он воспринимает эту структуру как меру упорядоченности системы — информацию, а оставшаяся в системе «неупорядоченность» — энтропия — «остаток» анти­энтропийной тенденции — есть несвязанная энергия системы.

Таким образом, это как бы две стороны одной медали. «Упорядоченность» системы или кванта пространства это дву-ликий'Янус: это и «информация», с точки зрения субъекта, и потенциальная, уже связанная в данной системе энергия. Про­цесс упорядочивания, структурализация элементов системы, или самоорганизация, связан, как пишет И.А. Трофимова, с энерго-информационным взаимодействием системы со средой [175]. Это процесс усвоения организации внешней среды, ее энергии и порядка. Но для этого внешняя среда или другая внешняя система должна быть доступна самоорганизующейся системе, т.е. ее организация не должна намного превышать уровень сложности самоорганизующейся системы. Доступное окружение — необходимое условие развития самоорганизации.

Так как мир, как мы установили раньше, это Система си­стем, где все друг с другом взаимосвязано, то и рассматривать

информационные (структурные) характеристики одной систе­мы нельзя вне их связи с энтропией окружающей среды — рост упорядоченности системы происходит за счёт роста энт­ропии в окружающей ее среде. В теории И. Пригожина энтро-пиястановится прародительницей порядка^ 146].

В.А. Карташев в своей обобщающей многолетние итоги те­ории систем монографии писал, что «ряд авторов, и, в особен­ности, идеологи общей теории систем, вообще не определяют причин и следствий, лежащих «вне» системы, и трактуют сис­тему как «совокупность взаимосвязанных элементов» (это ти­пичное определение системы), делая ее в самом определении статичной, т.е. лишенной функциональности, и лишь «самоор­ганизующиеся» системы наделяются целевым качеством» [80].

Таким образом, информация есть связанная активность, как бы связанная энергия системы. Энтропия, существующая в первозданном хаосе и в сегодняшней Вселенной, являет­ся, вероятно, реализацией той свободы, которой, помысли Н.А. Бердяева и В.Н. Ильина [17, 78], Бог наделил всякую тварь — от атома до человека.

Превращение хаоса в порядок — потеря микрообъекгами своей «свободы» при вступлении их в связь Друг с другом — есть процесс структурообразования, процесс связывания свободной актуальной энергии микрообъекта и перевод ее в потенциаль­ную энергию структуры — системы. Эта «связанная» энергия (структура) и есть информация для субъекта. Вспомним по это­му поводу богословскую мысль. В Комментариях творений преп. М. Исповедника А. Сидоров писал: «логос придает вид или форму, тип бесформенному веществу. Под материей разу­меется бесформенная основа бытия, принимающая в зависи­мости от того или другого формирующего начала ту или другую форму. В этом смысле она подвержена сжиманию и расшире­нию, т.е. движению от самого родового рода до самого видово­го вида (до отдельного индивида или существа» [172, с. 186]. А вот что по этому поводу писал ученый И.А. Полетаев: «Мож­но, по-видимому, воспользовавшись понятием информацион­ной энтропии, обобщить понятие физической энтропии на бо­лее широкий круг явлений — всех явлений, могущих быть ис­точником той же цели. Именно таким путем было введено не­давно появившееся понятие организации, которое применимо к широкому кругу объектов или систем и которое дает число-

вую меру статистических связей отдельных элементов, входя­щих в систему» [142].

Далее И.А. Полетаев показывает, что «статистическая мера организации системы, выражающая степень свободы ее элементов, дается величиной неэнтропии» [цитируется по Л.М. Веккеру, с.89]. Фундаментальность категорий «информа­ции» и «энергии» проявляется в том, что они в современной науке становятся ведущими категориями и в космологии, и в биологии.

Наши рекомендации