Информация — абстрактная фикция
Единственное определение информации, которое не вызвало открытых возражений в научном сообществе, принадлежит «отцу кибернетики», математику Норберту Винеру (1894—1964), который в 1948 г. написал: «Информация есть информация, а не материя и не энергия»[93]. Из этого определения вытекает, что информация — не существующий реально объект, а умственная абстракция, то есть созданная человеческим разумом фикция.
В этом же смысле, в смысле математической абстракции понятие информации используется в теории информации(теории коммуникации), развитой в конце 40-х годов американским математиком Клодом Шенноном(род. в 1916 г.). В этой теории понятие информации служит для решения практических задач, с которыми сталкиваются инженеры-связисты: оптимизация кодирования сообщений, повышение помехоустойчивости, распознавание сигналов на фоне шумов, расчет пропускной способности каналов связи и т.п. К. Шеннон ориентировался на схему технической коммуникации, приведенную на рис. 1.3.
Каждому сигналу или их ансамблю (например, букве или слову), которые передаются по данному коммуникационному каналу, на основе известных статистических частот приписывалась априорная вероятность их появления. Считалось, что чем менее вероятно, т.е. чем более неожиданно, появление того или иного сигнала, тем больше информации для потребителя несет этот сигнал. Можно найти содержательные основания для подобной трактовки в обыденном понимании информации как новости, известия[94]. Удобство вероятностно-статистического представления коммуникационной деятельности состоит в том, что можно ввести количественную меру для оценки степени «неожиданности» сообщения. В простейшем случае формула информации К. Шеннона имеет вид:
где I — количество информации, pi — вероятность появления i-го сигнала, n — количество возможных сигналов.
Если сигналов всего два и они равновероятны, то формула принимает вид:
I = -1/2log -1/2log -log 1/2·
В случае двоичных логарифмов log 1/2 = -1, а I получается равным 1. Это значение принято в теории Шеннона в качестве единицы измерения информации и называется бит.
Отсюда — понимание информации как снятой неопределенности или как результата выбора из возможных альтернатив. Есть другие математические концепции, не связывающие информацию с вероятностью. Например, в алгоритмической теории информации А.Н. Колмогорова информация — это длина алгоритма, позволяющего преобразовать один объект в другой, т. е. мера сложности объекта.
Ограниченность математических теорий информации заключается в том, что они полностью абстрагируются от осмысленности и ценности информации для потребителя. Получается, что «совокупность 100 букв, выбранных случайным образом, фраза в 100 букв из газеты, из пьесы Шекспира или теоремы Эйнштейна имеют в точности одинаковое количество информации»[95].
В математических теориях понятие информации не связано ни с формой, ни с содержанием сообщений (сигналов), передаваемых по каналу связи. Информация, точнее количество информации, есть абстрактная фикция, умственный конструкт; она не существует в физической реальности, как не существуют логарифмы или мнимые числа.
С 60-х годов проблема информации привлекла внимание отечественных философов-материалистов, которые не могли примириться с тем, что информация — это идеальная фикция и попытались «материализовать» информацию, найти ей место в материально едином мире. Наиболее авторитетными в нашей философской науке считаются так называемые атрибутивная и функциональная концепции. Обе концепции утверждают, что информация существует в объективной действительности, но расходятся по поводу наличия ее в неживой природе. Первая рассматривает информацию как атрибут, присущий всем уровням материи, т. е. превращает информацию в материальный объект, а вторая — как функциональное качество самоуправляемых и самоорганизуемых (кибернетических) систем, превращая информацию в функцию. Рассмотрим более подробно содержание этих концепций информации.