Собственное количество информации и энтропия

Пусть в канале отсутствуют помехи. Тогда между элемен­тами множеств X и У имеет место взаимно однозначное соответствие и p(xi|yj)=1 при j=i. В этих условиях количество информации, которое yj (j=i) доставляет об xi, согласно (4.3) равно Собственное количество информации и энтропия - student2.ru .

Эта величина называется собственным количеством информации, которое несет символ xi, причем всегда I(xi)>0. Усредняя I(xi) по всему множеству xi, получим количество информации, которое в среднем несут сообщения множества X. Среднее значение совпадает с энтропией

Собственное количество информации и энтропия - student2.ru

где pi=p(xi).

Взаимная информация

Источник информации и приемник можно рассматривать как подсистемы одной сложной системы. Взаимную информацию между состояниями подсистем, используя (4.3), можно записать в виде

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru . (4.4)

Поскольку сложная система случайным образом приходит в то или иное состояние, определяемое парой чисел (xi,yj), то I (xi,yj) будет случайной величиной, которую можно усреднить по всему множеству состояний. В результате почленного усреднения (4.4) получим выражение для средней (полной) взаимной информации:

Собственное количество информации и энтропия - student2.ru ,

(4.5)

где I(y,x)= Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

С точки зрения информационного описания системы связи безразлично, какую из подсистем рассматривать в качестве передатчика, а какую в качестве приемника.

Поэтому энтропии Н(Х) и H(У) можно интерпретировать как информацию, которая поступает в канал связи, а условные энтропии H(X|Y), H(Y|X) как информацию, которая рассеивается в канале. В [1] доказано, что I(Х, У)≥0.

При выполнении указанного неравенства из (4.5) следует, что

Собственное количество информации и энтропия - student2.ru

Условную энтропию можно представить в виде

Собственное количество информации и энтропия - student2.ru Собственное количество информации и энтропия - student2.ru ,

где величина Собственное количество информации и энтропия - student2.ru называется частной условной энтропией. Она характеризует неопределенность состояния системы А в случае, когда известно состояние yj наблюдаемой системы В. Зафиксировав состояние yj системы В, мы тем самым изменяем комплекс условий, при которых может реализоваться событие xi. Это обнаруживается как изменение вероятности реализации события xi (i= Собственное количество информации и энтропия - student2.ru ) (имеет место статистическая зависимость). Если до изменения условий указанная вероятность была равна безусловной (полной) вероятности p(Xi), то после изменения условий она стала равной условной вероятности p(xi|yj). При отсутствии статистической зависимости H(X|yj)=H(X), поскольку P(xi|yj)=p(xi).

Таблица 4.1

x y x1 x2 p(yj)
y1 y2 0.5 0.25 0.25 0.5 0.5
p(xi) 0.75 0.25  

Таблица 4.2

x y x1 x2
y1 y2 0.5 0.5

При наличии статистической зависимости энтропия H(X|yj) может оказаться как меньше, так и больше Н(Х). Напомним, что для энтропии H(X|Y) всегда справедливо неравенство H(X|Y)≤H(X).

В качестве примера вычислим энтропии Н(Х), H(X|Y), H(X|yj) и взаимную информацию I(Х,У), когда системы А и В описываются двумерным распределением p(xi, yj), заданным в виде табл. 1.

Вычисленные значения условной вероятности Собственное количество информации и энтропия - student2.ru записаны в табл. 4.2.

Используя записанные в таблицах значения вероятностей, получим

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Отсюда

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

Собственное количество информации и энтропия - student2.ru

ДИСКРЕТНЫЕ ИСТОЧНИКИ СООБЩЕНИЙ И

ИХ ОПИСАНИЕ

Эргодические источники

Источник будем называть эргодическим, если его вероятностные параметры можно оценить по одной достаточ­но длинной реализации, которую он вырабатывает. При неограниченном возрастании длины реализации (n) оценка параметра (результат измерения) совпадает с его истинным значением с вероятностью, равной единице. Например, при бросании игральной кости можно оценить вероятность выпадания какой-либо цифры через относительную частоту ее появления в достаточно длинной серии испытаний. Указанная серия испытаний представляет собой ту самую реализацию, по которой осуществляется оценка вероятности (параметра). Реализации, по которым можно оценить закон распределения, являются типичными. Поэтому эргодическим источником можно назвать источник, который вырабатывает типичные последовательности. Типичная последовательность несет сведения о структуре источника, то есть является типичной для данного источника. Если два источника различаются своей структурой (значением оцениваемого параметра), то, наблюдая реализацию, можно определить, какому из них она принадлежит. Источник, эргодический по одному параметру, может оказаться не эргодическим по другому параметру.

Наши рекомендации