Количество информации, как мера снятой неопределенности

С математической точки зрения, под источником информации понимают множество возможных сообщений с заданной на этом множестве вероятностью.

Различают дискретные источники и непрерывные. Различие между ними в том, что элементы в дискретном случае образуют счетное множество, а в непрерывном - несчетное множество (континуум).

В каждом элементарном сообщении для его получателя содержится определенная информация - совокупность сведений о состоянии дискретного источника сообщения. Определяя количественную меру этой информации, мы не учитываем ни ее смыслового содержания, ни значение для конкретного получателя.

Очевидно, что при отсутствии сведений о состоянии источника имеется неопределенность относительно того, какое сообщение из числа возможных им выбрано, а при наличии этих сведений данная неопределенность полностью исчезает.

Естественно количество информации содержащейся в дискретном сообщении измерять величиной исчезнувшей неопределенности. Введем меру этой неопределенности, которую можно рассматривать и как меру количественной информации.

Если до получения сообщения неопределенность источника дискретных сообщений определялась значением Количество информации, как мера снятой неопределенности - student2.ru , а после получения сообщения неопределенность стала Количество информации, как мера снятой неопределенности - student2.ru , то количество информации определяется соотношением Количество информации, как мера снятой неопределенности - student2.ru .

Если мы получили полную информацию, то есть в результате получения сообщения неопределенность о состоянии дискретного источника исчезла (энтропия H=0), тогда количество информации равно энтропии источника сообщений

Количество информации, как мера снятой неопределенности - student2.ru

Таким образом, количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы: Количество информации, как мера снятой неопределенности - student2.ru .

Энтропия по Шеннону это среднее количество информации содержащееся в одном из не равновероятных состояний. Она позволяет учесть статистические свойства источника информации.

Энтропия является мерой неопределенности системы, в которой проявляются случайные события, и равна средней неопределенности всех возможных его исходов. Чем больше энтропия источника, тем больше степень неожиданности выдаваемых им сообщений в среднем, т.е. тем более неопределенным является ожидание сообщений.

Свойства энтропии

1. Энтропия есть величина вещественная, ограниченная и неотрицательная: Н>0.

Количество информации, как мера снятой неопределенности - student2.ru

Максимальное значение равно 0,531.

2. Энтропия минимальна и равна нулю, если хотя бы одно из состояний системы достоверно известно: H = Hmin = 0.

Пусть система имеет три состояния, и вероятности этих состояний будут равны:p1 = p2 = 0, p1 = 1. Тогда

Количество информации, как мера снятой неопределенности - student2.ru

3. Энтропия максимальна и равна логарифму числа состояний, если состояния системы равновероятны.

Количество информации, как мера снятой неопределенности - student2.ru

При

Количество информации, как мера снятой неопределенности - student2.ru

4. Энтропия бинарных величин изменяется от 0 до 1.

Пусть Количество информации, как мера снятой неопределенности - student2.ru

При Количество информации, как мера снятой неопределенности - student2.ru

Энтропия равна нулю, когда вероятность одного из состояний равна нулю, затем возрастает и достигает максимума при p=0.5, то есть когда p1=p2=0.5. При этом неопределенность сообщений при приеме наибольшая.

Энтропия независимых систем

Пусть источники дискретных сообщений X и Y независимы, то есть принимают свои состояния независимо один от другого, тогдаобщая энтропия дискретных источников сообщений Х и У равна сумме энтропий источников

Количество информации, как мера снятой неопределенности - student2.ru

Энтропия зависимых систем

В случае если состояние дискретного источника сообщений Х зависит от состояния источника У, количество информации об источнике X определяют как уменьшение энтропии источника X в результате получения сведений об источнике Y.

Количество информации, как мера снятой неопределенности - student2.ru

где

Количество информации, как мера снятой неопределенности - student2.ru - полная или средняя информация о системе X, содержащаяся в системе Y.

Количество информации, как мера снятой неопределенности - student2.ru - априорная энтропия до наблюдения,

Количество информации, как мера снятой неопределенности - student2.ru - остаточная энтропия, после получения сведений,

Полная взаимная информация, содержащаяся в источниках Х и У, один из которых является подчиненным, равна энтропии подчиненного источника сообщений.

Пусть из двух источников X и Y подчиненной является Y. Тогда H(Y/X)=0, и Количество информации, как мера снятой неопределенности - student2.ru

Таким образом, полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии подчиненной системы.

Наши рекомендации