Статистическое определение количества информации (по Шеннону)

Этот подход к определению количества информации в сообщениях, учитывающий не равновероятное появление символов сообщения и их статистическую связь, был предложен К.Шенноном в 1946 г.

Рассмотрение этого метода удобно начать с определения количества информации в дискретных сообщениях, символы которых появляются не равновероятно, однако статистическая связь между символами отсутствует.

Пусть, как и ранее, дан источник дискретных сообщений Статистическое определение количества информации (по Шеннону) - student2.ru , Статистическое определение количества информации (по Шеннону) - student2.ru с объемом алфавита равным m, который генерирует сообщение, состоящее из n символов. Допустим, что в этом сообщении символ Статистическое определение количества информации (по Шеннону) - student2.ru встречается Статистическое определение количества информации (по Шеннону) - student2.ru раз, символ Статистическое определение количества информации (по Шеннону) - student2.ru раз и так далее вплоть до символа Статистическое определение количества информации (по Шеннону) - student2.ru , который встречается Статистическое определение количества информации (по Шеннону) - student2.ru раз, причем очевидно, что

Статистическое определение количества информации (по Шеннону) - student2.ru

При приеме одного символа Статистическое определение количества информации (по Шеннону) - student2.ru , как следует из (1.4), получаем количество информации Статистическое определение количества информации (по Шеннону) - student2.ru :

Статистическое определение количества информации (по Шеннону) - student2.ru ,

где Статистическое определение количества информации (по Шеннону) - student2.ru - априорная вероятность появления символа Статистическое определение количества информации (по Шеннону) - student2.ru .

А количество информации Статистическое определение количества информации (по Шеннону) - student2.ru , содержащееся в Статистическое определение количества информации (по Шеннону) - student2.ru взаимно независимых символах Статистическое определение количества информации (по Шеннону) - student2.ru , будет равно:

Статистическое определение количества информации (по Шеннону) - student2.ru .

Аналогично, в Статистическое определение количества информации (по Шеннону) - student2.ru символах Статистическое определение количества информации (по Шеннону) - student2.ru содержится количество информации Статистическое определение количества информации (по Шеннону) - student2.ru :

Статистическое определение количества информации (по Шеннону) - student2.ru ,

и так далее вплоть до

Статистическое определение количества информации (по Шеннону) - student2.ru .

Очевидно, что полное количество информации (In), содержащееся в сообщении из n символов, равно сумме количеств информации содержащихся во всех m символах алфавита.

Статистическое определение количества информации (по Шеннону) - student2.ru Статистическое определение количества информации (по Шеннону) - student2.ru (бит).

Разделив и умножив это выражение на n (n ≠ 0),приведем это выражение к виду:

Статистическое определение количества информации (по Шеннону) - student2.ru (бит)

Ясно, что отношение Статистическое определение количества информации (по Шеннону) - student2.ru – это априорная вероятность появления i-го символа. Таким образом, при достаточно большом n, имеем: Статистическое определение количества информации (по Шеннону) - student2.ru , причем Статистическое определение количества информации (по Шеннону) - student2.ru , как сумма вероятностей полной группы событий.

Окончательно получим:

Статистическое определение количества информации (по Шеннону) - student2.ru (бит) (1.7)

При этом среднее количество информации, приходящееся на один символ (Н), будет равно:

Статистическое определение количества информации (по Шеннону) - student2.ru Статистическое определение количества информации (по Шеннону) - student2.ru (1.8)

Определенная таким образом величина Н называется энтропией, а формула (17) известна как формула Шеннона для энтропии источника дискретных сообщений. Энтропия определяет среднее количество информации, приходящееся на один символ дискретного сообщения.

В общем случае, символы, входящие в сообщения, могут появляться не только с различной вероятностью, но и быть статистически зависимыми. Статистическая зависимость может быть выражена условной вероятностью появления одного символа после другого.

Чтобы учесть статистические связи между символами, входящими в сообщение, вводят понятие условной энтропии.

Условная энтропия ( Статистическое определение количества информации (по Шеннону) - student2.ru ) определяется выражением

Статистическое определение количества информации (по Шеннону) - student2.ru Статистическое определение количества информации (по Шеннону) - student2.ru , (1.9)

где Статистическое определение количества информации (по Шеннону) - student2.ru – условная вероятность появления символа Статистическое определение количества информации (по Шеннону) - student2.ru после символа Статистическое определение количества информации (по Шеннону) - student2.ru . Количество информации Статистическое определение количества информации (по Шеннону) - student2.ru , содержащееся в такого рода сообщении длиной n символов, равно:

Статистическое определение количества информации (по Шеннону) - student2.ru (бит) (1.10)

Наши рекомендации