Марковские источники сообщений

Рассмотренная модель дискретного источника сообщений имеет сравнительно узкую область применения, поскольку реальные источники вырабатывают слова при наличии статистической зависимости между буквами. В реальных источниках вероятность выбора какой-либо очередной буквы зависит от всех предшествующих букв. Многие реальные источники достаточно хорошо описываются марковскими моделями источника сообщений. Согласно указанной модели условная вероятность выбора источником очередной буквы Марковские источники сообщений - student2.ru зависит только от Марковские источники сообщений - student2.ru предшествующих. Математической моделью сообщений, вырабатываемых таким источником, являются цепи Маркова Марковские источники сообщений - student2.ru -гo порядка. В рамках указанной модели условная вероятность выбора ik-й буквы

Марковские источники сообщений - student2.ru

Если последнее равенство не зависит от времени, то есть справедливо при любом значении k, источник называется однородным. Однородный марковский источник называется стационарным, если безусловная вероятность выбора очередной буквы не зависит от k (p(xi,k)=p(xi)). В дальнейшем будем иметь дело только со стационарными источниками. Вычислим производительность источника для простой цепи Маркова ( Марковские источники сообщений - student2.ru =l).

В этом случае вероятность Марковские источники сообщений - student2.ru

Прологарифмировав последнее равенство, получим

Марковские источники сообщений - student2.ru .

Это равенство показывает, что индивидуальное количество информации, которое несет слово, равно количеству информации, которое несет первая буква, плюс количество информации, которое несет вторая буква при условии, что первая буква уже принята, и т. д.

Усредняя равенство по всем словам, получим количество информации, которое в среднем несет каждое слово: Марковские источники сообщений - student2.ru .

Поскольку источник стационарный, то энтропия не зависит от k и равна Марковские источники сообщений - student2.ru .

Подставляя полученный результат в (4.6) и учитывая, что всегда Марковские источники сообщений - student2.ru , имеем Марковские источники сообщений - student2.ru .

В случае Марковской цепи Марковские источники сообщений - student2.ru -го порядка Hи вычисляется аналогично и равна Hи Марковские источники сообщений - student2.ru .

Таким образом, производительность марковского источника равна неопределенности выбора очередной буквы при условии, что известны Марковские источники сообщений - student2.ru предшествующих.

Для производительности марковского источника всегда справедливо неравенство Hи Марковские источники сообщений - student2.ru .

Максимального значения, равного logmx, производительность источника достигает, когда отсутствует статистическая зависимость между буквами в слове и когда все буквы алфавита вырабатываются с равными вероятностями. Очевидно, максимальная производительность источника полностью определяется размером алфавита mх.

Для того чтобы характеризовать, насколько полно использует источник возможности алфавита, вводится параметр Марковские источники сообщений - student2.ru , называемый избыточностью.

Для передачи заданного количества информации, равного I, требуется n=I/Hи букв, если производительность источника равна Ни. В случае, когда производительность источника достигает своего максимального значения, равного Марковские источники сообщений - student2.ru , для передачи того же количества информации I тре­буется минимальное количество букв, равное Марковские источники сообщений - student2.ru .

Отсюда I=nНи=nо Нmах или Марковские источники сообщений - student2.ru . Учитывая последнее равенство, выражение для избыточности можно записать в виде Марковские источники сообщений - student2.ru

Таким образом, избыточность показывает, какая часть букв в слове не загружена информацией.

Пример 1. Определить избыточность источника, если он вырабатывает статистически независимую последовательность из единиц и нулей соответственно с вероятностями, равными р=0,3 и q=0,7.

Решение. Поскольку символы в последовательности стати­стически независимы, то производительность источника

Ни= Марковские источники сообщений - student2.ru бит.

Максимально возможная производительность источника Марковские источники сообщений - student2.ru , поскольку mх=2. При этом символы 1 и 0 должны вырабатываться с равными вероятностями (p=q=0.5). Отсюда Марковские источники сообщений - student2.ru

Пример 2. Определить избыточность стационарного марковского источника, алфавит которого состоит из двух символов: 0 и 1. Вырабатываемая источником последовательность представляет собой простую цепь Маркова. Заданы следующие значения условных вероятностей

р(xik+1|xik) (ik+1= Марковские источники сообщений - student2.ru , ik= Марковские источники сообщений - student2.ru ):

р(0|0)=0.3; р(1|0)=0.7; р(0|1)=0.1; р(1|1)=0.9.

Решение. Безусловную вероятность того, что (k+1)-м символом последовательности будет нуль, по формуле полной вероятности можно представить в виде pk+1(0)=pk(0)p(0|0) + [1-pk(0)]p(0|l).

В правую часть неравенства входит вероятность pk(0) того, что k-м символом последовательности будет нуль. В силу стационарности источника pk+1(0)=pk(0)=p(0). Подставив в равенство значения р(0|0) и р(0|1), получим

р(0) =0.125, p(1) = 1-р(0) =0.875.

Производительность источника Ни=р(0)Н(Хk+1|0)+р(1)Н(Хk+1|1)=-0.125∙(0.3 log0.3+0.7 log 0.7)-0.875*(0.1log0.1 +0.9log0.9) Марковские источники сообщений - student2.ru 0.51, а избыточность источника Марковские источники сообщений - student2.ru ,

где Нmах(Х) = 1.

Когда отношение Марковские источники сообщений - student2.ru /n стремится к нулю, при неограниченном возрастании n марковский источник вырабатывает типичные последовательности, количество которых Марковские источники сообщений - student2.ru или более приближенно Марковские источники сообщений - student2.ru .



Наши рекомендации