Марковские случайные процессы с дискретными состояниями и дискретным временем

Определение. Случайный процесс, протекающий в системе S с дискретными состояниями s1, s2, …, si, …, называется марковским, если для любого момента времени t0 вероятность каждого из состояний системы в будущем (при t > t0), зависит только от ее состояния в настоящем (при t = t0), и не зависит от того, как система пришла в это состояние, т.е. не зависит от ее поведения в прошлом (при t < t0).

Примеры. 1) Система S – счетчик в такси. Состояние системы в момент t характеризуется количеством километров, пройденных автомобилем до данного момента. Пусть в момент t0 счетчик показывает S0. Вероятность того, что в момент t > t0 счетчик покажет то или иное количество километров (точнее, соответствующее количество денег) S1, зависит только от S0, но не зависит от того, в какие моменты времени изменялись показания счетчика до момента t0.

2) Многие процессы можно приближенно считать марковскими. Например, процесс игры в шахматы. Система S – группа шахматных фигур. Состояние системы характеризуется числом фигур противника, сохранившимися на доске в момент t0. Вероятность того, что в момент t > t0 перевес будет на стороне одного из игроков, зависит в первую очередь от того, в каком состоянии система находится в данный момент t0, а не от того, когда и в какой последовательности исчезли фигуры с доски до момента t0.

В ряде случаев предысторией рассматриваемых процессов можно просто пренебречь и применить для их изучения марковские модели.

Пусть имеется система S с дискретными состояниями s1, s2, …, sn (для простоты ограничимся конечным числом состояний). Предположим, что случайные переходы системы из состояния в состояние могут происходить только в определенные моменты времени t0, t1, t3…. Сам процесс представляет собой случайное блуждание системы S по состояниям: после первого шага система может оказаться в одном (и только одном) из своих возможных состояний s1(1), s2(1), …, sn(1), на втором шаге - s1(2), s2(2), …, sn(2), и т.д.

Определение. Марковским случайным процессом с дискретными состояниями и дискретным временем или цепью Маркова называется марковский процесс, в котором его возможные состояния можно заранее перечислить, а переход из состояния в состояние происходит мгновенно (скачком), но только в определенные моменты времени t0, t1, t2, …, называемые шагами процесса.

Из определения цепи Маркова следует, что для нее вероятности перехода системы S в состояние sj на (k+1)–м шаге зависит только от того, в каком состоянии si находилась система на предыдущем, k–м шаге, и не зависит от того, как она вела себя до этого. Основной задачей исследования цепей Маркова является нахождение безусловных вероятностей нахождения системы S на любом (k–м) шаге в состоянии si; обозначим эту вероятность pi(k):

pi(k) = P{S(k) = si}, i = 1,2,…,n; k = 0,1,…

Для нахождения этих вероятностей необходимо знать условные вероятности перехода системы S в состояние sj на k–м шаге, если известно, что на предыдущем (k-1)–м шаге на была в состоянии si. Обозначим эту вероятность

pij(k) = P{S(k) = sj | S(k-1) = si }, i,j = 1,2,…,n.

Вероятности pij(k) называются переходными вероятностями марковской цепи на k–м шаге. Вероятность pii(k) есть вероятность того, что на k–м шаге система задержится (останется) в состоянии si.

Если переходные вероятности pij(k) не зависят от номера шага процесса k: pij(k) = pij, то такая цепь Маркова называется однородной.

Переходные вероятности можно записать в виде квадратной матрицы размерности nxn:

Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru (k = 0,1,2,…) (1)

На главной диагонали матрицы переходных состояний стоят вероятности задержки системы в данном состоянии sj на k–м шаге - p11(k), p22(k),…, pnn(k).

Так как на каждом шаге система S может находиться только в одном из взаимно исключающих состояний, то для любой строки матрицы переходных состояний сумма всех стоящих в ней вероятностей pij(k) равна единице:

Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru (2)

Естественно, все элементы такой матрицы отвечают условию 0 ≤ pij(k) ≤ 1.

В силу условия (2) можно в матрице (1) не задавать вероятности задержки, а получать их как дополнения до единицы суммы всех остальных членов строки:

pii(k) = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru

Для того, чтобы найти безусловные вероятности pi(k), недостаточно знать матрицу переходных вероятностей (1); нужно еще знать начальное распределение вероятностей, т.е. вероятности состояний pi(0), соответствующее началу процесса - моменту времени t0 = 0: p1(0), p2(0), …, pn(0), в сумме образующие единицу

Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru

При выводе формул для вероятностей состояний мы в целях простоты записи будем рассматривать только однородные цепи Маркова, для которых матрица переходных вероятностей имеет вид

Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru .

При нахождении вероятностей состояний марковской цепи на k-том шаге pi(k) (k = 1,2,…) удобно бывает пользоваться так называемым размеченным графом системы S, где возле каждой стрелки, ведущей из состояния si в состояние sj, проставлена переходная вероятность pij; вероятности задержки на размеченном графе не проставляются, а просто получаются дополнением до единицы суммы вероятностей, стоящих у всех стрелок, ведущих из данного состояния si.

Пусть размеченный граф состояний выглядит следующим образом.

 
  Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru

Для этого графа вероятности задержек равны:

р11 = 1 – р12, р22 = 1 – (р12 + р24), р33 = 1 – р31, р44 = 1 – (р43 + р45), р55 = 1 – р51.

Если состояние si является поглощающим (на графе из него не идет ни одной стрелки), то вероятность задержки в этом состоянии равна 1.

Теперь покажем, как найти для однородной цепи Маркова безусловную вероятность нахождения системы S на k-том шаге в состоянии sj (j = 1,2,…,n): pi(k) = P{S(k) = sj}, если задана матрица переходных вероятностей и начальное распределение вероятностей.

Пусть задана однородная цепь Маркова, имеющая матрицу переходных состояний Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru и начальное распределение вероятностей pi(0) (i = 1,2,…,n), Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru Сделаем гипотезу, состоящую в том, что в начальный момент (k=0) система находилась в состоянии si. Вероятность этой гипотезы известна из начальных условий и равна pi(0) = P{S(0) = si}. В предположении, что эта гипотеза имеет место, условная вероятность того, что система S на первом шаге будет в состоянии sj, равна переходной вероятности pij = P{S(1) = sj | S(0) = si}.

По формуле полной вероятности получим

pj(1) = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru (j = 1,2,…,n).

Таким образом, мы нашли распределение вероятностей системы S на первом шаге. Теперь у нас есть все необходимое, чтобы найти распределение вероятностей на втором шаге, которое для цепи Маркова зависит только от распределения вероятностей на первом шаге и матрицы переходных вероятностей.

Опять сделаем гипотезу, состоящую в том, что на первом шаге система находится в состоянии si; вероятность этой гипотезы нам уже известна и равна pj(1) = P{S(1) = si}(i = 1,2,…,n). При этой гипотезе условная вероятность того, что система S на втором шаге будет в состоянии sj, равна

pij = P{S(2) = sj | S(1) = si}.

По формуле полной вероятности находим

pj(2) = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru (j = 1,2,…,n).

Переходя таким образом от k = 2 к k = 3 и т.д., получим рекуррентную (т.е. выражающую каждый член последовательности через предыдущие члены этой последовательности) формулу

pj(k) = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru (k = 1,2,…; j = 1,2,…,n).

Эта формула называется равенством Маркова.

Убедимся в том, что, зная все вероятности перехода рij = рij(1), т.е. матрицу перехода Р1 из состояния в состояние за один шаг, можно найти вероятность рij(2), т.е. матрицу Р2 перехода из состояния в состояние за два шага. А зная матрицу Р2 – найти матрицу Р3 перехода из состояния в состояние за 3 шага и т.д.

Действительно, полагая в равенстве Маркова k = 2

рj(2) = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru .

Полученное равенство означает, что Р2 = Р1 ∙ Р1 = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru .

Полагая k = 3, аналогично получаем Р3 = Р1 ∙ Р2 = Р1Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru , а в общем случае

Рn = Марковские случайные процессы с дискретными состояниями и дискретным временем - student2.ru .

Теперь сформулируем теорему, позволяющую вычислить вероятности состояний системы от любого k-го до (k+1)-го шага, зная начальное распределение вероятностей p1(0), …, pn(0) и матрицу переходных вероятностей.

Теорема. Для однородной марковской цепи вектор-строка вероятностей состояний от k-го до (k+1)-го шага равна произведению вектор-строки вероятностей состояний от (k-1)-го до k-го шага на матрицу переходных вероятностей:

(p1(k), …, pn(k)) = (p1(k-1), …, pn(k-1))∙Р.

Следствие. Для однородной марковской цепи имеет место следующая формула

(p1(k), …, pn(k)) = (p1(0), …, pn(0))∙Рn.

Замечание. Если марковская цепь является неоднородной, т.е. переходные вероятности (хотя бы одна) зависят от номера шага k, то приведенная формула вычисления вероятностей состояний системы приобретает следующий вид:

(p1(k), …, pn(k)) = (p1(0), …, pn(0))∙Р(1)∙…∙P(k),

где P(k) – матрица переходных вероятностей от k-го до (k+1)-го шага.

Наши рекомендации