Методы нахождения оценок максимального правдоподобия
ВВОДНЫЕ ЗАМЕЧАНИЯ
Из результатов предыдущей главы видно, что нахождение оценок максимального правдоподобия является существенным элементом адаптивного байесова подхода и до некоторой степени даже его основой в случае параметрически заданной априорной неопределенности. Метод максимального правдоподобия, как мы видели ранее в гл. 2, 4, 5, имеет и большое самостоятельное значение. Он позволяет в ряде случаев найти минимаксное решение задачи с гарантированным уровнем риска и дает возможность выявить достаточные или квазидостаточные статистики. В связи с этим в настоящей главе более подробно рассмотрим методы получения и свойства оценок максимального правдоподобия.
Этому вопросу посвящена довольно обширная литература, начиная сранних работ по классической математической статистике, поэтому, возможно, значительная часть того, что будет изложено ниже, хорошо известна многим читателям. Это в особенности относится к случаю регулярных оценок по совокупности независимых данных наблюдения, соответствующему этому случаю неравенству Крамера-Рао и асимптотической эффективности регулярных оценок максимального правдоподобия. Наряду с этим имеется много сравнительно малоизвестных аспектов метода максимального правдоподобия: влияние статистической зависимости данных наблюдения на сходимость и точность оценок максимального правдоподобия; нерегулярность, когда функция правдоподобия недифференцируема по оцениваемым параметрам; рекуррентные процедуры нахождения оценок максимального правдоподобия и их свойства и т. д. Наличие подобных аспектов, а также большое значение метода максимального правдоподобия для решения задач синтеза в условиях априорной неопределенности делают целесообразным систематическое изложение основных фактов, относящихся к методам получения и свойствам оценок максимального правдоподобия. Большинство этих фактов будет приведено без доказательства со ссылками на оригинальные и популярные работы, в которых такие доказательства имеются.
Прежде чем перейти к дальнейшему изложению, напомним некоторые основные определения. Пусть имеется совокупность данных наблюдения , которую обычно будем представлять в виде вектора , каждая компонента которого соответствует одному наблюдению и, в свою очередь, может быть вектором того или иного порядка или даже отрезком реализации некоторого непрерывного случайного процесса. Пусть эти данные наблюдения зависят от некоторого параметра размерности . (Нам удобно ввести здесь новое обозначение для неизвестных параметров, чтобы иметь возможность в дальнейшем понимать под как параметры , характеризующие априорную неопределенность в статистическом описании и , так и сами параметры , влияющие на последствия принимаемых решений и являющиеся предметом оценки в исходной задаче статистического решения, так и, наконец, совокупность тех и других параметров.) Зависимость данных наблюдения от параметров описывается функцией правдоподобия
(7.1.1)
где - плотность совместного распределения вероятности при заданном значении , а оценка максимального правдоподобия определяется из уравнения максимального правдоподобия
(7.1.2)
где максимум находится по области допустимых значений . Уравнение (7.1.2) эквивалентно следующему уравнению для логарифма функции правдоподобия, которым часто будем пользоваться в дальнейшем:
(7.1.3)
где
(7.1.4)
Если для каждого из допустимого множества значений для почти всех значений существуют частные производные причем
где - интегрируемые по всему пространству функции, то оценка максимального правдоподобия является регулярной и уравнение максимального правдоподобия может быть представлено в одной из эквивалентных форм
(7.1.5)
или
(7.1.6)
где - оператор градиента по компонентам вектора .
Регулярный случай, пожалуй, чаще всего встречается на практике. Однако во многих важных практических задачах свойство регулярности не выполняется, что заставляет рассматривать и более общий случай, для которого некоторые закономерности поведения регулярных оценок могут и не соблюдаться. Если наряду с оценкой максимального правдоподобия рассмотреть какую-либо другую функцию , которая не является решением уравнения максимального правдоподобия, то очевидно, что при весьма общих предположениях о виде этой функции можно считать ее оценкой параметра , более того, и совершенно произвольную функцию вектора можно также назвать оценкой , хотя возможно, что точность этой оценки будет совершенно неудовлетворительной. В дальнейшем нам понадобится определение регулярности и для оценки произвольного вида. Чтобы ввести это определение, зададим взаимно однозначное преобразование
(7.1.7)
где - некоторая многомерная функция дополняющая преобразование до взаимно однозначного. В силу взаимной однозначности этого преобразования две совокупности и статистически эквивалентны, поэтому вместо исходной совокупности данных наблюдения можно рассматривать преобразованную совокупность статистическое описание которой задается функцией правдоподобия , получающейся применением преобразования (7.1.7) к исходной функции правдоподобия (7.1.1).
Функцию правдоподобия , очевидно, можно записать в виде
(7.1.8)
где и - соответствующие условные плотности вероятности. Оценка называется регулярной, если для каждого из заданного множества значений для почти всех значений и существуют частные производные , причем
где и - функции, интегрируемые по всему пространству и соответственно.
Совокупность этих условий несколько жестче, чем простое требование дифференцируемости функции правдоподобия. Они накладывают определенные ограничения не только на , но и на возможные виды преобразования , то есть на структуру оценочных функций.
Всякая оценка отличается от истинного значения . Простейшей характеристикой этого отличия является математическое ожидание разности
(7.1.9)
вообще говоря, зависящее от и называемое смещением оценки. Оценка, для которой называется несмещенной.
Важным понятием является также понятие достаточной оценки. Оценка называется достаточной, если условная плотность вероятности в (7.1.8) не зависит от . Достаточная оценка является, очевидно, минимальной достаточной статистикой для параметра : достаточной в силу того, что она удовлетворяет основному требованию к любой достаточной статистике (гл. 2), а минимальной - в силу того, что размерность этой статистики (вектора ) совпадает с размерностью вектора неизвестных параметров . Если существует какая-либо достаточная оценка , то любая лучшая оценка может быть только функцией .
Конечные методы
При решении уравнения правдоподобия (7.1.2), (7.1.3) может быть использован любой из известных методов максимизации функции векторной переменной . Только в редких случаях максимизирующее значение - оценка максимального правдоподобия находится точно. В частности, это заведомо удается сделать, если функция правдоподобия такова, что
(7.5.1)
где матрица положительно (или отрицательно) определенная при всех и , а уравнения
(7.5.2)
имеют решения. Эти решения
(7.5.3)
где - функция, обратная , и являются компонентами вектора оценки максимального правдоподобия.
Простейшим частным случаем (7.5.1) является случай, когда логарифм функции правдоподобия квадратично зависит от , то есть
(7.5.4)
где - скаляр; - вектор той же размерности т, что и ; - неособая матрица порядка . При этом оценка максимального правдоподобия
(7.5.5)
где - матрица, обратная .
Другим распространенным примером, для которого выполняется (7.5.1), является случай, когда
(7.5.6)
В этом случае оценка максимального правдоподобия
(7.5.7)
Число таких примеров, как соответствующих (7.5.1), так и несоответствующих этому условию, но допускающих точное решение уравнения правдоподобия, в том числе и для нерегулярного случая (примеры § 7.4 и др.), довольно велико, однако еще более многочисленны случаи, когда точное аналитическое решение уравнения правдоподобия получить невозможно. При этом для нахождения оценки используются различные приближенные методы. Выбор того или иного из них определяется исходя из точности приближенного решения и вычислительной простоты. В частности, в регулярном случае широко распространены различные варианты итеративных процедур, в том числе градиентный метод, метод наискорейшего спуска, метод Ньютона, метод золотого сечения и т.д. Любой из них является методом последовательных приближений и при определенных условиях обеспечивает достаточно быструю сходимость к истинному решению уравнения максимального правдоподобия. Приведем для примера алгоритм нахождения оценки максимального правдоподобия, соответствующий методу Ньютона. В этом случае k-я итерация, определяющая очередное приближение к оценке максимального правдоподобия , производится по правилу
, (7.5.8)
где - приближение, полученное на -м шаге, а начальное приближение выбирается произвольно с учетом имеющихся представлений о существе задачи. Входящий в (7.5.8) оператор представляет собой результат умножения вектора-столбца на транспонированный ему вектор (строку) и является матрицей вида так что результат воздействия этого оператора на функцию также представляет собой матрицу
(7.5.9)
a , как всегда, обратная матрица.
Проиллюстрируем применение этого алгоритма на примере оценки единственного параметра для случая, когда логарифм функции правдоподобия представляется в виде
(7.5.10)
где х - вектор некоторой размерности; - некоторые функции х; - известная величина, функция имеет единственный максимум (для определенности при ) и является четной относительно этого значения, а суммирование производится по такому множеству значений j, что интервал от до полностью перекрывает диапазон возможных значений параметра . К функции правдоподобия, соответствующей (7.5.10), приводят многие задачи радиотехнических измерений (частоты, задержки радиолокационного сигнала, направления на источник излучения).
Выберем в качестве нулевого приближения для оценки максимального правдоподобия величину, соответствующую какому-либо из дискретных значений , например . Для того чтобы это значение давало максимально возможную величину функции правдоподобия, очевидно, его нужно выбрать так, чтобы
(7.5.11)
В силу свойств функции выбор любого другого т приведет к уменьшению логарифма функции правдоподобия. Таким образом, наиболее правдоподобным дискретным приближением к оценке максимального правдоподобия является величина
(7.5.12)
где m определяется условием (7.5.11) и соответствует тому номеру j, для которого величина максимальна.
Следующее приближение вычисляется в соответствии с алгоритмом Ньютона (7.5.8) и дается выражением
(7.5.13)
где учтена четность функции . Если последняя, как это бывает в практических задачах, достаточно быстро убывает с увеличением , так что и , то в числителе и знаменателе выражения (7.5.13) можно ограничиться только первыми слагаемыми. В результате
(7.5.14)
то есть оценка получается зависящей только от наибольшей из величин и двух ближайших к ней. Приближение (7.5.14), как правило, оказывается достаточно точным, и следующие итерации не требуются.
Рекуррентные методы
При большом объеме совокупности данных наблюдения х конечные методы решения уравнения правдоподобия приводят к значительным вычислительным трудностям, связанным с необходимостью запоминания большого числа исходных данных и промежуточных результатов вычислений. В связи с этим особый интерес представляют рекуррентные методы, в которых оценка максимального правдоподобия вычисляется по шагам с постепенно увеличивающейся точностью, причем каждый шаг связан с получением новых данных наблюдения, а рекуррентная процедура строится так, чтобы хранить в памяти по возможности наименьшее количество данных от предыдущих шагов. Дополнительным и весьма существенным с практической точки зрения преимуществом рекуррентных методов является готовность к выдаче результата на любом промежуточном шаге.
Это обусловливает целесообразность применения рекуррентных методов даже в тех случаях, если удается получить точное решение уравнения максимального правдоподобия конечным методом, и делает их еще более ценными, когда невозможно найти точное аналитическое выражение для оценки максимального правдоподобия.
Пусть совокупность данных наблюдения представляет собой последовательность для описания которой введем вектор . (Как всегда, каждая его компонента , в свою очередь, может быть вектором, отрезком случайного процесса и т. д.). Пусть - функция правдоподобия, а
(7.5.15)
ее логарифм. Последний всегда можно представить в виде
(7.5.16)
где
(7.5.17)
- логарифм функции правдоподобия для совокупности данных наблюдения без последнего значения, а
(7.5.18)
- логарифм условной плотности вероятности значения при заданных значениях и .
Представление (7,5.16) для логарифма функции правдоподобия является основой для получения рекуррентной процедуры вычисления оценки максимального правдоподобия. Рассмотрим регулярный случай. При этом оценка максимального правдоподобия может быть найдена как решение уравнения
, (7.5.19)
которое отличается от (7.1.6) только введением индекса п у логарифма функции правдоподобия.
Обозначим решение этого уравнения через подчеркнув тем самым, что эта оценка получена по совокупности данных наблюдения . Аналогично обозначим через решение уравнения - оценку максимального правдоподобия, полученную по совокупности данных .
Уравнение (7.5.19) можно переписать с учетом (7.5.16) в следующем виде:
. (7.5.20)
Разложим левую часть (7.5.20) в ряд Тейлора в окрестности точки . При этом
(7.5.21)
где
(7.5.22)
- вектор градиента функции в точке ; слагаемое обращается в нуль благодаря тому, что , является решением уравнения правдоподобия для предыдущего (п - 1)-го шага:
(7.5.23)
- симметричная матрица вторых производных логарифма функции правдоподобия в точке , взятая с обратным знаком, аненаписанные члены разложения имеют квадратичный и более высокий порядок малости относительно разности . Пренебрегая этими последними, получаем следующее приближенное решение уравнения максимального правдоподобия:
(7.5.24)
где - матрица, обратная .
Это решение представлено в форме рекуррентного соотношения, определяющего очередное значение оценки через оценку на предыдущем шаге и поправку , зависящую от имеющихся данных наблюдения непосредственно и через предыдущую оценку. Поправка формируется как произведение градиента логарифма условной плотности вероятности вновь полученного значения хn в точке , равной предыдущей оценке, на весовую матрицу . Последняя определяется выражением (7.5.23) и также зависит от оценки на предыдущем шаге, а ее зависимость от новых данных наблюдения целиком определяется видом логарифма условной плотности вероятности .
По форме соотношение (7.5.24) очень похоже на (7.5.8), реализующее итеративный способ вычисления оценки максимального правдоподобия по методу Ньютона. Однако на самом деле они существенно отличаются друг от друга. В (7.5.8) поправка к предыдущему значению оценки определяется величиной градиента логарифма всей функции правдоподобия, который всегда зависит от всех имеющихся данных наблюдения , что требует запоминания всей этой совокупности. В соответствии с (7.5.24) поправка к определяется величиной градиента , который благодаря свойствам условной плотности вероятности фактически зависит только от тех значений ( ), которые находятся в сильной статистической связи с хn. Это различие является следствием специального выбора предыдущего приближения как оценки максимального правдоподобия, найденной по уменьшенной на одно значение совокупности данных наблюдения , и особенно ярко проявляется при независимых значениях ( ). В этом последнем случае
благодаря чему зависит только от и хn, а градиент - только от предыдущего значения оценки и вновь полученных на п-мшаге данных наблюдения . Поэтому при независимых значениях для формирования вектора не требуется запоминать с предыдущего шага никакой иной информации, кроме значения оценки .
Аналогично, в случае марковской последовательности данных наблюдения, то есть при
вектор зависит только от , текущего и одного предыдущего значения .В этом случае для вычисления требуется запомнить с предыдущего шага, помимо значения , еще только значение , но не всю совокупность данных наблюдения, как в итеративной процедуре. В общем случае для вычисления может потребоваться запоминание большего числа предыдущих значений ( ), однако из-за необходимости учета только тех значений , которые статистически зависимы с , это число практически всегда меньше полного объема совокупности данных наблюдения . Так, если вектор описывает временную последовательность, то количество подлежащих запоминанию членов этой последовательности определяется временем ее корреляции, а относительная их доля убывает обратно пропорционально n, как и в случае независимых значений .
Рассмотрим теперь структуру весовой матрицы , входящей в рекуррентное соотношение (7.5.24). Согласно определению (7.5.23), из-за наличия слагаемого она, вообще говоря, зависит от всех значений даже при независимых значениях , что лишает рекуррентное соотношение (7.5.24) преимуществ, связанных с возможным сокращением количества запоминаемых с предыдущего шага данных. Существует несколько способов приближенного вычисления матрицы ,которые устраняют этот недостаток.
Первый из них основан на более последовательном использовании основного предположения о малом различии двух очередных значений оценки и , которое является основой для получения рекуррентного соотношения (7.5.24). Это позволяет получить аналогичное рекуррентное соотношение для весовой матрицы .Действительно, используя малость из (7.5.23), имеем
(7.5.25)
Введя обозначение
, (7.5.26)
из (7.5.24) и (7.5.25) получим систему рекуррентных соотношений для вектора и весовой матрицы
(7.5.27)
Эта система совместно с начальными значениями и полностью определяет значение оценки на любом шаге, требуя на каждом из них вычисления только градиента и матрицы вторых производных от логарифма условной плотности вероятности для текущего наблюдаемого значения . Начальные значения выбираются с учетом имеющихся априорных данных о возможных значениях и диапазоне изменения параметров , а при полном отсутствии этих данных принимаются нулевыми ( , ).
При независимых значениях система рекуррентных соотношений (7.5.27), очевидно, описывает многомерный (размерности ) марковский случайный процесс, компонента которого сходится к истинному значению параметра , а компонента сходится к информационной матрице Фишера (7.3.8), где - истинное значение оцениваемого параметра, и неограниченно увеличивается с ростом п. Аналогичные свойства сходимости система (7.5.27) имеет и при более общихусловиях, если последовательность является эргодической.
Второй из упомянутых способов основан на замене матрицы вторых производных от логарифма функции правдоподобия ее математическим ожиданием - информационной матрицей Фишера, которая с учетом (7.5.16) может быть записана в виде:
(7.5.28)
где аналогично (7.5.26)
. (7.5.29)
Заменяя в (7.5.24) матрицу матрицей , получаем рекуррентное соотношение
(7.5.30)
для приближенного вычисления оценок максимального правдоподобия, предложенное Сакрисоном (в оригинале для независимых одинаково распределенных , когда и . Это рекуррентное соотношение проще системы (7.5.27), поскольку оптимальная весовая матрица заменена ее математическим ожиданием, и для ее нахождения не требуются имеющиеся данные наблюдения, кроме тех, которые сконцентрированы в значении оценки . В то же время очевидно, что подобная замена означает необходимость выполнения дополнительного по сравнению с (7.5.27) требования близости матрицы вторых производных к своему математическому ожиданию.
Если плотность распределения вероятности и матрица меняются от шага к шагу, прямое нахождение на каждом шаге может потребовать слишком большого числа вычислений. При этом за счет дополнительного уменьшения точности результатов, определяемого неравенством нулю малых разностей , можно перейти к рекуррентному вычислению приближенного значения матрицы . Возвращаясь к прежнему обозначению для этого приближенного значения, получаем еще одну систему рекуррентных соотношений
(7.5.31)
где
(7.5.32)
- математическое ожидание матрицы (информационная матрица Фишера для одного наблюдения ), взятое в точке . Эта система отличается от (7.5.27) тем, что во втором из рекуррентных соотношений (7.5.31) не участвуют непосредственно данные наблюдения .
Любая из рассмотренных выше систем рекуррентных соотношений является совершенно точной, если функция квадратично зависит от , и дополнительно матрица вторых производных не зависит от . Фактически это соответствует случаю независимых нормально распределенных (не обязательно одинаково) значений с неизвестным математическим ожиданием , которое и представляет собой оцениваемый параметр.
Система рекуррентных соотношений (7.5.24) дает точное решение уравнения максимального правдоподобия в гораздо более широких условиях при единственном требовании, чтобы функция квадратично зависела от . При этом зависимость от произвольна, что соответствует широкому классу распределений вероятности совокупности как с независимыми, так и с зависимыми значениями.
Наряду с рассмотренными общими способами существует еще ряд методов выбора матрицы весовых коэффициентов в рекуррентном соотношении (7.5.24), приспособленных к тем или иным конкретным ограничениям. Простейшим из них является выбор в виде диагональной матрицы, так что , (I - единичная матрица), где - убывающая последовательность числовых коэффициентов, выбираемая независимо от свойств функции правдоподобия так же, как в процедуре стохастической аппроксимации Робинса - Монро, которая будет рассмотрена в следующих главах.
Стоит отметить, что любые итерационные или рекуррентные процедуры нахождения оценок максимального правдоподобия в общем случае являются приближенными. Поэтому, вообще говоря, для оценок, получающихся в результате применения этих процедур, состоятельность, асимптотическую эффект