Обучение и его модели. Самообучение
В психологии под обучением понимают усвоение ранее неизвестных знаний, умений и навыков. В искусственном интеллекте (ИИ) этому понятию соответствует обучение и самообучение интеллектуальной информационной системы (ИИС). Если ИИС стала способна к решению новой задачи в результате того, что человек заложил в нее новую информацию или новый способ принятия решения, то она является обучаемой, но не самообучаемой. Если ИИС стала способна к решению новой задачи на основе самостоятельного анализа новой информации и извлечения из нее полезных закономерностей, то она является самообучаемой [4]. В данном пособии мы будем рассматривать только самообучаемые системы.
Система обучения состоит из двух взаимосвязанных компонентов: ИИС и «Учитель».
Новое знание является результатом взаимодействия этих компонентов. В качестве учителя может выступать человек или окружающая среда (environment).
Различают четыре модели обучения [5].
Условно-рефлекторная модель исторически явилась первой моделью обучения, использованной в ИИС. Принцип условного рефлекса заключается в поощрении правильных действий обучаемого и наложении штрафов за неправильные действия.
Ассоциативнаямодель, основанная на установлении сходства между известным и неизвестным знанием, является более мягкой моделью обучения.
Лабиринтная модель обучения интенсивно изучалась на заре становления кибернетики. Она рассматривает обучение как процесс эвристического поиска выхода из лабиринта. Поиск осуществляется с применением оценки выбора направления движения в лабиринте на основе некоторых локальных критериев.
Модель обучения на примерах (прецедентах) нашла наиболее широкое применение на практике. В ее основе лежит принцип синтеза закономерности на примерах и анализа на контрпримерах. Целью этого синтеза является построение на основе экспериментальных данных моделей, описывающих закономерности между данными, часть из которых принимается за входные, а оставшиеся – за выходные.
Под закономерностью будем понимать зависимость между объектами ai, aj Î A, формализуемую в виде отношения R Ì A ´ A или n-местной функции f: A ´ … ´ A ® A. Более привычна префиксная запись функции: aj = f (a1, ..., aj, …, an).
Под способом нахождения закономерности будем понимать функцию Z = <h, Q, P, R, B> [4], где h – эмпирическая гипотеза о предполагаемой закономерности на множестве объектов А (конечном или бесконечном), для которых она высказывается; Q = N¢/N – потенциальная опровержимость закономерности в N¢ случаях из N возможных; Р – степень подтвержденности гипотезы (прошлый опыт); R – степень объясненности гипотезы (почему происходит?, как?); B – ясность формулировки гипотезы, характеризуемая ее простотой и гармонией.
Факторы Р и R характеризуют меру обоснованности выдвигаемой гипотезы, а фактор Q – меру ее приемлемости.
Выдвижение гипотез играет центральную роль при поиске закономерности. Гипотеза выдвигается на основе анализа обучающих примеров (обучающей выборки данных) и подтверждается или опровергается на контрольных примерах (контрольной выборке данных). Подтверждение гипотезы характеризует успех начального проникновения в предметную область. В случае ее опровержения выдвигается новая гипотеза.
Обучение на примерах является наиболее распространенным методом. Однако в большинстве задач множество примеров потенциально бесконечно. Это означает, что существующее на данный момент конечное множество примеров может увеличиваться неограниченно. Таким образом, существует возможность проводить обучение на порциях примеров. Качество обучения в существенной степени зависит от представительности совокупности обучающих примеров, или, выражаясь языком математической статистики, от представительности обучающей выборки.
К представительной следует отнести такую обучающую выборку А, которая позволяет в выбранном пространстве контрольных признаков найти закономерность, действительную для новых примеров (контрольной выборки С) с ошибкой, не превышающей Q.
Исходя из приведенного определения, естественным является вывод, что закономерность y = f (x1, …, xn), справедливая для некоторой генеральной выборки U, справедлива и для обучающей выборки А, и для контрольной выборки С лишь в том случае, если каждая из них в отдельности хорошо представляет генеральную совокупность U.
Прямые доказательства того, выполняются ли эти условия в конкретной задаче, получить сложно в силу большого объема генеральной совокупности U. Поэтому принимаются в рассмотрение косвенные показатели. Считается, например, что чем больше объем m обучающей выборки А, тем больше вероятность того, что закономерность y = f (x1, …, xn), установленная на обучающей выборке А, справедлива и для контрольной выборки С. Однако показатель m недостаточен для характеризации обучающей выборки А, поскольку важен не только ее объем, но и состав, т.е. информативность для установления закономерности той части генеральной совокупности U, которую она представляет.
В последующих разделах описана экспертная система, в которой реализована модель обучения на примерах. Для конкретных вариантов построения экспертной системы рассмотрены и вопросы представительности обучающей выборки.