Поддержки процессов принятия решений

1.1. Трудноформализуемые
и неформальные этапы принятия решений

Во многих областях своей деятельности человеку приходится сталкиваться с кругом трудноформализуемых задач или задач неформального (творческого, интеллектуального) плана.

К категории трудноформализуемых относятся задачи, имеющие формальные постановки и алгоритмы решения, но не гарантирующие получение качественного результата за приемлемое для пользователя время, особенно в случае высокой их размерности (NP-трудные проблемы).

Именно к этой категории следует отнести, например, задачи нелинейной параметрической оптимизации на моделях со сложным характером минимизируемых и контролируемых функций (сильная нелинейность, многоэкстремальность, овражность, многосвязность области допустимых решений). Для таких задач не существует единого, универсального, одинаково эффективного метода их решения. Но есть множество методов, алгоритмов и процедур, проявляющих себя по-разному (с точки зрения эффективности) в различных ситуациях. Поэтому на практике поиск оптимальных или оптимально-компромиссных решений предполагает отслеживание состояния процесса оптимизации и, в зависимости от возникающих ситуаций, переключение с одной оптимизационной процедуры на другую, смену постановок задач, декомпозицию варьируемых параметров и т.д. По сути, конкретный сценарий поиска решения (рабочий сценарий), априорно неизвестный, рождается непосредственно в процессе решения задачи.

В традиционных диалоговых системах оптимизации (например, [1]) сценарий поиска оптимального или оптимально-компромиссного решения складывается из обращений к конкретным алгоритмам оптимизации, содержащимся в библиотеках этих систем. Причем последовательность таких обращений определяет пользователь системы, исходя из текущих результатов поиска, своего опыта и интуиции. Такая адаптация к условиям реальной задачи осуществляется на уровне алгоритмов, т.е. в рамках конкретного алгоритма сценарий оптимизации остается жестким, детерминированным. Кроме того, все проблемы адаптации решает пользователь, а не специальный механизм, заложенный в системе, т.е. отсутствует интеллектуальность.

В связи с вышесказанным заслуживает внимания концепция интеллектуальной оптимизации, предполагающая рассмотрение процесса поиска решений в пространстве состояний, где переход из одного состояния в другое реализуется элементарным (функционально неделимым) оптимизационным актом (событием). К таким событиям можно отнести выбор перспективного направления поиска, коррекцию направления, шаг вдоль направления, поворот системы координат, построение симплекса, декомпозицию параметров, преобразование модели задачи, трансформацию модели из одной формы в другую (например, из классической в эволюционно-генетическую), выполнение конкретного генетического оператора и ряд других событий, из которых концептуально может складываться сценарий оптимизации. Очевидно, что все множество событий, порождающих сценарий, можно разбить на классы. События одного класса характеризуются единой функциональной направленностью, но различаются способом реализации выполняемой функции.

Основой для реализации предложенной концепции могут служить модели и методы искусственного интеллекта. Множество событий и возможные их связи между собой могут быть описаны с использованием традиционных форм представления знаний (фреймов, семантических сетей, продукционных правил) и их комбинаций. Такая база знаний о процессе оптимизации позволит осуществлять адаптивное формирование сценария поиска на уровне элементарных оптимизационных операций (событий) с помощью специального «интеллектуального ядра» системы – концептуального анализатора. Указанные средства в сочетании с интерпретатором жестких типовых сценариев поиска (известных алгоритмов) образуют «аналитическую» часть интеллектуальной оптимизационной среды (ИОС).

Как развитие архитектуры ИОС можно применить «образный» подход к оптимизации с использованием искусственных нейронных сетей для распознавания возникающих ситуаций и планирования очередных действий. В качестве обучающей выборки для достижения такого свойства нейронная сеть может использовать опыт функционирования «аналитической» составляющей ИОС: концептуального анализатора и интерпретатора типовых сценариев поиска.

К категории трудноформализуемых задач можно также отнести задачу оптимального синтеза схем произвольной комбинационной логики по противоречивым критериям аппаратной сложности и быстродействия, решаемую с помощью традиционных методов структурного синтеза цифровых автоматов [10]. Многие вопросы, связанные с принятием решений в данной предметной области, снимаются путем использования нейросетевых технологий. В работах [3, 4] показана возможность представления комбинационной логической схемы эквивалентной (бинарной или биполярной) нейронной сетью прямого распространения (с сохранением физического и математического смысла всех параметров). Это позволяет свести трудноформализуемую проблему синтеза схем произвольной комбинационной логики к формальной задаче обучения (оптимизации) исходно избыточной нейронной сети с распараллеливанием вычислений (анализа нейронной сети) на каждой итерации оптимизационного процесса. Предложенный подход выгодно отличается от методов классической теории структурного синтеза своей универсальностью и высокой степенью формализма. Он покрывает с единых позиций как общую классическую задачу синтеза, так и все частные ее классы (с дополнительными условиями в различных сочетаниях), в том числе каноническую задачу комбинационного синтеза [10]. В отличие от классических методов, данный подход позволяет осуществлять синтез многофункциональных (векторных) устройств произвольной комбинационной логики в различных функционально-полных базисах, что обусловливает возможность использования его при решении проблем интеграции схем.

Особо остро потребность в интеллектуальной поддержке ощущается при решении задач неформального (творческого, интеллектуального) плана. Такие задачи характерны прежде всего для предметных областей, в которых не существует функционально полных математических теорий описания объектов и моделей принятия решений (например, медицинская диагностика, поиск полезных ископаемых, обучение и т.д.). Для анализа возникающих в них ситуаций и принятия решений используются полученные эмпирическим путем знания, отражающие связи и закономерности предметной области. В качестве средств интеллектуальной поддержки процессов принятия решений в таких предметных областях используются автономные экспертные системы, способные дать «разумный» совет или осуществить «разумное решение» поставленной задачи.

Неформальные задачи возникают и в предметных областях (например, проектирования сложных объектов, контроля и управления сложными системами, прогнозирования и многих других), проблемы математического описания которых в основном решены. Рабочие сценарии поиска и принятия решений в таких предметных областях складываются из формальных этапов обращения к стандартным программным процедурам определенного функционального назначения. Такие обращения, как правило, перемежаются с неформальными этапами оценки результатов выполнения очередной формальной процедуры и планирования следующих формальных действий. Ощутимую помощь в принятии решений на этих этапах можно получить от системы интеллектуальной поддержки, аккумулирующей в себе эмпирические знания о предметной области и способной их интерпретировать в конкретных условиях возникшей ситуации.

1.2. Цели и средства интеллектуальной поддержки
процессов принятия решений

Основная цель интеллектуальной поддержки состоит в том, чтобы помочь лицу, принимающему решение (ЛПР) в определенной предметной (проблемной) области, оценить возникшую ситуацию и спланировать действия, востребованные этой ситуацией. Необходимость такой поддержки возникает на трудноформализуемых и неформальных этапах принятия решений, поэтому в качестве основы для ее реализации целесообразно использовать модели и методы искусственного интеллекта.

С точки зрения базовых принципов организации средств интеллектуальной поддержки, заслуживает внимания концепция системы, основанной на знаниях (СОЗ). Это система декларативного (не предписывающего) типа, предполагающая четкое отделение друг от друга базы знаний и механизма вывода, максимально обеспечивающая модульный принцип построения, открытость и возможность создания оболочек, настраиваемых через формализм базы знаний на различные предметные (проблемные) области.

Базовые принципы организации СОЗ способствуют реализации второго целевого назначения средств интеллектуальной поддержки, состоящего в накоплении и обобщении опыта принятия решений в данной предметной области (другими словами, в отслеживании и поддержке жизненного цикла предметной области).

Эмпирические знания, хранимые и накапливаемые в базе знаний СОЗ, в сочетании с механизмом интерпретации этих знаний (механизмом вывода) могут быть эффективно использованы для генерации (в автоматическом режиме) рабочего сценария поиска и принятия решений, оставляя за ЛПР только функции контроля и вмешательства в процесс принятия решений в критических ситуациях.

Аналитический способ рассуждений СОЗ позволяет отслеживать логику принятия решений, но отличается громоздкостью и не всегда срабатывает в реальном масштабе времени. Компенсировать отмеченный недостаток позволяют нейросетевые технологии распознавания ситуаций.

Обученная искусственная нейронная сеть реализует синтетический, образный подход к восприятию ситуации. Она обладает быстрой реакцией, но исключает при этом возможность логического обоснования принятого решения.

В связи с вышесказанным создание средств интеллектуальной поддержки процессов принятия решений целесообразно осуществлять на основе гибридных архитектур, сочетающих в себе базовые принципы концепции СОЗ и нейромодельного подхода к построению систем искусственного интеллекта. Рассмотрению теоретических основ, определяющих эти базовые принципы, посвящен материал последующих разделов данного учебного пособия.

ВОПРОСЫ ДЛЯ САМОКОНТРОЛЯ

1. В чем состоит принципиальное отличие трудноформализуемой задачи от задачи неформального плана?

2. Как Вы себе представляете суть концепции интеллектуальной поддержки процессов принятия решений?

3. Какие базовые принципы могут быть положены в основу создания средств интеллектуальной поддержки?

2. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
КАК НАУЧНОЕ НАПРАВЛЕНИЕ

2.1. Искусственный интеллект:
концепция, возможности, методы реализации

С появлением и развитием компьютерной базы у человека появилась постоянно расширяющаяся возможность моделировать все, что представляет для него определенный интерес. Это могут быть явления окружающего мира, проектируемые технические объекты, демографические, экономические или социально-политические процессы и многое другое. Уникальным объектом моделирования, имеющим особо важное, фундаментальное значение для всех проблемных и предметных областей, является человеческий мозг. Это самый совершенный орган, существующий в природе и обладающий способностями:

· воспринимать окружающий мир и осознавать воспринятое;

· обучаться, делать обобщения, проводить аналогии;

· принимать решения в нестандартных ситуациях, в условиях неполной и нечеткой информации;

· решать сложные задачи неформального плана и т.д.

Перечисленные и другие способности мозга, связанные с восприятием, обработкой и представлением информации, наверное, и определяют такое сложное понятие, как интеллект.

Активные исследования по разработке идеи создания искусственного разума, связанные с моделированием интеллекта или конкретных форм его проявления, развернулись с конца 40-х годов прошлого века. В качестве критерия достижения цели был принят предложенный Аланом Тьюрингом в начале 50-х годов тест: «компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Следует заметить, что критерий очень жесткий, ибо ни одна из разработанных к настоящему времени программ искусственного интеллекта (ИИ) ему не удовлетворяет. Более того, многие считают, что достичь такого невозможно. Например, по мнению профессора философии Калифорнийского университета в Беркли Хьюберта Дрейфуса, истинный разум не может существовать без психологической основы, заключенной в человеческом организме.

Термин искусственный интеллект (AI – Artificial Intelligence)впервые был введен Джоном Мак-Карти. Именно он организовал первую конференцию по данной проблеме в Дартмутском колледже (США) в 1956 году. Первая Всемирная конференция состоялась в Вашингтоне в 1969 году.

В самостоятельную ветвь информатики научное направление ИИ оформилось к концу 50-х годов прошлого века. К этому времени четко определился объект изучения ИИ - это метапроцедуры, лежащие в основе любой интеллектуальной деятельности человека. Только в отличие от психологии, изучающей эти метапроцедуры применительно к человеку, ИИ моделирует их программным или аппаратным путем, преследуя цель понять механизмы мышления.

ИИ можно назвать экспериментальной научной дисциплиной, эксперимент в которой состоит в построении, проверке на компьютере и коррекции моделей функционирования человеческого разума, базирующихся на наблюдениях за человеком. Доказательство приемлемости выдвигаемых теорий и демонстрация получаемых результатов в области ИИ осуществляются на языке программ. Согласно высказыванию М. Минского, языком ИИ (как области науки) являются программы. Эти программы могут не только демонстрировать механизмы мышления, но иметь и существенное практическое значение для конкретных предметных областей, что зачастую является стимулирующим фактором развития работ в области ИИ.

Первые центры научных исследований по проблемам ИИ на уровне лабораторий были созданы в Массачусетском технологическом институте (1957 г., Патрик Уинстон, Карл Хьюит, Марвин Минский), в Университете Карнеги-Мелон (Аллен Ньюэлл, Герберт Саймон), в Станфордском университете (1963 г., Джон Мак-Карти, Эдвард Фейгенбаум). Далее волна интереса к ИИ распространилась не только по США, но и по всему миру. При этом выделились два направления исследований. Одно из них фундаментальное, связанное с чистой наукой и преследующее цель познать суть процессов мышления. Другое направление прикладное, определяемое стремлением расширить сферу применения компьютеров и обеспечить комфортность пользования ими. С данным направлением связано появление так называемых коммерческих программ редактирования текстов, распознавания образов, экспертных систем и других программных средств, основанных на идеях ИИ.

Иногда говорят о так называемой неустойчивости понятия ИИ. Это связано с тем, что в любом конкретном примере интеллектуальной деятельности всегда наступает момент полного понимания процесса принятия решений в рамках этой деятельности, т.е. происходит деинтеллектуализация рассматриваемой задачи. Это означает, что задача переходит в другую область информатики, предметом которой является обработка информации с помощью точных алгоритмических методов. В отличие от нее, с ИИ связана любая интеллектуальная деятельность, алгоритмы которой заранее не известны. Можно сказать, что ИИ - это «все то, что еще не сделано в информатике».

ИИ как научное направление тесно связан с такими областями науки, как психология, биология, медицина, лингвистика. Специалисты в указанных областях строят и даже программно реализуют (совместно с математиками) все новые и новые модели. На основе этих моделей исследователи в области ИИ пытаются воссоздать конкретные формы проявления интеллекта. Получаемые при этом результаты дают в свою очередь новую информацию к размышлению для специалистов указанных областей.

Существуют два метода построения систем ИИ: восходящий и нисходящий. Принципиальное различие между ними заключается в том, что именно принимается за основу при создании ИИ:

· свойственные человеку механизмы мышления, с помощью которых он познает и оценивает окружающий мир (восходящий метод),

или

· формализованные каким-либо образом знания о задачах, на которые ориентируется ИИ (нисходящий метод).

Восходящий метод напрямую исходит из сформулированного Норбертом Винером принципа обратной связи, согласно которому любая искусственная система, претендующая на разумность (интеллектуальность), как и все живое, должна обладать способностью преследовать определенные цели и приспосабливаться, т.е. обучаться. Этот принцип нашел свое подтверждение и в исследованиях американского нейрофизиолога Уильяма Мак-Каллока, который совместно с математиком Уолтером Питтсом в 1943 году разработал теорию функционирования головного мозга. У. Мак-Каллок и У. Питтс исходили из нейронной организации нервной системы живых организмов и «двоичного» закона поведения нейрона (активен или пассивен). Они предложили моделировать функции высшей нервной деятельности с помощью методов математической логики и показали возможность построения логических сетей (автоматов), моделирующих нейронные сети, характеризуемые определенными физиологическими свойствами. Однако принятая ими чисто логическая схема взаимодействия нейронов не соответствовала истинным физиологическим процессам, протекающим в нервной системе живых существ. Главное возражение против чисто логических схем вызывало требование безошибочности анализа ситуаций. На случай каждого отклонения (пусть даже незначительного по смыслу) требовалась своя (новая) логическая схема. Такая система не отличалась гибкостью и при случайном возмущении могла выдать абсурд. Это противоречило тому, что наблюдается в природе.

Более естественным путем пошел американский ученый Фрэнк Розенблатт. Он отказался от полностью безошибочных логических решений, введя понятие вероятности получения приемлемого результата. При его подходе случайное возмущение лишь снижало вероятность правильного решения на величину, пропорциональную возмущению, но не приводило к абсурду. Система получалась более гибкой и надежной, более похожей на биологические системы. Свои нейронные сети, действующие на основе статистических принципов, Ф. Розенблатт назвал перцептронами (от латинского perceptio - восприятие). В дальнейшем термин претерпел незначительное изменение: перцептроны стали называть персептронами.

Персептрон можно рассматривать как вероятностную нейронную систему с произвольными (беспорядочными) межнейронными связями, которая при некоторой определенной (упорядоченной) системе связей обеспечивает приемлемую (достаточно большую) вероятность принципиально правильного статистического функционирования, приближаясь к идеальной для данной задачи. В 1958 году Ф. Розенблатт продемонстрировал первую компьютерную модель, а в 1960 году - электронный вариант персептрона «Марк-1», который был собран из 512 нейроподобных ячеек и мог обучаться распознаванию некоторых букв, подносимых к его органам восприятия. Результаты, полученные Ф. Розенблаттом, явились основой нейромодельного подхода и восходящего метода построения машинного разума в виде адаптивной нейронной сети, способной следить за окружающей обстановкой и с помощью обратной связи изменять свое поведение.

Сторонники нисходящего метода, к которым принадлежали А. Ньюэлл, Г. Саймон, М. Минский, С. Пейперт и многие другие, пошли по пути создания на базе компьютеров общего назначения программ, ориентированных на решение интеллектуальных задач (доказательство теорем, игра в шахматы, распознавание образов и т.д.). Методы, положенные в основу таких программ, могут быть абсолютно не похожи на те, которыми в действительности пользуется человек. Они базируются на тех или иных формах представления знаний, заимствованных у экспертов в конкретных предметных областях, и механизмах вывода (интерпретации знаний), реализующих процесс решения задачи.

Подводя итог, можно сформулировать следующие основные проблемы ИИ как научного направления.

Первая, наиболее важная проблема – извлечение, структурирование и формальное представление знаний. Это стратегическая проблема, от решения которой во многом зависит успех решения других проблем, связанных с ИИ.

Вторая проблема – воспроизведение на ЭВМ человеческих способов решения задач (процедурный анализ, дедуктивный вывод, аналогия, индукция). На современном этапе цифровые компьютеры эффективно используют процедурный анализ и дедуктивный логический вывод. Нейронные сети с их способностью обобщать обладают «естественным» механизмом индукции.

Третья проблема – создание средств общения с компьютером (вычислительной системой) на естественном языке, компьютерных средств восприятия аудио- и видеообразов и т.п.

Четвертая проблема – развитие (совершенствование) интеллектуальных систем в процессе их деятельности (создание средств обобщения и накопления опыта).

2.2. Фундаментальное направление в искусственном интеллекте

Фундаментальное направление в ИИ преследует цель понять суть процессов познания. При этом компьютер выступает как средство проверки выдвигаемых теоретических предположений относительно того, как осуществляется процесс мышления. Эти теоретические построения, как правило, опираются на результаты, известные из психологии, биологии, медицины и других наук, так или иначе касающихся человеческого мозга. Они должны носить конструктивный характер, ибо программы, как средство подтверждения истины, всегда требуют глубокой теоретической проработки и четкости представления моделей.

К примеру, систему обработки информации человеком можно описать схемой, представленной на рис. 1.

Данные воздействия внешнего мира, воспринимаемые человеком с помощью органов чувств, через буфер непрерывно поступают в кратковременную память. Там они анализируются, фильтруются по важности и перемещаются в долговременную память. Долговременная память хранит сформировавшиеся символы (образы) и смысловые связи между ними. Ее содержимое используется для объяснения новой информации, поступающей из кратковременной памяти, и запоминания ее путем увязывания с хранящимися в ней образами.

Известны некоторые временные оценки функционирования рассмотренной системы:

· 15–20 мин. занимает процесс перемещения данных из кратковременной памяти в долговременную;

· 7 сек в среднем необходимо для запоминания одного образа в долговременную память, включая установление всех связей, необходимых для доступа к нему в будущем;

· не более 70 мсек требуется для извлечения любого элемента данных из долговременной памяти.

Надо заметить, что рассмотренная модель не конструктивна, ибо оставляет открытыми многие вопросы. Например, такие:

· Как анализируется и фильтруется информация в кратковременной памяти?

· В каком виде формируются и хранятся образы в долговременной памяти?

· Каким образом содержимое долговременной памяти используется для объяснения новой информации?

Перечисленные и многие другие вопросы, очевидно, требуют детальной проработки. Только при этом условии предложенная модель может быть программно реализована и проверена на адекватность.

поддержки процессов принятия решений - student2.ru

Хранение символьных образов в долговременной памяти по организации напоминает модель данных сетевого типа (модель данных ® набор ® поднабор ® элемент данных). Символьные образы в мозгу объединяются в так называемые чанки, т.е. наборы символов и связей между ними, запоминаемые и извлекаемые как единое целое. Чанки хранятся вместе с взаимосвязями между ними. В конкретный момент времени человек способен обрабатывать и интерпретировать не более 4–7 чанков. Эксперт в конкретной предметной области способен рациональным образом объединять в чанки большие объемы информации и устанавливать связи, удобные для извлечения данных из памяти и распознавания новых ситуаций.

Анализируя такой вид интеллектуальной деятельности, как общение на естественном языке, можно прийти к следующим выводам. Человек обычно воспринимает слова в широком смысле, с учетом их неоднозначности, и интерпретирует их по-разному в зависимости от контекста. Кроме того, он способен улавливать скрытый смысл предложений, не вытекающий непосредственно из значений составивших их слов, взятых из словаря. Все это объясняется способностью человека предвидеть (прогнозировать) возможные события (ситуации) на основании того, что уже произошло. Человек постоянно делает прогнозы на различных уровнях детализации, достраивая слова, предложения, события. Такие прогнозы позволяют ему восполнить все пробелы в поступающей на вход информации.

Программное моделирование такого поведения человека связано с построением концептуального анализатора. В отличие от традиционного грамматического анализатора, концептуальный анализатор использует источник прогноза, формирующий так называемый пакет ожиданий (английский термин — Memory Organization Packet, МОР, — впервые ввел Роджер Шенк, Йельский университет). Пакет ожиданий содержит информацию о множестве объектов, событий и их взаимосвязях, могущих иметь отношение к текущей ситуации. Он характеризуется определенными условиями активации, определяющими факт его отношения к анализируемой ситуации.

В концептуальном анализаторе текст обрабатывается одновременно по всем аспектам анализа (лексический, синтаксический, семантический анализ). При этом источником для прогнозов низкого уровня является словарь. Для представления прогнозов более высокого уровня используются так называемые концептуальные зависимости. Это структуры, включающие слоты для занесения и хранения информации об объектах, их свойствах и взаимодействиях между собой. Порождаемые концептуальными зависимостями прогнозы имеют как семантический, так и синтаксический характер. Возникающие в их структуре неоднозначности фиксируются и разрешаются с учетом других составляющих входной информации. Пакеты ожиданий связываются в сложные переплетения. Многие ситуации адресуются одновременно ко многим пакетам, между которыми существует множество связей. Пакеты могут объединяться в группы, которые в свою очередь могут заполнять слоты других пакетов. Пакеты могут группироваться около сцен, отличаясь друг от друга специфической информацией – «раскраской» входящей в них сцены. Это позволяет делать обобщения. Память человека организована так, что при обработке новой ситуации она фиксирует ссылки на существующие прототипы, регистрируя лишь те данные, которыми эпизод отличается от прототипа.

Таким образом, пакеты ожиданий выполняют двойную роль: выступают как источник прогноза для понимания и служат памятью об имевших место событиях. О том, что для запоминания и понимания человек использует одни и те же структуры, свидетельствует его мощный механизм ассоциативного воспоминания. Именно он обеспечивает возможность восстановления полного образа по предъявленному его фрагменту.

Память – это динамическая структура. Она реагирует на неудачи прогнозов и реорганизует себя, строя новые пакеты ожиданий из старых путем изменения их «раскраски», содержания и порядка следования сцен.

Важно также заметить, что разрушение небольшой части нейронов не оказывает существенного влияния на возможность извлечения из памяти записанной информации. Это говорит о распределенном характере ее структуры.

ВОПРОСЫ ДЛЯ САМОКОНТРОЛЯ

1. Как Вы понимаете высказывание М. Минского о том, что языком ИИ как научного направления являются программы?

2. В чем состоит принципиальное отличие восходящего метода построения интеллектуальных систем от нисходящего метода?

3. Какова основная цель фундаментального направления исследований в ИИ?

4. Чем объясняется способность человека воспринимать слова в широком смысле и улавливать скрытый смысл предложений?

5. Как Вы определите понятия чанк, пакет ожиданий, концептуальная зависимость, сцена, концептуальный анализатор?

6. Какие наиболее актуальные проблемы стоят перед ИИ как научным направлением?

3. СИСТЕМЫ, ОСНОВАННЫЕ НА ЗНАНИЯХ,
В КАЧЕСТВЕ СРЕДСТВ ИНТЕЛЛЕКТУАЛЬНОЙ
ПОДДЕРЖКИ ПРОЦЕССОВ ПРИНЯТИЯ РЕШЕНИЙ

3.1. Понятия интеллектуальной и экспертной систем

Согласно принципу обратной связи, сформулированному Норбертом Винером, любая искусственная система, претендующая на разумность (интеллектуальность), как и все живое, должна обладать способностью преследовать определенные цели и приспосабливаться, т.е. обучаться. Данный принцип является основополагающим при создании систем, целевое назначение которых во многом связано с кругом задач (проблем), алгоритмы (сценарии) решения которых заранее не известны. Это проблемы творческого (интеллектуального) плана, возникающие на различных этапах принятия решений при проектировании сложных объектов, контроле и управлении сложными системами, прогнозировании социальных, экономических и политических процессов, планировании финансовых операций и т.д.

Вышесказанное тесно связано с понятиями интеллектуальной системы и экспертной системы.

Под интеллектуальной системой (ИС, или IS — Intellectual System)принято понимать программно-техническую систему, способную решать задачи, традиционно считающиеся творческими, принадлежащие конкретной предметной области, знания о которой хранятся в памяти интеллектуальной системы.

Экспертная система (ЭС, или ES — Expert System) – система, объединяющая возможности компьютера со знаниями и опытом эксперта в такой форме, что система может предложить «разумный совет» или осуществить «разумное решение» поставленной задачи. При этом система способна пояснить «ход своих рассуждений» в понятной для пользователя форме. Это определение ЭС принято Комитетом группы специалистов по экспертным системам Британского компьютерного общества.

Согласно данным определениям, ЭС и ИС можно рассматривать как синонимы в определенном смысле. Они отражают лишь функциональное назначение систем, не акцентируя внимания на способах их организации и условиях применения.

Вместе с тем следует заметить, что первые экспертные системы (именно под этим названием) относились к классу автономных экспертных систем, которые были призваны оказывать консультации и использовали в основном эвристические приемы решения задач, не привлекая формальные методы моделирования, анализа и синтеза.

Позднеев различных предметных (проблемных) областях появились средства интеллектуальной поддержки процессов принятия решений. При реализации данных процессов использовались пакеты прикладных программ различного назначения. Такие средства могли быть организованы в виде интеллектуальной надстройки над прикладными программами, а могли и интегрироваться с последними, придавая им интеллектуальность.

Как первые (ЭС), так и вторые (средства интеллектуальной поддержки), несомненно, относятся к категории интеллектуальных систем (ИС), поэтому понятие ИС следует рассматривать как более широкое. В то же время средства интеллектуальной поддержки часто называют экспертными системами.

ЭС обычно рождается как результат детального анализа (если такой удается провести) и компьютерной реализации последовательности действий эксперта в определенной предметной (проблемной) области. При этом принимаются во внимание следующие возможности человека-эксперта:

· способность применять свои знания и опыт для оптимального решения задач, делая при этом достоверные выводы на основании неполных и ненадежных данных;

· способность объяснять и обосновывать свои действия;

· способность приобретать новые знания из общения с другими экспертами;

· способность заново систематизировать свои знания (выстраивать новую систему чанков);

· способность «нарушать» правила, т.е. подходить к их выполнению не формально, а с учетом условий возникшей ситуации (например, не сразу человек идет на зеленый сигнал светофора);

· способность плавно оценивать свою компетентность в конкретных ситуациях (почувствовав неуверенность, эксперт не отказывается от проведения экспертизы).

Современные экспертные системы способны имитировать первые три из перечисленных возможностей человека-эксперта. При этом они могут использовать как глубинные, так и поверхностные представления знаний.

Глубинные представления включают причинные модели, категории, абстракции и аналогии, отображающие структуру и природу процессов, протекающих в предметной области. Они дают широкие возможности для их трактовки, объясняют происходящие явления и обеспечивают возможность прогнозирования поведения объектов.

Поверхностные представления не дают явного отображения причинности, а только подразумевают ее существование. Это либо эмпирические взаимосвязи, либо свернутые формы субъективного понимания структуры и назначения конкретных знаний.

Очевидно, что без глубинных представлений невозможно построение ЭС, реализующих последние три из перечисленных возможностей человека-эксперта. Однако поверхностные представления, как правило, оказываются дешевле в реализации, и их целесообразно использовать, когда на передний план выходят: процесс решения задачи, эмпирические ассоциации и свернутые формы понимания ситуаций. Есть предметные области (например, медицинская диагностика, геологоразведка полезных ископаемых), знания в которых в основном базируются на эмпирических ассоциациях.

3.2. Системы, основанные на знаниях

По определению Эдварда Фейгенбаума (Станфордский университет), система, основанная на знаниях (СОЗ, или на английском knowledge-based system), – это интеллектуальная компьютерная программа, использующая знания и процедуру вывода для решения проблем, которые настолько сложны, что требуют привлечения эксперта.

С точки зрения функционального назначения, понятия СОЗ, ИС и ЭС можно рассматривать как синонимичные. Однако в определении СОЗ явно прослеживается базовый принцип организации системы декларативного (не предписывающего) типа. Именно этот принцип, предполагающий четкое отделение друг от друга базы знаний и механизма вывода, максимально обеспечивает модульный принцип построения, открытость системы, возможность создания оболочек экспертных систем (empty expert systems), настраиваемых через формализм базы знаний на различные предметные области. В остальном СОЗ присущи все особенности, характерные для ИС (ЭС):

· ограниченность определенной областью экспертизы;

· качественный характер выходных результатов;

· способность рассуждать при сомнительных, неполных данных;

· способность объяснять ход своих рассуждений понятным пользователю способом;

· способность самообучаться и адаптироваться к конкретным условиям применения и многое другое.

Среди областей применения СОЗ можно выделить следующие довольно обширные области, каждая из которых объединяет в себе множество предметно- или проблемно-ориентированных областей конкретного применения.

Диагностика. Спектр задач, решаемых в данной области, направлен на установление связей между нарушениями функционирования сложной системы (живой или искусственной) и их возможными причинами. К этой области относятся диагностика неисправностей сложных технических систем, медицинская диаг

Наши рекомендации