Искусственный интеллект. История развития. Основные направления исследований

Искусственный интеллект – это одна из новейших областей науки. Первые работы в этой области начались вскоре после Второй мировой войны, а само ее название было предложено в 1956 году. В настоящее время тематика искусственного интеллекта охватывает огромный перечень научных направлений, начиная с таких задач общего характера, как обучение и восприятие, и заканчивая такими специальными задачами, как игра в шахматы, доказательство математических теорем, сочинение поэтических произведений и диагностика заболеваний. В искусственном интеллекте систематизируются и автоматизируются интеллектуальные задачи и поэтому эта область касается любой сферы интеллектуальной деятельности человека. В этом смысле искусственный интеллект является поистине универсальной научной областью.

Разные ученые определяют искусственный интеллект по-разному. Все эти определения могут быть разбиты на 4 категории:

1. Системы, которые думают подобно людям.

2. Системы, которые думают рационально.

3. Системы, которые действуют подобно людям.

4. Системы, которые действуют рационально.

В рамках каждой, из приведенных категорий, могут быть даны следующие определения искусственного интеллекта:

1. Новое захватывающее направление работ по созданию компьютеров, способных думать, … машин, обладающих разумом, в полном и буквальном смысле этого слова. (Haugeland J.)

2. Изучение умственных способностей с помощью вычислительных моделей. (Charniak E., McDermott D.)

3. Наука о том, как научить компьютеры делать то, в чем люди в настоящее время их превосходят (Rich E., Knight K.)

4. Искусственный интеллект – это наука, посвященная изучению интеллектуального поведения артефактов (искусственных объектов). (Nilsson N.J.)

Какова же история искусственного интеллекта и какие науки внесли свой вклад в ее создание?

1. Философия.

В рамках этой науки возникли следующие вопросы:

· Могут ли использоваться формальные правила для вывода правильных заключений?

· Как такой идеальный объект, как мысль, рождается в таком физическом объекте, как мозг?

· Каково происхождение знаний?

· Каким образом знания ведут к действиям?

Ответы на эти вопросы пытались найти многие ученые, начиная с Аристотеля (4 век до н.э.), которым был сформулирован точный свод законов, руководящих рациональной частью мышления. Он разработал неформализованную систему силлогизмов, предназначенную для проведения правильных рассуждений, которая позволяла любому вырабатывать логические заключения механически, при наличии начальных предпосылок. Гораздо позднее Раймунд Луллий (13-14 век) выдвинул идею, что полезные рассуждения можно фактически проводить с помощью механического артефакта. Томас Гоббс (17 век) предположил, что рассуждения аналогичны числовым расчетам и что "в наших неслышимых мыслях мы поневоле складываем и вычитаем".

В 1623 г. немецким ученым Вильгельмом Шиккаром была создана первая вычислительная машина, хотя более известна арифметическая машина, созданная в 1642 году Блезом Паскалем. Паскаль писал, что "арифметическая машина производит эффект, который кажется более близким к мышлению по сравнению с любыми действиями животных". Позднее Готтфрид Вильгельм Лейбниц A646-1716) создал механическое устройство, предназначенное для выполнения операций над понятиями, а не над числами, но область его действия была довольно ограниченной.

После того как человечество осознало, каким должен быть набор правил, способных описать формальную, рациональную часть мышления, следующим этапом оказалось то, что разум стал рассматриваться как физическая система. Рене Декарт впервые опубликовал результаты обсуждения различий между разумом и материей, а также возникающих при этом проблем. Одна из проблем, связанных с чисто физическими представлениями о разуме, состоит в том, что они, по-видимому, почти не оставляют места для свободной воли: ведь если разум руководствуется исключительно физическими законами, то человек проявляет не больше свободной воли по сравнению с булыжником, "решившим" упасть в направлении к центру земли.

Несмотря на то что Декарт был убежденным сторонником взглядов, признающих только власть разума, он был также приверженцем дуализма. Декарт считал, что существует такая часть человеческого разума (душа, или дух), которая находится за пределами естества и не подчиняется физическим законам. С другой стороны, животные не обладают таким дуалистическим свойством, поэтому их можно рассматривать как своего рода машины. Альтернативой дуализму является материализм, согласно которому разумное поведение складывается из операций, выполняемых мозгом в соответствии с законами физики. Свободная воля – это просто форма, в которую в процессе выбора преобразуется восприятие доступных вариантов.

Если предположить, что знаниями манипулирует физический разум, то возникает следующая проблема – установить источник знаний. Такое научное направление, как эмпиризм, родоначальником которого был Фрэнсис Бекон (16-17 века), можно охарактеризовать высказыванием Джона Локка (17-18 века): "В человеческом понимании нет ничего, что не проявлялось бы прежде всего в ощущениях". Дэвид Юм (18 век) предложил метод, известный теперь под названием принципа индукции, который состоит в том, что общие правила вырабатываются путем изучения повторяющихся ассоциаций между элементами, которые рассматриваются в этих правилах. Основываясь на работе Людвига Виттгенштейна и Бертрана Рассела (19-20 века), знаменитый Венский кружок, возглавляемый Рудольфом Карнапом, разработал доктрину логического позитивизма. Согласно этой доктрине все знания могут быть охарактеризованы с помощью логических теорий, связанных в конечном итоге с констатирующими предложениями, которые соответствуют входным сенсорным данным. В теории подтверждения Рудольфа Карнапа и Карла Хемпеля (20 век) предпринята попытка понять, как знания могут быть приобретены из опыта. Карнап определил явно заданную вычислительную процедуру для извлечения знаний из результатов элементарных опытов. По-видимому, это – первая теория мышления как вычислительного процесса.

Последним вопросом философских исследований, наиболее важным для искусственного интеллекта, является связь между знаниями и действиями, поскольку интеллектуальность требует не только размышлений, но и действий. Кроме того, только поняв способы обоснования действий, можно понять, как создать агента, действия которого будут обоснованными (или рациональными). Под агентом мы будем подразумевать все, что действует. Аристотель утверждал, что действия обоснованы логической связью между целями и знаниями о результатах данного конкретного действия. Он приводил следующие рассуждения:

Нам предоставляется право выбора не целей, а средств достижения цели, ведь врач рассуждает не о том, должен ли он лечить, а оратор — не о том, станет ли он убеждать... Поставив цель, он размышляет, как и какими средствами ее достичь; а если окажется несколько средств, то определяет, какое из них самое простое и наилучшее; если же достижению цели служит одно средство, думает, как ее достичь при помощи этого средства и что будет средством для этого средства, пока не дойдет до первой причины, которую находит последней... и то, что было последним в порядке анализа, обычно становится первым в порядке осуществления... Если же он приходит к выводу, что цель недостижима, отступается, например, если нужны деньги, а достать их нельзя; но если достижение цели кажется возможным, то пытается ее достичь.

Анализ на основе цели является полезным, но не дает ответа на то, что делать, если к цели ведет несколько вариантов действий или ни один вариант действий не позволяет достичь ее полностью. Антуан Арно (17 век) описал количественную формулу для принятия решения о том, какое действие следует предпринять в подобных случаях: "Чтобы судить о том, что следует делать, чтобы получить хорошее или избежать плохого, необходимо рассматривать не только хорошее и плохое само по себе, но и вероятность того, произойдет ли оно или не произойдет, а также рассматривать математически пропорцию, в которой все эти обстоятельства встречаются вместе."

2. Математика.

Данная наука пыталась ответить на следующие вопросы:

· Каковы формальные правила формирования правильных заключений?

· Как определить пределы вычислимости?

· Как проводить рассуждения с использованием недостоверной информации?

Философы сформулировали наиболее важные идеи искусственного интеллекта, но для преобразования его в формальную науку потребовалось достичь определенного уровня математической формализации в трех фундаментальных областях: логика, вычисления и вероятность.

Истоки идей формальной логики можно найти в работах философов древней Греции, но ее становление как математической дисциплины фактически началась с трудов Джорджа Буля (19 век), который детально разработал логику высказываний, или булеву логику. В 1879 году Готтлоб Фреге расширил булеву логику для включения в нее объектов и отношений, создав логику первого порядка, которая в настоящее время используется как наиболее фундаментальная система представления знаний. Альфред Тарский (20 век) впервые ввел в научный обиход теорию ссылок, которая показывает, как связать логические объекты с объектами реального мира. Следующий этап состоял в определении пределов того, что может быть сделано с помощью логики и вычислений.

Первым нетривиальным алгоритмом считается алгоритм вычисления наибольшего общего знаменателя, предложенный Евклидом. Исследование алгоритмов как самостоятельных объектов было начато аль-Хорезми, среднеазиатским математиком IX столетия, благодаря работам которого Европа познакомилась с арабскими цифрами и алгеброй. Буль и другие ученые широко обсуждали алгоритмы логического вывода, а к концу XIX столетия уже предпринимались усилия по формализации общих принципов проведения математических рассуждений как логического вывода. В 1900 году Давид Гильберт представил список из 23 проблем и правильно предсказал, что эти проблемы будут занимать математиков почти до конца XX века. Последняя из этих проблем представляет собой вопрос о том, существует ли алгоритм для определения истинности любого логического высказывания, в состав которого входят натуральные числа. Это – так называемая проблема поиска решения. По сути, этот вопрос, заданный Гильбертом, сводился к определению того, есть ли фундаментальные пределы, ограничивающие мощь эффективных процедур доказательства. В 1930 году Курт Гёдель показал, что существует эффективная процедура доказательства любого истинного высказывания в логике первого порядка Фреге и Рассела, но при этом логика первого порядка не позволяет выразить принцип математической индукции, необходимый для представления натуральных чисел. В 1931 году Гёдель показал, что действительно существуют реальные пределы вычислимости. Предложенная им теорема о неполноте показывает, что в любом языке, достаточно выразительном для описания свойств натуральных чисел, существуют истинные высказывания, которые являются недоказуемыми, в том смысле, что их истинность невозможно установить с помощью какого-либо алгоритма.

Этот фундаментальный результат может также рассматриваться как демонстрация того, что имеются некоторые функции от целых чисел, которые не могут быть представлены с помощью какого-либо алгоритма, т.е. они не могут быть вычислены.

Это побудило Алана Тьюринга попытаться точно охарактеризовать, какие функции способны быть вычисленными. Этот подход фактически немного проблематичен, поскольку в действительности понятию вычисления, или эффективной процедуры вычисления, не может быть дано формальное определение. Но общепризнано, что вполне удовлетворительное определение дано в тезисе Чёрча-Тьюринга, который указывает, что машина Тьюринга способна вычислить любую вычислимую функцию. Кроме того, Тьюринг показал, что существуют некоторые функции, которые не могут быть вычислены машиной Тьюринга. Например, вообще говоря, ни одна машина не способна определить, возвратит ли данная конкретная программа ответ на конкретные входные данные или будет работать до бесконечности (проблема зацикливания).

Хотя для понимания возможностей вычисления очень важны понятия недоказуемости и невычислимости, гораздо большее влияние на развитие искусственного интеллекта оказало понятие неразрешимости. Грубо говоря, задача называется неразрешимой, если время, требуемое для решения отдельных экземпляров этой задачи, растет экспоненциально с увеличением размеров этих экземпляров. Различие между полиномиальным и экспоненциальным ростом сложности было впервые подчеркнуто в середине 1960-х годов в работах Кобхэма и Эдмондса.

Важность этого открытия состоит в следующем: экспоненциальный рост означает, что даже экземпляры задачи умеренной величины не могут быть решены за какое-либо приемлемое время. Поэтому, например, приходится заниматься разделением общей задачи выработки интеллектуального поведения на разрешимые подзадачи, а не пытаться решать неразрешимую задачу.

Как можно распознать неразрешимую проблему? Один из приемлемых методов такого распознавания представлен в виде теории NP-полноты, впервые предложенной Стивеном Куком и Ричардом Карпом. Кук и Карп показали, что существуют большие классы канонических задач комбинаторного поиска и формирования рассуждений, которые являются NP-полными. Существует вероятность того, что любой класс задач, к которому сводится этот класс NP-полных задач, является неразрешимым.

Эти результаты контрастируют с тем оптимизмом, с которым в популярных периодических изданиях приветствовалось появление первых компьютеров под такими заголовками, как "Электронные супермозги", которые думают "быстрее Эйнштейна!" Несмотря на постоянное повышение быстродействия компьютеров, характерной особенностью интеллектуальных систем является экономное использование ресурсов. Грубо говоря, наш мир, в котором должны освоиться системы ИИ, – это чрезвычайно крупный экземпляр задачи.

Кроме логики и теории вычислений, третий по величине вклад математиков в искусственный интеллект состоял в разработке теории вероятностей. Идея вероятности была впервые сформулирована итальянским математиком Джероламо Кардано (16 век), который описал ее в терминах результатов событий с несколькими исходами, возникающих в азартных играх. Теория вероятностей быстро стала неотъемлемой частью всех количественных наук, помогая использовать недостоверные результаты измерений и неполные теории. Пьер Ферма, Блез Паскаль, Джеймс Бернулли (17 век), Пьер Лаплас (18-19 века) и другие ученые внесли большой вклад в эту теорию и ввели новые статистические методы. Томас Байес (18 век) предложил правило обновления вероятностей с учетом новых фактов. Правило Байеса и возникшее на его основе научное направление, называемое байесовским анализом, лежат в основе большинства современных подходов к проведению рассуждений с учетом неопределенности в системах искусственного интеллекта.

3. Экономика.

В рамках данной науки возникли такие вопросы:

· Как следует организовать принятие решений для максимизации вознаграждения?

· Как действовать в таких условиях, когда другие могут препятствовать осуществлению намеченных действий?

· Как действовать в таких условиях, когда вознаграждение может быть предоставлено лишь в отдаленном будущем?

Экономика как наука возникла в 1776 году. Ее основателем считается шотландский философ Адам Смит. Он впервые сумел оформить эту область знаний как науку, используя идею, что любую экономику можно рассматривать как состоящую из отдельных агентов, стремящихся максимизировать свое собственное экономическое благосостояние. Большинство людей считают, что экономика посвящена изучению денежного оборота, но любой экономист ответит на это, что в действительности он изучает то, как люди делают выбор, который ведет к предпочтительным для них результатам. Математическая трактовка понятия "предпочтительных результатов", или полезности, была впервые формализована Леоном Валрасом (19-20 века), уточнена Фрэнком Рамсеем, а затем усовершенствована Джоном фон Нейманом и Оскаром Моргенштерном.

Теория решений, которая объединяет в себе теорию вероятностей и теорию полезности, предоставляет формальную и полную инфраструктуру для принятия решений (в области экономики или в другой области) в условиях неопределенности, т.е. в тех случаях, когда среда, в которой действует лицо, принимающее решение, наиболее адекватно может быть представлена лишь с помощью вероятностных описаний. Она хорошо подходит для «крупных» экономических образований, где каждый агент не обязан учитывать действия других агентов как индивидуумов. А в "небольших" экономических образованиях ситуация в большей степени напоминает игру, поскольку действия одного игрока могут существенно повлиять на полезность действий другого (или положительно, или отрицательно). Теория игр, разработанная фон Нейманом и Моргенштерном, позволяет сделать вывод, что в некоторых играх рациональный агент должен действовать случайным образом или, по крайней мере, таким образом, который кажется случайным для соперников.

Экономисты чаще всего не стремятся найти ответ на третий вопрос, приведенный выше, т.е. не пытаются выработать способ принятия рациональных решений в тех условиях, когда вознаграждение в ответ на определенные действия не предоставляется немедленно, а становится результатом нескольких действий, выполненных в определенной последовательности. Изучению этой темы посвящена область исследования операций.

Работы в области экономики и исследования операций оказали большое влияние на формирование понятия рациональных агентов, но в течение многих лет исследования в области искусственного интеллекта проводились совсем по другим направлениям. Одной из причин этого была кажущаяся сложность задачи выработки рациональных решений. Тем не менее Герберт Саймон (20 век) показал, что лучшее описание фактического поведения человека дают модели, основанные на удовлетворении (принятии решений, которые являются "достаточно приемлемыми"), а не модели, предусматривающие трудоемкий расчет оптимального решения, и стал одним из первых исследователей в области искусственного интеллекта, получившим Нобелевскую премию по экономике (это произошло в 1978 году).

4. Неврология.

В рамках этой науки ученые пытались ответить на вопрос о том, как происходит обработка информации в мозгу?

Неврология – это наука, посвященная изучению нервной системы, в частности мозга. Одной из величайших загадок, не поддающихся научному описанию, остается определение того, как именно мозг обеспечивает мышление.

5. Психология.

• Как думают и действуют люди и животные?

В 1879 году в Лейпцигском университете была открыта первая лаборатория по экспериментальной психологии. Ее основателем был Вильгельма Вундт. Он настаивал на проведении тщательно контролируемых экспериментов, в которых его сотрудники выполняли задачи по восприятию или формированию ассоциаций, проводя интроспективные наблюдения за своими мыслительными процессами. Такой тщательный контроль позволил ему сделать очень многое для превращения психологии в науку, но из-за субъективного характера данных вероятность того, что экспериментатор будет стремиться опровергнуть выдвинутые им теории, оставалась очень низкой. Сторонники бихевиористского движения, возглавляемые Джоном Уотсоном (20 век) отвергали любую теорию, учитывающую мыслительные процессы, на том основании, что интроспекция не может предоставлять надежные свидетельства. Бихевиористы настаивали на том, что следует изучать только объективные меры восприятия (или стимулы), предъявленные животному, и вытекающие из этого действия (или отклики на стимулы). Такие мыслительные конструкции, как знания, убеждения, цели и последовательные рассуждения, отвергались как ненаучная "обывательская психология".

Кеннет Крэг (20 век) привел весомые доводы в пользу допустимости применения таких "мыслительных" терминов, как убеждения и цели, доказав, что они являются не менее научными, чем, скажем, такие термины, применяемые в рассуждениях о газах, как давление и температура, несмотря на то, что речь в них идет о молекулах, которые сами не обладают этими характеристиками. Крэг обозначил следующие три этапа деятельности агента, основанного на знаниях: во-первых, действующий стимул должен быть преобразован во внутреннее представление, во-вторых, с этим представлением должны быть выполнены манипуляции с помощью познавательных процессов для выработки новых внутренних представлений, и, в-третьих, они должны быть, в свою очередь, снова преобразованы в действия. Он наглядно объяснил, почему такой проект является приемлемым для любого агента.

Если живой организм несет в своей голове "модель в уменьшенном масштабе" внешней реальности и своих возможных действий, то обладает способностью проверять различные варианты, приходить к заключению, какой из них является наилучшим, реагировать на будущие ситуации, прежде чем они возникнут, использовать знания о прошлых событиях, сталкиваясь с настоящим и будущим, и во всех отношениях реагировать на опасности, встречаясь с ними, гораздо полнее, безопаснее для себя, а также в более компетентной форме.

Работа Крэга была продолжена Дональдом Броудбентом, который привел первые примеры моделей информационной обработки психологических феноменов.

Работы в области компьютерного моделирования привели к созданию такого научного направления, как когнитология. Существует такое мнение, что зарождение этого направления произошло на одном из семинаров в Массачусетсском технологическом институте в сентябре 1956 года. На этом семинаре было показано, как можно использовать компьютерные модели для решения задач в области психологии, запоминания, обработки естественного языка и логического мышления. В настоящее время среди психологов находят широкое признание взгляды на то, что "любая теория познания должна напоминать компьютерную программу", т.е. она должна подробно описывать механизм обработки информации, с помощью которого может быть реализована некоторая познавательная функция.

6. Вычислительная техника.

• Каким образом можно создать эффективный компьютер?

Для успешного создания искусственного интеллекта требуется, во-первых, интеллект и, во-вторых, артефакт. Наиболее предпочтительным артефактом в этой области всегда был компьютер.

Искусственный интеллект во многом обязан тем направлениям компьютерных наук, которые касаются программного обеспечения, поскольку именно в рамках этих направлений создаются операционные системы, языки программирования и инструментальные средства, необходимые для написания современных программ. Но эта область научной деятельности является также одной из тех, где искусственный интеллект в полной мере возмещает свои долг: работы в области искусственного интеллекта стали источником многих идей, которые затем были воплощены в основных направлениях развития компьютерных наук, включая разделение времени, интерактивные интерпретаторы, персональные компьютеры с оконными интерфейсами и поддержкой позиционирующих устройств, применение среды ускоренной обработки, создание типов данных в виде связных списков, автоматическое управление памятью и ключевые концепции символического, функционального, динамического и объектно-ориентированного программирования.

7. Теория управления и кибернетика.

• Каким образом артефакты могут работать под своим собственным управлением?

Первое самоуправляемое устройство было построено Ктесибием из Александрии (примерно в 250 году до н.э.); это были водяные часы с регулятором, который поддерживал поток воды, текущий через эти часы с постоянным, предсказуемым расходом. Это изобретение изменило представление о том, на что могут быть способны устройства, созданные человеком. До его появления считалось, что только живые существа способны модифицировать свое поведение в ответ на изменения в окружающей среде. К другим примерам саморегулирующихся систем управления с обратной связью относятся регулятор паровой машины, созданный Джеймсом Уаттом (18-19 века), и термостат, изобретенный Корнелисом Дреббелем (16-17 века), который изобрел также подводную лодку. Математическая теория устойчивых систем с обратной связью была разработана в XIX веке.

Центральной фигурой в создании науки, которая теперь именуется теорией управления, был Норберт Винер (20 век). Винер был блестящим математиком, который совместно работал со многими учеными, включая Бертрана Рассела, под влиянием которых у него появился интерес к изучению биологических и механических систем управления и их связи с познанием. Как и Крэг (который также использовал системы управления в качестве психологических моделей), Винер и его коллеги Артуро Розенблют и Джулиан Бигелоу бросили вызов ортодоксальным бихевиористским взглядам. Они рассматривали целенаправленное поведение как обусловленное действием регуляторного механизма, пытающего минимизировать "ошибку" – различие между текущим и целевым состоянием. В конце 1940-х годов Винер совместно с Уорреном Мак-Каллоком, Уолтером Питтсом и Джоном фон Нейманом организовал ряд конференций, на которых рассматривались новые математические и вычислительные модели познания; эти конференции оказали большое влияние на взгляды многих других исследователей в области наук о поведении. Винер впервые дал определение кибернетики как науки, и убедил широкие круги общественности в том, что мечта о создании машин, обладающих искусственным интеллектом, воплотилась в реальность.

Предметом современной теории управления, особенно той ее ветви, которая получила название стохастического оптимального управления, является проектирование систем, которые максимизируют целевую функцию во времени. Это примерно соответствует представлению об искусственном интеллекте как о проектировании систем, которые действуют оптимальным образом. Почему же в таком случае искусственный интеллект и теория управления рассматриваются как две разные научные области, особенно если учесть, какие тесные взаимоотношения связывали их основателей? Ответ на этот вопрос состоит в том, что существует также тесная связь между математическими методами, которые были знакомы участникам этих разработок, и соответствующими множествами задач, которые были охвачены в каждом из этих подходов к описанию мира. Дифференциальное и интегральное исчисление, а также алгебра матриц, являющиеся инструментами теории управления, в наибольшей степени подходят для анализа систем, которые могут быть описаны с помощью фиксированных множеств непрерывно изменяющихся переменных; более того, точный анализ, как правило, осуществим только для линейных систем. Искусственный интеллект был отчасти основан как способ избежать ограничений математических средств, применявшихся в теории управления в 1950-х годах. Такие инструменты, как логический вывод и вычисления, позволили исследователям искусственного интеллекта успешно рассматривать некоторые проблемы (например, понимание естественного языка, зрение и планирование), полностью выходящие за рамки исследований, предпринимавшихся теоретиками управления.

8. Лингвистика.

• Каким образом язык связан с мышлением?

В 1957 году Ноам Хомский показал, что бихевиористская теория не позволяет понять истоки творческой деятельности, осуществляемой с помощью языка, – она не объясняет, почему ребенок способен понимать и складывать предложения, которые он до сих пор никогда еще не слышал. Теория Хомского, основанная на синтаксических моделях, восходящих к работам древнеиндийского лингвиста Панини (примерно 350 год до н.э.), позволяла объяснить этот феномен, и, в отличие от предыдущих теорий, оказалась достаточно формальной для того, чтобы ее можно было реализовать в виде программ.

Таким образом, современная лингвистика и искусственный интеллект, которые "родились" примерно в одно и то же время и продолжают вместе расти, пересекаются в гибридной области, называемой вычислительной лингвистикой или обработкой естественного языка. Вскоре было обнаружено, что проблема понимания языка является гораздо более сложной, чем это казалось в 1957 году. Для понимания языка требуется понимание предмета и контекста речи, а не только анализ структуры предложений. Это утверждение теперь кажется очевидным, но сам данный факт не был широко признан до 1960-х годов. Основная часть ранних работ в области представления знаний (науки о том, как преобразовать знания в такую форму, с которой может оперировать компьютер) была привязана к языку и подпитывалась исследованиями в области лингвистики, которые, в свою очередь, основывались на результатах философского анализа языка, проводившегося в течение многих десятков лет.

Итак, такова предыстория искусственного интеллекта. Перейдем теперь к самому процессу развития искусственного интеллекта.

Появление предпосылок искусственного интеллекта (период с 1943 года по 1955 год)

Первая работа, которая теперь по общему признанию считается относящейся к искусственному интеллекту, была выполнена Уорреном Мак-Каллоком и Уолтером Питтсом. В этой работе им понадобилось: знание основ физиологии и назначения нейронов в мозгу; формальный анализ логики высказываний, взятый из работ Рассела и Уайтхеда; а также теория вычислений Тьюринга. Мак-Каллок и Питтс предложили модель, состоящую из искусственных нейронов, в которой каждый нейрон характеризовался как находящийся во "включенном" или "выключенном" состоянии, а переход во "включенное" состояние происходил в ответ на стимуляцию достаточного количества соседних нейронов. Состояние нейрона рассматривалось как "фактически эквивалентное высказыванию, в котором предлагается адекватное количество стимулов". Работы этих ученых показали, например, что любая вычислимая функция может быть вычислена с помощью некоторой сети из соединенных нейронов и что все логические связки ("И", "ИЛИ", "НЕ" и т.д.) могут быть реализованы с помощью простых сетевых структур. Кроме того, Мак-Каллок и Питтс выдвинули предположение, что сети, структурированные соответствующим образом, способны к обучению. Дональд Хебб продемонстрировал простое правило обновления для модификации количества соединений между нейронами. Предложенное им правило, называемое теперь правилом хеббовского обучения, продолжает служить основой для моделей, широко используемых и в наши дни.

Два аспиранта факультета математики Принстонского университета, Марвин Минский и Дин Эдмондс, в 1951 году создали первый сетевой компьютер на основе нейронной сети. В этом компьютере, получившем название Snare, использовалось 3000 электронных ламп и дополнительный механизм автопилота с бомбардировщика В-24 для моделирования сети из 40 нейронов. Аттестационная комиссия, перед которой Минский защищал диссертацию доктора философии, выразила сомнение в том, может ли работа такого рода рассматриваться как математическая, на что фон Нейман, по словам современников, возразил: "Сегодня – нет, но когда-то будет". В дальнейшем Минский доказал очень важные теоремы, показывающие, с какими ограничениями должны столкнуться исследования в области нейронных сетей.

История искусственного интеллекта (с 1956 год)

В Принстонском университете проводил свои исследования еще один авторитетный специалист в области искусственного интеллекта, Джон Маккарти. После получения ученой степени Маккарти перешел в Дартмутский колледж, который и стал официальным местом рождения искусственного интеллекта. Маккарти уговорил Марвина Минского, Клода Шеннона и Натаниэля Рочестера, чтобы они помогли ему собрать всех американских исследователей, проявляющих интерес к теории автоматов, нейронным сетям и исследованиям интеллекта. Они организовывали двухмесячный семинар в Дартмуте летом 1956 года. Всего на этом семинаре присутствовали 10 участников, включая Тренчарда Мура из Принстонского университета, Артура Самюэла из компании IBM, а также Рея Соломонова и Оливера Селфриджа из Массачусетсского технологического института.

Два исследователя из технологического института Карнеги, Аллен Ньюэлл и Герберт Саймон, буквально монополизировали все это представление. Тогда как другие могли лишь поделиться своими идеями и в некоторых случаях показать программы для таких конкретных приложений, как шашки, Ньюэлл и Саймон уже могли продемонстрировать программу, проводящую рассуждения, логик-теоретик, в отношении которой Саймон заявил: "Мы изобрели компьютерную программу, способную мыслить в нечисловых терминах и поэтому решили почтенную проблему о соотношении духа и тела".

Дартмутский семинар не привел к появлению каких-либо новых крупных открытий, но позволил познакомиться всем наиболее важным деятелям в этой научной области. Они, а также их студенты и коллеги из Массачусетсского технологического института, Университета Карнеги-Меллона, Станфордского университета и компании IBM занимали ведущее положение в этой области в течение следующих 20 лет.

Одним из результатов данного семинара было соглашение принять новое название для этой области, предложенное Маккарти, – искусственный интеллект.

Первые годы развития искусственного интеллекта были полны успехов, хотя и достаточно скромных. Если учесть, какими примитивными были в то время компьютеры и инструментальные средства программирования, и тот факт, что лишь за несколько лет до этого компьютеры рассматривались как устройства, способные выполнять только арифметические, а не какие-либо иные действия, можно лишь удивляться тому, как удалось заставить компьютер выполнять операции, хоть немного напоминающие разумные.

Была создана программа общего решателя задач (General Problem Solver— GPS), предназначенная для моделирования процедуры решения задач человеком. Как оказалось, в пределах того ограниченного класса головоломок, которые была способна решать эта программа, порядок, в котором она рассматривала подцели и возможные действия, был аналогичен тому подходу, который применяется людьми для решения таких же проблем. Поэтому программа GPS была, по-видимому, самой первой программой, в которой был воплощен подход к "организации мышления по такому же принципу, как и у человека".

Герберт Гелернтер сконструировал программу Geometry Theorem Prover (программа автоматического доказательства геометрических теорем), которая была способна доказывать такие теоремы, которые показались бы весьма сложными многим студентам-математикам.

Начиная с 1952 года Артур Самюэл написал ряд программ для игры в шашки, которые в конечном итоге научились играть на уровне хорошо подготовленного любителя. В ходе этих исследований Самюэл опроверг утверждение, что компьютеры способны выполнять только то, чему их учили: одна из его программ быстро научилась играть лучше, чем ее создатель.

В 1958 году Джон Маккарти привел определение нового языка высокого уровня Lisp – одного из первых языков программирования для искусственного интеллекта.

Наши рекомендации