Дартмутская конференция 1956: рождение ИИ
Дартмутская конференция 1956 года была организована Марвином Минским, Джоном Маккарти и двумя старшими учеными : Клодом Шенноном и Натаном Рочестрем от IBM . Предложение к конференции включало это утверждение: «каждый аспект обучения или любая другая особенность интеллекта может быть настолько точно описана, что машина может быть создана для имитации». Среди участников были Рэй Соломонов, Оливер Селфридж, Тренчард Море, Артур Самуэль, Аллен Ньюэлл и Герберт А. Саймон, все из которых будут создавать важные программы в течение первых десятилетий исследований ИИ. На конференции Ньюэлл и Саймон дебютировали «Логический теоретик», и Маккарти убедил участников принять «Искусственный интеллект» в качестве названия поля. Конференция в Дартмуте в 1956 году была тем моментом, когда ИИ получил свое название, свою миссию, свой первый успех и основные игроки, и широко считается рождением ИИ.
Золотые годы 1956-1974
В течение нескольких лет после конференции в Дартмуте была эпоха открытий. Программы, которые были разработаны в течение этого времени, были для большинства людей просто «удивительными»: компьютеры решали проблемы алгебраических слов, доказывали теоремы в геометрии и учились говорить по-английски. Немногие в то время считали бы, что такое «разумное» поведение машин возможно вообще. Исследователи выразили сильный оптимизм в частной и печатной форме, предсказывая, что полностью интеллектуальная машина будет построена менее чем за 20 лет. Правительственные агентства, такие как DARPA, вливали деньги в новую область.
Фронт работ
В конце 50-х и 60-х годов было много успешных программ и новых направлений. Среди наиболее влиятельных были следующие:
Исследование причин
Многие ранние программы ИИ использовали один и тот же базовый алгоритм . Чтобы достичь какой-то цели (например, выиграть игру или доказать теорему), они шаг за шагом шли к ней (делая шаг или вычет), как если бы искали в лабиринте, возвращаясь назад, когда они доходили до тупика. Эта парадигма называлась «исследование причин». Основная трудность заключалась в том, что для многих проблем количество возможных путей через «лабиринт» было просто астрономическим (ситуация, известная как « комбинаторный взрыв »). Исследователи уменьшили бы пространство поиска, используя эвристику или « эмпирические правила », которые устранили бы те пути, которые вряд ли могли бы привести к решению. Ньюэлл и Саймон попытались записать общую версию этого алгоритма в программе под названием « Универсальный решатель проблем ». Другие «поисковые» программы смогли выполнить впечатляющие задачи, такие как решение задач геометрии и алгебры, таких как « Теорема о геометрии Герберта Гелернтера » (1958) и SAINT , написанная учеником Минского Джеймсом Слаглом (1961). Другие программы искали цели и подзаголовки для планирования действий, таких как система STRIPS , разработанная в Стэнфорде для управления поведением своего робота Шейки.
Пример семантической сети
Естественный язык
Важной целью исследования ИИ является предоставление компьютерам возможности общаться на естественных языках, таких как английский. Ранним успехом была программа STUDENT от Дэниела Боброва, которая могла бы решить проблемы алгебры в средней школе.
Семантическая сеть представляет понятия в качестве узлов и отношений между понятиями в качестве связей между узлами. Первая программа ИИ, использовавшая семантическую сеть, была написана Россом Квиллианом, а наиболее успешной (и спорной) была Теория концептуальной зависимости Роджера Шенка. ELIZA Джозефа Вейценбаума может проводить беседы, которые были настолько реалистичными, что пользователи иногда были обмануты, думая, что они общались с человеком, а не программой. Но на самом деле ELIZA понятия не имела, о чем она говорит. Она просто давала консервированный ответ или повторила то, что ей сказали, перефразируя ее ответ несколькими правилами грамматики. ELIZA была первым чатботом.
Микромиры
В конце 60-х годов Марвин Мински и Сеймур Паперт из лаборатории MIT ИИ предложили, чтобы исследование ИИ должно было сосредоточиться на искусственно простых ситуациях, известных как микромиры, упрощенные модели. Большая часть исследований была сосредоточена на «блочном мире », который состоит из цветных блоков различной формы и размеров, расположенных на плоской поверхности.
Эта парадигма привела к инновационной работе в системах машинного зрения по Джеральду Зуссману (который возглавлял команду), Адольфо Гусман , Дэвид Вальц (который изобрел « ограничение распространения »), и особенно Патрик Уинстон . В то же время Мински и Паперт построили роботизированную руку, которая могла бы складывать блоки. Венцом микромира программы был SHRDLU Терри Винограда. Он мог общаться обычными английскими предложениями, планировать операции и выполнять их.
Взгляд в будущее
Первые поколения исследователей ИИ сделали подобные предсказания об их работе:
· 1958, Г.А. Саймон и Аллен Ньюэлл : «в течение десяти лет цифровой компьютер станет чемпионом мира по шахматам» и «в течение десяти лет цифровой компьютер откроет и докажет важную новую математическую теорему».
· 1965, Г.А. Саймон : «машины будут способны в течение двадцати лет выполнять любую работу, которую может сделать человек».
· 1967, Марвин Минский : «В течение одного поколения ... проблема создания« искусственного интеллекта »будет существенно решена».
· 1970, Марвин Мински (в журнале Life ): «Через три-восемь лет у нас будет машина с общим интеллектом среднего человека».
Финансирование
В июне 1963 года Массачусетский технологический институт получил грант в размере 2,2 млн. Долл. США от недавно созданного Агентства перспективных исследовательских проектов (позднее получившего название DARPA ). Деньги были использованы для финансирования проекта MТИ, который был включен в «Группу ИИ», основанный Минским и Маккарти пятью годами ранее. DARPA продолжала выплачивать три миллиона долларов в год до 70-х годов.DARPA предоставила аналогичные гранты программе Ньюэлла и Саймона в Университете Карнеги Меллон и проекту Стэнфордского ИИ (основанному Джоном МакКарти в 1963 году).
Робототехника
В Японии в 1967 году Университет Васэда инициировал проект WABOT, а в 1972 году закончил WABOT-1, первого в мире полномасштабного интеллектуального робота - гуманоида, или андроида. Его система управления конечностями позволяла ему ходить с нижними конечностями, а также захватывать и переносить предметы руками, используя тактильные датчики. Его система зрения позволяла измерять расстояния и направления к объектам с использованием внешних рецепторов, искусственных глаз и ушей. И его система разговора позволила ему общаться с человеком по-японски, с искусственным ртом.
Первая ИИ зима 1974-1980
Проблемы
В начале 70-х годов возможности программ ИИ были ограниченными. Даже самые впечатляющие могут обрабатывать только тривиальные версии проблем, которые они должны были решить; все программы были, в некотором смысле, «игрушками». Исследователи ИИ начали сталкиваться с несколькими фундаментальными ограничениями, которые невозможно было преодолеть в 1970-х годах.
Ограниченная мощность компьютера : недостаточно памяти или скорости обработки для достижения чего-либо действительно полезного.
· Неразрешимость и комбинаторный взрыв. В 1972 году Ричард Карп (основанный на теореме Стивена Кука 1971 года) показал, что существует множество проблем, которые, вероятно, могут быть решены только в экспоненциальном времени (в размере входных данных). Поиск оптимальных решений этих проблем требует невообразимого количества компьютерного времени, кроме случаев, когда проблемы тривиальны. Это почти наверняка означало, что многие из «игрушечных» решений, используемых ИИ, вероятно, никогда не будут расширяться в полезные системы.
· Накопление знаний и рассуждений. Многие важные приложения для искусственного интеллекта, такие как зрение или естественный язык, требуют просто огромного количества информации о мире: программа должна иметь представление о том, на что она может смотреть или что она говорит. Это требует, чтобы программа знала большинство из того же самого о мире, что и ребенок. Вскоре исследователи обнаружили, что это действительно огромный объем информации. Никто в 1970 году не мог построить такую большую базу данных, и никто не знал, как программа может узнать столько информации.
· Парадокс Моравека : Доказательство теорем и решение задач геометрии сравнительно легко для компьютеров, но, по-видимому, простая задача, такая как распознавание лица или пересечение комнаты без столкновения с чем-либо, чрезвычайно затруднительна. Это помогает объяснить, почему исследования в области зрения и робототехники достигли небольшого прогресса к середине 1970-х годов.
· Рамки и проблемы квалификации. Исследователи ИИ (например, Джон МакКарти ), которые использовали логику, обнаружили, что они не могут представлять обычные выводы, которые связаны с планированием или дефолтным рассуждением без внесения изменений в структуру самой логики. Они разработали новые логики (например, немонотонные логики и модальные логики ), чтобы попытаться решить проблемы.
Окончание финансирования
Агентства, которые финансировали исследования ИИ (например, британское правительство , DARPA и NRC ), были разочарованы отсутствием прогресса и в конечном итоге отрезали почти все средства для неориентированных исследований ИИ. Урезание финансирования началось еще в 1966 году, и к 1974 году финансирование проектов ИИ было уже крайне трудно найти.
Ганс Моравец обвинил кризис в нереалистичных прогнозах своих коллег. «Многие исследователи были втянуты в сеть все большего преувеличения». Однако возникла еще одна проблема: с момента принятия Поправки Мэнсфилда в 1969 году DARPA подвергалось все большему давлению для финансирования «ориентированных на миссию прямых исследований, а не базовых неориентированных исследований». Финансирование творческого, свободного выбора, которое продолжалось в 60-х годах, не было бы результатом DARPA . Вместо этого деньги были направлены на конкретные проекты с четкими целями, такими как автономные танки и системы управления боевыми действиями.
Критика
У нескольких философов были сильные возражения против претензий, выдвигаемых исследователями ИИ. Одним из первых был Джон Лукас , который утверждал, что теорема о неполноте Геделя показала, что формальная система (например, компьютерная программа) никогда не могла видеть правду некоторых утверждений, в то время как человек мог. Хуберт Дрейфус высмеял сломанные обещания 60-х годов и критиковал предположения об ИИ, утверждая, что человеческое мышление фактически связано с очень маленькой «обработкой символов» и большим количеством воплощенных , инстинктивных , бессознательных « ноу-хау ». Аргумент китайской комнаты , представленный в 1980 году Джоном Сёрлом , попытался показать, что нельзя было сказать, что программа «понимает» символы, которые использует . Если символы не имеют значения для машины, Сёрл утверждал, что машина не может быть описана как «мыслящая».