Когнитивистика в процессе созревания: споры и развитие
Неопределенность
В 1980-х гг. когнитивистика переживала своего рода «кризис среднего возраста». Некоторые психологи, стоявшие у истоков движения, испытывали глубокие сожаления по поводу того, во что оно превратилось. Несколько ключевых проблем сопротивлялись решению и стали предметом язвительных споров, и возникло соперничество с традиционным системным подходом к познанию, которое, как казалось одно время, угрожало уничтожить это направление. Но в конечном итоге ни одна из этих проблем не стала роковой для когнитивистики, хотя они сильно изменили ее.
В первую очередь трудности проистекали из того, что обещания искусственного интеллекта оказались завышенными. Герберт Саймон был одним из главных «продавцов» созданной им области. В 1956 г. он предсказал, что к 1967 г. ученые будут писать психологические теории, как компьютерные программы; он также предвидел что «в течение 10 лет цифровой компьютер станет чемпионом мира по шахматам» и что «в течение 10 лет цифровой компьютер откроет и докажет новые важные теоремы математики». В 1965 г. Саймон предсказывал, что «на протяжении ближайших 20 лет машины смогут выполнять любую работу, которую могут делать люди» (цит. по: Н. L. Dreyfus, 1972). К 2000 г. ни одно из предсказаний Саймона не исполнилось, хотя компьютерная программа Deep Blue действительно обыграла действующего чемпиона мира по шахматам Гарри Каспарова в показательном матче 1996 г.
Тем временем в психологии также возникли проблемы. В 1982 г. Джеймс Дж. Дженкинс, бывший бихевиорист, перешедший к теории обработки информации, утверждал, что «когнитивная психология увлеклась мелочами и потеряла направление». Он задавался вопросами: «Развивается ли наша область в том направлении, в каком, как нам кажется, должна развиваться наука?.. Развивается ли эта область и углубляется ли наше понимание когнитивных принципов, процессов и фактов, которые могут внести вклад в решение реальных проблем и дать ответы на насущные вопросы?» При этом Дженкинс склонялся к отрицательному ответу и считал, что когнитивная психология развивается по воле случая, без тщательно разработанной исследовательской программы. В том же году в юбилейном номере журнала Cognition, отмечавшего свое десятилетие, была опубликована редакционная статья, в которой выражалось опасение, что «в когнитивной психологии нет очевидного прогресса, и, начиная с 1971 г., эта область не претерпевает существенного развития» (J. Mehler and S. Franck, 1981).
Ульрик Найссер, один из основоположников когнитивной психологии, был разочарован еще сильнее. В 1976 г. он опубликовал книгу «Познание и реальность», которая знаменовала его отход от основного течения когнитивистики (D. Goleman,1983). В своей новой книге Найссер писал: «Развитие когнитивной психологии на протяжении последних лет вызывает разочарование узостью подходов», высказывал сомнение в том, «является ли все направление по-настоящему продуктивным» и заявлял, что пришел «к пониманию того, что представление о переработке информации заслуживает более пристального исследования». Найссер начал говорить о том, что когнитивной психологии «следует принять более реалистичное направление: подход с позиций переработки информации оказывается недостаточным, когда речь заходит о человеческой природе» (U. Neisser, 1984). Найссер предложил заменить подход с позиций переработки информации «экологическим подходом», который изучает познание в естественном контексте, а не при суровых ограничениях эксперимента, изобретенных для того, чтобы отвечать потребностям лабораторий.
Споры
Вызов, брошенный преднамеренностью.Как утверждали Р. Лачман, Дж. Лачман и Э. Баттерфилд (R. Lachman, J. Lachman and E. Butterfield, 1979), «психология переработки информации фундаментально связана с концепцией репрезентации». Ф. Брентано признавал, что преднамеренность является критерием способности к мышлению. Такие психические Состояния, как убеждения, обладают свойством «относительности»: они относятся к чему-то, стоящему за ними, к тому, что нейроны не могут делать. Репрезентации Э. Ч. Толмена обладают свойством преднамеренности: когнитивная карта рассказывает о лабиринте, представляя собой репрезентацию лабиринта.
Тем не менее, хотя концепция репрезентации кажется достаточно понятной, она чревата трудностями, на которые указывал Л. Витгенштейн. Предположим, я нарисую такую фигурку:
Что изображает этот рисунок? На первый взгляд, вам может показаться, что это мужчина, прогуливающийся с палкой для ходьбы. Но я мог использовать его, чтобы представить стоящий забор, или чтобы показать, как следует ходить, опираясь нд палку, или изобразить мужчину, возвращающегося с палкой, или женщину, гуляющую с палкой, или множество других вещей. Еще один пример: независимо от того, насколько вы похожи на портрет Генриха VIII, он остается репрезентацией Генриха, а не вашей. Конечно, я мог воспользоваться им, чтобы дать представление о вас, если бы кто-нибудь спросил, как вы выглядите, а вас бы не оказалось поблизости. Итак, репрезентации не дают представления посредством своей внешности. Предметом спора стало то, что же именно делает репрезентацию репрезентацией, но функционализм прибегнул к иной стратегии, чтобы решить эту проблему.Любая репрезентация обладает и семантикой, и синтаксисом. Семантика репрезентации — это ее значение, синтаксис — это ее форма. Если я пишу слово DESK (парта), его значение (семантика) относится к определенному предмету мебели, а синтаксисом является действительная структура и расположение букв D, E, S, и К. С научной, материалистической, точки зрения, загадкой репрезентаций служит их значение, их преднамеренность; это было изначальным пунктом концепции преднамеренности Ф. Брентано, демонстрирующим, что значение нельзя свести к физическим процессам. Но, как уже отмечалось, задача функционализма состоит в уничтожении загадочности преднамеренности, внесении поведения и психических процессов в сферу действия механистической науки. Он пытается сделать это посредством редукции семантики к синтаксису.
Когда минуту назад я напечатал DESK, понял ли компьютер значение этого слова? Нет, он обращался с этими буквами чисто синтаксически, сохранив их в виде нолей и единиц в своем бинарном машинном языке. Однако я могу попросить программу Word сделать со словом DESK вещи, которые могут показаться разумными, сформулированными на менталистском языке. Я могу попросить найти все случаи употребления DESK в данном файле, и программа найдет как DESK, так и desk. Я могу попросить везде заменить CHAIR (стул) на DESK. Word может проверить написание слова DESK и сверить со словарем, чтобы привести слова со сходным значением. Тем не менее, хотя компьютер может сделать со словом DESK все эти вещи, нельзя сказать, что он владеет семантическим компонентом DESK. В каждом случае компьютер совершает операции, находя уникальный машинный код из нолей и единиц, который обозначает DESK, а затем выполняет мою уточненную операцию в этом регистре. Компьютер оперирует только с синтаксисом репрезентации, хотя его поведение может совпадать с тем, как если бы он знал значение репрезентации. Хотя, судя по его поведению, может показаться, что он знает семантическое значение DESK, на самом деле компьютер знает лишь синтаксис нолей и единиц.
Эту трудную, но важную проблему можно выразить еще одним способом, если позаимствовать терминологию Дэниела Деннета (Daniel Dennett, 1978), одного из творцов функционализма. Когда мы играем в шахматы с компьютером, мы, возможно, обращаемся с ним, как с человеком, приписывая ему психические склонности: он пытается ходить ферзем, он хочет съесть мою пешку, он боится, что я захвачу контроль над центром поля. Деннет называет это заимствование интенци-ональной позицией. Мы естественным образом занимаем интенциональную позицию по отношению к людям, иногда по отношению к животным, а в определенных случаях — и по отношению к машинам. Но то, что происходит внутри компьютера, ни в коей мере не является преднамеренным. План фигур на шахматной доске внутри него представлен в виде сложного паттерна из нолей и единиц в рабочей памяти компьютера. Затем компьютер находит правила, применимые к паттерну в текущий момент, и выполняет правило, изменяя содержание регистра памяти, что на экране видно как движение шахматной фигуры. Новый вход — ваш шахматный ход — изменяет паттерн нолей и единиц, и компьютер снова применяет применимое правило к новому паттерну, и так далее. Программа не пытается, не хочет и не боится; она просто выполняет формальные вычисления с паттернами из нолей и единиц, а вы считаете это преднамеренным поведением. •
В беседе с Джонатаном Миллером Деннет (Dennett, 1983) суммировал подход с позиции вычислений следующим образом:
Деннет: Основная идея заключается в том, что вы начинаете с вершины вашего умного существа, со всеми его убеждениями, желаниями, ожиданиями и страхами, всей ' этой информацией. Затем вы спрашиваете себя: «Как все это будет представлено?» Вы разбиваете целостную систему на подсистемы, маленьких гомункулов. Каждый из них является специалистом, каждый выполняет маленький кусочек работы. Из их совместных усилий возникает целостная деятельность целостной системы.
Миллер: Но разве это не способ стать ненаучным менталистом?
Деннет: Да, вы заменяете маленького человечка в мозге целой группой, но спасение заключается в том, что все члены этой группы гораздо тупее, нежели целое. По отдельности подсистемы не повторяют таланты целого. Они неизбежно приведут вас к регрессу. Вместо этого каждая подсистема выполняет свою часть работы; каждая менее умна, меньше знает, имеет меньше убеждений. Сами по себе репрезентации менее представительны, поэтому вам не нужен внутренний глаз для того, чтобы наблюдать за ними; вы можете удалиться с помощью некоего внутреннего процесса, который «открывает к ним доступ» посредством какого-то слабого ощущения (р. 77-78).
Итак, хотя мы приписываем преднамеренность компьютеру, играющему в шахматы, на деле он представляет собой всего лишь собрание непреднамеренных, тупых подсистем, слепо выполняющих вычисления на синтаксически определяемых репрезентациях в соответствии с механистическими правилами.
В главе 1 мы противопоставляли подходы реализма и инструментализма к науке. Когда мы принимаем позицию преднамеренности по отношению к компьютеру, мы прибегаем к инструментальной теории. Мы знаем, что играющий в игры компьютер на самом деле не имеет желаний и убеждений, но мы обращаемся с ним так, как будто он ими обладает, поскольку это помогает нам предвосхитить его ходы и (как мы надеемся) победить его. Делаем ли мы то же самое, когда занимаем позицию преднамеренности в отношении других людей, или люди на самом деле обладают желаниями и убеждениями? Если верно последнее, то интенциональная теория этнической психологии является реалистической теорией о людях, даже в том случае, если она обладает всего лишь инструментальной полезностью в отношении компьютеров. Философ Джон Сирл (John Searle, 1994,1997) принимает эту точку зрения и полагает, что компьютеры, таким образом, никогда не пройдут тест Тюринга и что этническая психология, в силу своей истинности, никогда не будет забыта. Но другие философы гораздо серьезнее относятся к вычислительной метафоре и приходят к различным заключениям. Стивен Стич (Stephen Stich, 1983), например, настойчиво утверждает, что единственными научно приемлемыми теориями в когнитивной психологии человека будут те, которые станут рассматривать переработку информации человеком точно так же, как и компьютером, как механические вычисления с определяемыми синтаксически репрезентациями. Следовательно, этническая психология, поскольку она не является верной, в конце концов исчезнет из науки и повседневной жизни:
Общее представление о космосе в народной мудрости Запада было совершенно ошибочным... Нет никаких оснований думать, что древние погонщики верблюдов были более счастливы, когда структурой, имевшейся в их распоряжении, была структура их собственного разума, а не структура материи или космоса (р. 229-230).Если наша наука не согласуется с народными представлениями, которые определяют, кто : и что мы есть, то у нас наступили трудные времена. Одно или другое должно уйти (р. 10).
Лишенные эмпирической опоры, наши вековые представления о вселенной в пределах воли распадутся в прах подобно тому, как разрушилась почтенная концепция внешней вселенной, рассыпавшаяся в прах в эпоху Возрождения (с. 246).
Сам Деннет (D. Dennett, 1978,1991) пытался «усидеть на двух стульях» и примирить два взгляда, признавая, что в науке мы должны рассматривать людей как машины, но что «этническую психологию», убеждения и желания можно сохранить в качестве вычислительного инструмента для повседневной жизни.
Валиден ли тест Тюринга? Представьте, что вы сидите за столом в пустой комнате. На столе перед вами лежит книга и листы бумаги, а в стене перед столом две щели. Из левой прорези выходят листы бумаги с китайскими иероглифами. Вы не понимаете по-китайски. Когда вы получаете лист бумаги, вы изучаете цепочку символов и находите соответствующую последовательность в книге. Книга велит вам скопировать новый набор китайских иероглифов на одном из ваших листов бумаги и опустить его в правую прорезь. Китайские психологи за стеной опускают в левую прорезь китайские истории, за которыми следуют вопросы об этих историях, и получают ответы из другой щели. С их точки зрения, машина за стеной понимает по-китайски, поскольку они в состоянии беседовать с машиной, получая возможные ответы на свои вопросы. Они приходят к выводу, что машина за стеной понимает китайский язык и прошла тест Тюринга.
Конечно, вы знаете, что ничего не понимаете, — вы всего лишь записываете последовательности бессмысленных закорючек, имея инструкцию отвечать на другой набор бессмысленных закорючек. Джон Сирл (J. Searle, 1980), которому принадлежит этот мысленный эксперимент, указывает, что вы функционируете в «китайской комнате» подобно тому, как работает компьютер. Компьютер принимает вход в машинном коде (последовательности нолей и единиц), применяет синтаксические правила, чтобы трансформировать эти репрезентации в новые репрезентации (новые последовательности нолей и единиц), и генерирует выход. При этом пользователь называет то, что делает компьютер, игрой в шахматы, имитацией ядерного удара или чем-то еще, точно так же, как китайские психологи говорят о том, что комната «понимает по-китайски». Аргументы Дж. Сирла показывают, что тест Тюринга не является адекватным измерением интеллекта, так как «китайская комната» в состоянии пройти тест Тюринга, ничего не понимая, а образ ее действий полностью совпадает с компьютерным.
Сирл также указывает на важное отличие когнитивной имитации от других видов имитаций. Метеорологи конструируют компьютерные модели ураганов, экономисты — внешней торговли США, а биологи — фотосинтеза. Но их компьютеры не порождают ветра со скоростью 100 км/ч, многомиллиардного торгового дефицита и не превращают свет в кислород. Тем не менее ученые-когнитивисты утверждают, что, если (или когда) они смогут имитировать интеллект, т. е. программа выдержит тест Тюринга, машина действительно будет считаться разумной. Но в других областях модель и реальность — совершенно разные вещи, и Сирл считает абсурдным игнорировать это различие в когнитивистике.
Сирл проводит различие между слабым и сильным искусственным интеллектом.Слабый искусственный интеллект будет сохранять различия между имитацией и достижением и использовать компьютеры подобно тому, как это делают остальные ученые — как замечательные вычислительные устройства для применения и проверки теорий. Сильный искусственный интеллект является требованием (опровергнутым мысленным экспериментом с китайской комнатой) того, что имитация интеллекта есть интеллект. Сирл полагает, что сильного искусственного интеллекта достичь не удастся в силу тех же причин, по которым компьютер не в состоянии осуществить процесс фотосинтеза: он сделан не из того материала. По мнению Сирла, фотосинтез — это природная биологическая функция определенных структур растения, а мышление и понимание — природная биологическая функция мозга. Машины не обладают природными биологическими функциями и поэтому не могут ни фотосинтезировать, ни понимать. Компьютеры могут обеспечить нас орудием для того, чтобы помочь исследовать фотосинтез или понимание, но, по мнению Сирла, они не в состоянии действительно делать то или другое. Аргументы Сирла напоминают замечания, сделанные Лейбницем:
Представим, что существует машина, сконструированная так, чтобы думать, чувствовать и понимать, как мы, и что при этом она таких размеров, что мы можем войти внутрь нее. Сделав это, мы обнаружим там только части, соединенные друг с другом, но ничего такого, что позволило бы объяснить восприятие, (цит. по: К. Gunderson, 1984, р. 629).
Мысленный эксперимент Сирла с «китайской комнатой» оказался одним из самых содержательных в истории искусственного интеллекта и когнитивистики, и спор все еще не закончен. Одних психологов и философов он вдохновляет, а у других вызывает ярость настолько, что спорящие стороны начинают говорить не друг с другом, а в пространство, не обращая внимания на аргументы противной стороны (J. Searle, 1997). То, на чью сторону встанет читатель, по-видимому, вопрос его интуиции, а также надежд и страхов по поводу компьютеризованного будущего.
Правдоподобен ли формализм? Согласно заявлению информационного комитета по когнитивистике (W. К. Estes and A. Newell, 1983), вследствие того, что компьютеры обладают «символьным поведением» (как раз тем, в чем Сирл им отказывал), «мы можем программировать их таким образом, чтобы они справлялись с любыми задачами, которые поставит наш разум». В заявлении комитета таилось утверждение в духе формализма. Компьютеры могут делать все, что может быть записано в виде компьютерной программы, и комитет, следуя заявлению Г. Саймона о том, что компьютеры можно запрограммировать делать «все, что способен делать человек, все, на что мы направляем наш разум», в неявной форме утверждал, что все, что делают люди, является формальной процедурой. Формализм в психологии представляет собой конечный пункт механизации картины мира; подобно тому, как физика добилась успеха в анализе природы как машины, когнитивистика надеется добиться успеха в анализе людей как машин (Н. Dreyfus, 1972). Но «китайская комната» Сирла бросила вызов механистическому формализму, продемонстрировав, что формальная обработка символов не влечет за собой понимания языка. Еще один вызов представляла собой проблемафрейма, поскольку она ставила под вопрос не только способность компьютеров имитировать интеллект человека, но и саму возможность обретения интеллекта машиной.
Дэниел Деннет живо обрисовал проблему фрейма в следующей истории:
Жил-был робот, названный своими создателями Rt. Его единственной задачей была забота о самом себе. Однажды его создатели устроили так, что он узнал, что его запасная батарея, драгоценный источник энергии, заперта в комнате с бомбой с часовым механизмом, которая вскоре должна взорваться. Rt нашел комнату и ключ от двери и сформулировал план, как спасти свою батарею. В комнате была тележка, батарея находилась на тележке, и Rl выдвинул гипотезу о том, что определенное действие под названием ВЫКАТИТЬ (ТЕЛЕЖКА, КОМНАТА) приведет к тому, что батарея окажется убранной из комнаты. Он сразу же приступил к действию, и действительно смог вытащить батарею из комнаты до того, как бомба взорвалась. Но, к несчастью, бомба тоже была на тележке. Rl знал, что бомба находилась на тележке в комнате, но не понимал, что выкатывание тележки из комнаты вместе с батареей принесет и бомбу. Бедный Rl упустил из виду очевидные последствия своего запланированного действия.
Создатели вернулись к кульману. «Решение очевидно, — сказали они. — Наш следующий робот должен быть сделан так, чтобы мог распознавать не только подразумевающиеся последствия действия, но и возможные побочные последствия, методом дедукции выводя эти последствия из описаний, которые он использует при формулировке своих планов». Они назвали свою следующую модель робот-дедуктор, R}Dr Они поставили R,D{ точно в такое же сложное положение, с которым не справился его предшественник, и, как только тот натолкнулся на идею ВЫКАТИТЬ (ТЕЛЕЖКА, КОМНАТА), он начал, как и было запланировано, рассматривать следствия подобного образа действий. В конце концов он пришел к выводу, что изъятие тележки из комнаты не изменит цвета стен, и приступил к рассмотрению еще одного следствия, согласно которому выкатывание тележки из комнаты приведет к тому, что число оборотов, которые совершат колеса тележки, превзойдет количество самих колес, но тут бомба взорвалась'.
Создатели вернулись к кульману. «Мы должны научить его различать относящиеся и не относящиеся к делу последствия, — сказали они, — и игнорировать те, которые к делу не относятся». Поэтому они разработали метод, с помощью которого проектируемый робот мог бы помечать следствия соответствующим ярлычком — «уместно» и «неуместно», и инсталлировали этот метод в свою следующую модель под названием робот-дедуктор уместности или, для краткости, Rf)r Когда его подвергли испытанию, которое привело к гибели предшественников, ученые были удивлены, увидев робота сидящим в позе Гамлета за пределами комнаты, где тикала бомба; его природную решимость омрачила бледная тень размышлений, как метко заметил Шекспир... «Делай что-нибудь!» — закричали ему. «Я делаю, — ответил он. — Я проигнорировал несколько тысяч следствий, которые определил как не относящиеся к делу. Как только я нахожу неуместное следствие, я вставляю его в список, который должен игнорировать, и...» Бомба взорвалась (Dennett, 1984, pp. 129-130).
.Rj и его потомки оказались пойманными в ловушку проблемы фрейма. Каким образом можно формализовать человеческие знания и навыки решения проблемы в виде набора компьютеризированных правил? Достаточно очевидно, что люди не делают того, что делали роботы: каким-то образом мы решаем проблему быстро и348 с незначительными сознательными размышлениями, как раз так, как это открыли вюрцбургские психологи. Если бы мы выполняли работу так же, как роботы, то уже давным-давно вымерли бы. Похоже, что люди выполняют эту работу с помощью интуиции, а не посредством вычислений: решения проблемы возникают у нас без размышлений; адаптивное поведение имеет место без размышлений. Нам не надо думать, чтобы игнорировать все абсурдные вещи, над игнорированием которых работал R2DV поскольку абсурдные и неуместные последствия у нас просто не возникают. Но компьютер, будучи формальной системой, должен переработать все последствия своих действий и затем проигнорировать их.
Выход из проблемы фрейма, видимо, подразумевает привлечение эмоций, которыми компьютеры не обладают.