Компьютеры и искусственный интеллект
От восковой дощечки до мальчика-посыльного с его картотекой прошло больше 2000 лет, т. е. скорость прогресса в подборе аналогий была не так уж велика, и такие сравнения трудно было бы назвать даже поэтическими метафорами. Но действительно серьезный вызов утверждению Декарта об ограниченных возможностях неодушевленных систем был брошен определяющей технологией второй половины XX века - компьютерами. Ближайшие предшественники современных ЭВМ, как и многих других технических достижений, появились в результате военных разработок. К последним можно отнести и логические игры кембриджского математика Алана Тьюринга, которые нашли практическое применение при тренировках по декодированию, проводившихся в 1939-1945 годах Британской разведывательной службой в Блетчли-Парке (от которого рукой подать до моей нынешней лаборатории). Позже они были переведены на электронику для удовлетворения различных военных потребностей, например для создания эффективных сервомеханизмов для расчета высоты и направления при стрельбе из зенитных орудий по быстро движущимся целям. Эта задача была решена американским математиком Норбертом Винером, который дал новой науке название кибернетики, под которым она вошла в моду в послевоенные десятилетия. В этот период Винер и его коллега-математик Джон фон Нейман - разумеется, в сотрудничестве с американской (и в меньшей степени с британской) промышленностью - дали обоснование теории и практическому применению новой науки и возникшей на ее базе электронной технологии. Потребности военных, а вместе с тем и стимулы для новых разработок на протяжении последующего полувека не ослабевали и стали особенно бурно нарастать в 80-х годах - времени безудержных трат на создававшуюся под эгидой администрации Рейгана программу «звездных войн», которая требовала беспрецедентного увеличения компьютерной мощи. ЭВМ, работающие подобно мозгу и даже заменяющие его, превратились из темы научной фантастики в объект серьезных военных разработок. Уж очень привлекательной кажется перспектива создания «мыслящих систем», способных заменить или дополнить высококвалифицированных, хорошо оплачиваемых специалистов. Действительно, в наши дни трудно представить себе научную конференцию по вопросам обучения, памяти и их компьютерных моделей, на которой не ощущалось бы военное присутствие США в лице представителей военно-морского флота, военно-воздушных сил или ведомства, известного под зловещим акронимом ОАПНП (Оборонное агентство приоритетных научных проектов).
Качественная новизна компьютерной техники была очевидна с самого начала. Разумеется, и раньше существовали электромеханические счетные машины и подобные им аппараты. Но компьютеры общего назначения представляли собой нечто большее, чем быстродействующие счетные устройства и хранилища информации: они могли сравнивать и преобразовывать информацию, манипулировать ею, что делало возможным создание принципиально новых технологических процессов и инструментов и даже постановку любых мыслимых научных проблем, касающихся познания Вселенной. На протяжении последних двух десятилетий компьютеры постепенно, но во все нарастающем темпе изменяют способы, которыми мы познаем мир и воздействуем на него. Не удивительно, что столь велик идеологический резонанс компьютеризации. Перед создателями компьютерной техники с самого начала во весь рост встала проблема взаимоотношения между компьютером и мозгом. Это нашло отражение даже в их языке. Так, цифровая ЭВМ фон Неймана состояла из центрального процессора, выполнявшего арифметические и логические операции, и блока хранения информации, которые был тут же наречен его конструкторами памятью.
Компьютерная память - это система чипов (силиконовых плат с впечатанными транзисторами), хранящая информацию в форме двоичного кода, где каждая единица информации представлена одним из двух состояний (О, 1). Такая конструкция, разумеется, предполагает, что все хранимое и обрабатываемое в компьютере должно быть сначала переведено в форму, доступную для представления в цифровом двоичном выражении, как некоторое число битов (бинарных единиц) информации. Слово «информация» имеет здесь технический, даже технологический, а не повседневный смысл (об этом речь пойдет позже). Заслуживает внимания и то обстоятельство, что в названии «компьютерная память» неявно подразумевается, что операции, с помощью которых компьютер хранит или обрабатывает бинарные единицы, аналогичны процессам, происходящим в нашей, человеческой памяти.
На первый взгляд это сходство кажется весьма обнадеживающим. Разве эта языковая система не описывает физический, неодушевленный механизм по аналогии с биологической системой? А неудача попыток такого описания - разве не то, о чем я сожалел, говоря о картезианских представлениях XVII века? Увы, нет. В дальнейшем станет понятно, что практический и идеологический потенциал техники превосходит возможности биологии, так что метафора инверсируется. Вместо биологизации компьютера мы сталкиваемся с настойчивыми утверждениями, что человеческая память - это всего лишь менее совершенный вариант компьютерной памяти, и если мы хотим понять, как работает наш мозг, нам следует больше сил отдавать исследованию и конструированию компьютеров.
Это отнюдь не заблуждение отдельных энтузиастов научной фантастики. Такая мысль с самого начала была центральной в программе создателей компьютеров и разделявших их взгляды философов. Сам Тьюринг обосновал ее в 1950 году, незадолго до самоубийства, с помощью одной из своих многочисленных логических игр. Предположим, что вы связаны через телетайп с другим телетайпом, находящимся в соседней комнате. Этот второй телетайп может контролироваться либо оператором, либо машиной. Как определить, кто поддерживает с вами связь: человек или машина? Очевидно, что машина должна быть достаточно умна, чтобы имитировать возможные ошибки человека, а не демонстрировать безупречное выполнение задач, с которыми машины справляются лучше человека (быстроту и точность вычислений). В то же время машина должна не хуже человека делать то, что последний выполняет безукоризненно, а в случае неудачи должна достаточно правдоподобно лгать, чтобы оправдать ее. В этом суть так называемого теста Тьюринга, который верил, что «через 50 лет» можно будет таким образом запрограммировать компьютер, чтобы у него были все шансы выдержать подобное испытание [16].
Для поколений, которые после 1950 года искали пути создания машины, отвечающей условиям Тьюринга, это стало поиском священного Грааля или поисками искусственного интеллекта, как они скромно называли свою работу. Но как решить эту задачу? С самого начала обозначились два совершенно разных подхода, которые можно грубо определить как редукционистский и холистический. Вспоминая то время и имея все преимущества ретроспективного взгляда, один из пионеров и провозвестников холистического подхода описывает события в стиле сказочного повествования:
В один прекрасный день у новой науки кибернетики родились две дочери. Одна дочь была настоящая, она унаследовала черты науки о мозге, черты истинно природные. Другая дочь поддельная, она была плодом начавшегося использования компьютеров. Обе сестры старались построить модели разума, но из разного материала. Настоящая сестра строила модели (названные нервными сетями) из математически идеализированных нейронов. Другая создавала свои модели из компьютерных программ.
В цветущей юности обе имели успех, за обеими одинаково ухаживали представители других отраслей знания, и они прекрасно уживались вместе. Отношения изменились в начале шестидесятых годов, когда появился новый король с такой казной, какую никогда раньше не видели в королевстве наук. То был король ОАПНП... В поддельной сестре проснулась ревность, и она присвоила себе одной право доступа к деньгам ОАПНП. А настоящей сестре предстояло умереть.
Палачами вызвались быть два верных друга поддельной сестры:
Марвин Минский и Сеймур Пейперт, которым досталась роль охотников, отправленных, чтобы убить Белоснежку и в качестве подтверждения принести ее сердце. Их орудием был не кинжал, а искусное перо, с которого сошла книга под названием «Персептроны»; цель ее состояла в том, чтобы доказать, что создатели нервных сетей никогда не смогут выполнить свое обещание построить модель разума: это смогут сделать только компьютерные программы. Казалось, победа обеспечена... [17].
Разумеется, сказка Сеймура и Пейперта кончается торжеством холистики, хотя теперь многие из создателей искусственного интеллекта не разделяют его оптимизма. Как будет ясно, я считаю сказочную метафору Пейперта такой же неудачной, как и его метафоры памяти и разума. Ни ту, ни другую сестру нельзя сравнивать с Золушкой или хотя бы с Прекрасным Принцем. Оба подхода к моделированию нельзя признать правомерными, если их задача - поиски структурных метафор работы реального мозга и реальной памяти. Тем не менее стоит более внимательно присмотреться к притязаниям обеих сторон.
Как правильно пишет Пейперт, одна группа разработчиков моделей, которых я называю редукционистами, утверждает, что для создания искусственного интеллекта надо с помощью компьютера имитировать известные свойства мозга. Функциональными единицами мозга они считают нервные клетки, или нейроны; сети из этих нейронов хранят, обрабатывают и преобразуют информацию. Задача состояла в том, чтобы создавать математические модели функции нейронов, объединять их в сеть и выяснять, к каким результатам приводят разные способы соединения клеток, в том числе и такие, при которых сети могли бы изменять свои свойства и функции в результате приобретаемого опыта, т. е. «обучаться» и «запоминать». Впервые такую имитацию осуществил Франк Розенблатт в середине 50-х годов с помощью модельной системы «Персептрон». Персептроны были триумфом компьютерного моделирования, однако скоро стало ясно, что они далеко не адекватно отображают функцию реальных нейронов мозга. Хотя они, по-видимому, могли обучаться, т. е. изменять свойства в ответ на введение новой информации (например, узнавать и классифицировать простые рисунки), они были совершенно неспособны решать более сложные задачи, хотя бы отдаленно напоминавшие реальные жизненные ситуации.
Непреодолимые трудности, с которыми столкнулось моделирование нейронов, и теоретические ограничения, выявленные Пейпертом и Минским, привели к тому, что в 60-х и 70-х годах этот подход был практически оставлен. Именно в это время оценка будущих перспектив искусственного интеллекта, проведенная при финансовой поддержке британского правительства, показала, что они были сильно преувеличены, и объем таких работ был значительно сокращен [18].
Однако в конце 80-х годов интерес к этой области опять пробудился в связи с появлением совершенно новых возможностей. Компьютеры первых поколений были, по существу, последовательными процессорами, т. е. в каждый данный момент осуществляли только одну операцию; переработка информации носила линейный характер, хотя и шла с невероятно большой скоростью. Однако сам принцип линейных операций накладывал ограничение на скорость работы машины, так как сигналы из одной части компьютера в другую не могут передаваться быстрее, чем со скоростью света. Этот предел получил название ограничения фон Неймана. Когда новые поколения супермашин приблизились вплотную к этому пределу, разработчики компьютерных моделей обратили, наконец, внимание на то, что настоящий мозг работает совсем иначе. Он производит множество операций одновременно, причем в осуществлении какой-то одной функции участвуют разные части нейронной сети, а каждая отдельная клетка может выполнять разные функции. Ограничение, накладываемое скоростью передачи сигналов, можно бьию бы преодолеть, если бы удалось создать компьютеры, более сходные с мозгом, т. е. способные осуществлять различные операции не только последовательно, но и параллельно.
Результатом был взрыв интереса к новым конструктивным решениям, основанным на принципе параллельной и распределенной обработки информации (ПРО). Появилось новое перспективное поколение машин, заинтересовавшее и военных, и промышленность, и разработчиков искусственного интеллекта, хотя, разумеется, только два первых члена этой триады несли расходы по их созданию. Вот один из показателей масштабов этого интереса: в конце 80-х годов Директорат Европейского сообщества по научным исследованиям посчитал, что Европа отстает от США и Японии в эксплуатации этих новых систем, и выделил 50 млн. экю (около 50 млн. долларов США) на работы по моделированию нервной функции на основе ПРО. Когда в 1986 году Дэвид Румелхарт и Джеймс Клелланд с их коллегами из Массачусетского технологического института выпустили большой двухтомник статей по перспективам применения ПРО для моделирования мозга, в день поступления его в продажу, говорят, было продано 6000 экземпляров [19].
Новый подход к моделированию известен под названием «коннекционизма». Подобно прежнему подходу, он основан на предположении, что мозг состоит из ансамблей нейронов с многочисленными связями между ними. Надлежащим образом' соединенные группы нейронов могут обучаться таким образом, что они будут сортировать и классифицировать входные сигналы и постепенно изменять свои свойства по мере поступления новой информации. Однако в отличие от моделей прежнего, персептронного типа каждый элемент «памяти» не заключен здесь в одной-единственной клетке или паре связанных клеток: вместо этого функция памяти является свойством нейронной сети как целого. Кроме того, если в персептронных моделях отдельные функциональные единицы сети должны были получать сигналы прямо из внешнего мира и соответственно изменять свои свойства, то в новых коннекционистских моделях нейронные сети более сложны - они включают слои «клеток», расположенных между входными и выходными элементами (разработчики называют их «скрытыми слоями»). Это резко повышает эффективность системы. Первые поколения моделей искусственного интеллекта были организованы таким образом, будто мозг - это простой телефонный коммутатор с прямыми связями между органами чувств, например глазами и ушами, и исполнительными органами, такими как мышцы. Эти модели фактически игнорировали тот факт, что большинство нейронов в достаточно сложном мозгу не связано непосредственно с внешним миром через сенсорные входы и двигательные выходы; такие нейроны соединены лишь между собой: они получают сигналы от других нейронов и отвечают на них. Иными словами, обычно происходит сложнейшая внутренняя переработка любых поступающих извне сообщений при участии промежуточных нейронов, и только после этого могут приниматься решения о внешних реакциях. «Скрытые слои» в моделях ПРО действуют наподобие промежуточных нейронов, и это намного повышает способность системы к обучению, обобщению и прогнозированию.
Коннекционистские модели привлекательны для промышленности и военных тем, что позволяют преодолеть прежние ограничения эффективности компьютерных систем. Но не меньший взрыв энтузиазма они вызвали и среди нейробиологов, многие из которых считают, что наконец получили модель, весьма сходную с мозгом или хотя бы с какими-то его отделами. В последние три года множество новых научных журналов публикует сообщения о моделях нейронных сетей, претендующих на объяснение различных аспектов работы мозга. Командиры и идеологи этой Армии Моделей беспрерывно кружат по всему свету, переезжая с одних авторитетных конференций и семинаров на другие и едва успевая заглянуть в собственные кабинеты и лаборатории, чтобы собрать новейшие данные и снова мчаться в аэропорт.
К ним начинают прислушиваться даже философы. Одной из книг, популярных сре^и нейробиологов, вообще-то не склонных к чтению философских трудов, стала недавно вышедшая «Нейрофилософия» Патриции Чёрчленд из Калифорнии [20]. Автор рассматривает традиционные философские проблемы сознания и сопоставляет их с данными современной нейробиологии, а затем приходит к выводу, что в ней властвует редукционизм. По мнению Чёрчленд, спасение - в коннекционистских идеях. Вслед за книгой она опубликовала в солиднейшем журнале «Science» пару статей в соавторстве с нейробиологом Терренсом Сейновским из Сан-Диего, где рассмотрены перспективы науки, которую они называют вычислительной нейробиологией [21]; теперь это название в свою очередь попадает в заголовки других книг и журналов. Тот факт, что философы, создатели моделей и нейробиологи начали прислушиваться друг к другу и что компьютерщики наконец-то стали с известным уважением относиться не только к искусственному, но и к природному мозгу, делает их анализы более обоснованными. Раньше энтузиасты искусственного интеллекта подходили к функции нервных клеток с предвзятым мнением и в результате очень скоро теряли всякое представление о реальных биологических явлениях, изучаемых нейробиологами. Однако восторженный прием, оказанный нейробиологами книге Чёрчленд, объясняется, на мой взгляд, тем, что она не оспаривает наши представления, а скорее демонстрирует довольно некритичное почтение к ним. В результате ее книга выглядит льстивым зеркалом, в котором нам дают увидеть себя в весьма привлекательном виде1. И дело не только в том, что в отражении мы не видим мелких дефектов своей кожи. Сама наша поза, по-редукционистски неудобная, выглядит позой голливудского героя. Тем не менее недостатки коннекционистской нейробиологии и порожденной ею философии очевидны и, я полагаю, в конце концов приведут к их краху по причинам, которые я постараюсь объяснить в дальнейшем.
Пока же вернемся ко второй из двух сестер в сказке Пейперта - «поддельной», или «холистической». При холистическом подходе не делалось попыток моделировать мозг - все внимание было сосредоточено на моделировании разума. Иными словами, разработчики старались понять те явления, которые они принимали за функции сознания, такие как «верование, слушание, наблюдение, ощущение, поиск, объяснение, требование, просьба...» (я привожу этот эклектичный, но очень характерный набор процессов из последней книги Минского «Общество разума» [22]). Затем они пытались моделировать логику этих процессов независимо от того, насколько создаваемые модели можно было уподобить настоящему мозгу. Важно было лишь то, чтобы модели «работали». Иными словами, они должны были давать на выходе такой результат, какой, по мнению разработчиков, давал бы человеческий мозг, если бы он выполнял те функции, которые они хотели воспроизвести в своих моделях.
1 И все же многие неиробиологи чувствуют себя не очень уютно, читая у Чёрчленд о редукционизме. Это обнаружилось пару лет назад на одной из конференций в Швейцарии, так любимых нейробиологами, где была возможность покататься на горных лыжах. Участники проводили в первой половине дня научные заседания, а до того и после того занимались делом, т. е. выходили на склон и вечером оставались там, пока не стемнеет или пока не иссякнут силы. Такое времяпровождение, вероятно, лучше всего попадает под хорошо известное определение «досуг после теоретизирования». Темой конференции были «взаимоотношения между нейроанатомией и психологией», а открывать дискуссию должна была Чёрчленд. Она взошла на редукционистскую кафедру и стала проповедовать грядущее сведение психологии к нейроанатомии, ожидая, по-видимому, лишь легкой критики со стороны группы нейробиологов. К своему удивлению, она столкнулась с сильной оппозицией большинства присутствующих, особенно из лагеря нейроанатомов!
Чтобы лучше понять разницу между двумя подходами, представьте себе, например, человека, стреляющего в тире по движущимся металлическим уткам. Приверженец коннекционистских моделей с параллельной обработкой информации спросил бы: как должны быть связаны нейроны, чтобы подвижные изображения передавались через сетчатку глаза в надлежащие области мозга («скрытые слои»), и как должны при этом изменяться их свойства, чтобы они могли «научиться» вызывать соответствующие моторные реакции? Сторонник холистического подхода поставил бы вопрос иначе: как можно построить такой сервомеханизм, который получал бы информацию о положении и движении уток и соответственно управлял движениями стрелка? Будут ли. выходные реакции такого механизма сходны с реакциями человека, решающего ту же задачу? И если не будут, то почему?
На протяжении почти всей сорокалетней истории искусственного интеллекта преобладал второй из этих подходов. Однако, развивая его, разработчики совсем перестали думать о том, как работает настоящий мыслящий мозг. Вместо этого они сосредоточили внимание на решении проблем, связанных с конструированием силиконовых элементов компьютера и с разработкой математической логики. Это могло приводить к созданию более сложных и эффективных машин, но не имело никакого отношения к биологическим системам, которые вначале предполагалось моделировать. Общее мнение сторонников такого подхода откровенно выразила Маргарет Боден - философ из Суссекского университета - такими словами: «Чтобы быть мозговитым, мозги не нужны» [23].
Порочная метафора
К чему бы ни призывали разработчики моделей того или иного типа, я считаю, что оба подхода порочны в своей основе, если задача состоит в том, чтобы понять, как работают природный мозг и природный разум (или даже память). Отсюда и провал всех прежних предсказаний о возможных сроках создания искусственного интеллекта и появления компьютеров, подобных мозгу: наиболее оптимистичные последователи Винера в пятидесятых годах уверенно ожидали этого к концу шестидесятых, потом откладывали до семидесятых, восьмидесятых, а затем и на начало третьего тысячелетия. Но время шло, на смену персептронам приходили новые модели и программы и так же исчезали.
Недавно с критикой методологии и перспектив разработки искусственного интеллекта выступили три автора - философ, математик и иммунолог. Я кратко изложу их доводы, прежде чем перейду к моим собственным проблемам, связанным с вычислительной аналогией.
Первым идет философ Джон Сирл, который для аргументации своих взглядов ставит тест Тьюринга как бы с ног на голову. Представьте себе, что в закрытой комнате находится человек, который не знает китайского языка, но через машину получает вопросы, написанные по-китайски. В его распоряжении имеется код, позволяющий сопоставлять китайские иероглифы с другим набором текстов, содержащим ответы на задаваемые вопросы. Эти ответы можно передавать, опять-таки с помощью машины, за пределы комнаты. Находящимся снаружи наблюдателям будет ясно, что на заданные по-китайски вопросы поступают осмысленные ответы на том же языке; таким образом, тот, кто находится в комнате, выдержит тест Тьюринга. Но из этого никак не следует, что он понимал содержание посланий, поступавших в комнату и выходивших из нее, и отвечал на них сознательно и разумно: на самом деле он выполнял чисто автоматические операции. Именно это, говорит Сирл, делают компьютеры, и потому нет оснований считать их разумными и сознательными устройствами [24].
Второй автор - оксфордский математик Роджер Пенроуз, чья недавно вышедшая книга «Новый ум императора» содержит последовательную критику принципов коннещионизма [25]. Точка зрения Пенроуза по сути очень проста: для того чтобы эти принципы работали, в нейронной сети между клетками должны существовать достаточно стабильные, фиксированные отношения, которые могут изменяться лишь в ответ на специфические входные сигналы, после чего система должна реагировать детерминированным образом. По мнению Пенроуза, против этого говорят современные физические и математические представления. Квантовые механизмы, по его утверждению, обусловливают изначальную недепгерминированность нервных реакций; что касается математики, то ставшая весьма модной теория хаоса показывает, как недетерминированные системы могут тем не менее действовать вполне упорядоченным образом (например, случайное хаотическое движение молекул газа в сосуде приводит в целом к точной и предсказуемой зависимости между температурой, давлением и объемом, которую описывает простой газовый закон Бойля).
Таким образом, по мнению Пенроуза, стратегия редукционизма не выдерживает критики по двум взаимосвязанным причинам. Во-первых, недетерминированность на уровне нейронов и синаптических связей между ними означает, что мы никогда не сможем понять работу мозга и разума путем простого анализа составляющих компонентов, реакции которых непредсказуемы по самой своей природе. Во-вторых, эта неопределенность на уровне отдельных компонентов может, однако, обеспечивать предсказуемость на уровне всей системы. Поэтому сознание, разум, память возникают как свойства мозга в целом, а не как свойства его отдельных элементов.
Третьим критиком искусственного интеллекта и лежащих в его основе методов обработки информации выступает лауреат Нобелевской премии, иммунолог и теоретик из Рокфеллеровского университета Джералд Эделмен. В своем недавно вышедшем трехтомном труде [26] он пытается решить необычайно смелую задачу - создать общие теории биологии развития, нервной организации и сознания на основе аналогии, почерпнутой не из физики или техники, а из эволюционной теории и прежде всего из собственного понимания дарвиновского естественного отбора. Кое в чем я согласен с критикой Эделмена, хотя и не поддерживаю его в выборе аналогии; однако более подробное обсуждение этого вопроса требует дополнительных биологических сведений, которьгх я еще не дал читателю, и поэтому я откладываю его до последней главы. Сейчас я хотел бы поговорить о том, почему меня не удовлетворяет сравнение мозга, разума и памяти с компьютером и его вычислительными функциями.
Эта аналогия, столь завораживающая многих, всегда воспринималась с подозрением биологически мыслящими представителями нейронаук по причинам как структурного, так и организационного порядка. В структурном отношении платы с транзисторами, системы «и/или», логические схемы и другие элементы компьютеров совсем не похожи на аналогичные механизмы нейронов, если последние вообще можно рассматривать как единицы обмена информацией в пределах нервной системы. Функциональные единицы компьютеров детерминированы, имеют малое число входов и выходов, а процессы, осуществляемые ими с такой поразительной правильностью, протекают последовательно и свободны от ошибок. Элементы ЭВМ хранят и обрабатывают информацию по заданному заранее набору правил. Одно из следствий этого - то, что создатели компьютерных моделей мозга настойчиво пытаются конкретным образом воплотить отдельные типы процессов, в которых участвует разум или мозг. В частности, сама концепция «искусственного интеллекта» подразумевает, что разумность есть просто свойство самой машины (я бы сказал, что такая материализация равно неприемлема и в отношении компьютеров, и в отношении мозга).
Сравнение мозга с компьютером несостоятельно, так как системы нейронов, образующие мозг, в отличие от компьютерных систем в высокой степени недетерминированы. В этом утверждении я иду даже дальше Пенроуза, поскольку я хочу подчеркнуть, что нельзя рассматривать мозг и его обладателей - прежде всего человеческий мозг и самого человека - как закрытые системы вроде молекул газа в запаянном сосуде. Совсем наоборот, это открытые системы, сформированные собственной историей и находящиеся в непрерывном взаимодействии с природным и общественным окружением, которое изменяет их, но и само при этом подвергается изменению. Такая открытость обусловливает еще один уровень неопределенности в работе мозга и поведении его владельца. В отличие от компьютеров мозг не функционирует безошибочно и действие его не ограничено последовательной обработкой информации; его организацию нельзя даже свести к небольшому числу «скрытых слоев». Каждый из нейронов центральной нервной системы имеет тысячи входов (синапсов), различных по значимости и по месту, откуда к ним приходят сигналы. (В мозгу человека имеется, по-видимому, до 1014-1015 синапсов, так что у каждого из нас в сотню тысяч раз больше межнейронных связей, чем людей, живущих сейчас на Земле!) Мозг отличается большой пластичностью, т. е. способностью изменять свою структуру, химию, физиологию и выходные реакции в результате приобретения опыта и случайных обстоятельств в процессе развития. В то же время он обладает большим запасом надежности и может весьма эффективно восстанавливать свои функции после травмы или инсульта.
Последовательные операции мозг выполняет относительно медленно, зато процессы формирования суждений происходят в нем с необыкновенной легкостью, которая ставит в тупик разработчиков компьютерных моделей.
Рассмотрим простой эксперимент: человеку быстро показывают четыре цифры и просят его запомнить их, а потом назвать. Почти каждый легко справится с этой задачей. Но если число цифр увеличить до семи-восьми, это станет не по силам большинству испытуемых, особенно в том случае, если интервал между предъявлением цифр и просьбой вспомнить их будет увеличен с нескольких минут до часу и более. Максимальную способность человека запоминать ряды случайных цифр можно довольно просто рассчитать и выразить в битах, как описано ниже для последовательности из восьми цифр: - сначала подсчитывают биты для самих чисел:
8-log2l0=8-3,32=26,56;
- затем, поскольку цифры должны стоять в определенном порядке, нужно рассчитать информацию об этом порядке, которую можно выразить как log28!= 15,30.
В общей сложности получается всего лишь 41,86 бит, и тут оказывается, что емкость нашей памяти недостаточна, чтобы справиться с таким объемом! Теперь сравните эту величину с числом битов, на которое рассчитана память простого карманного калькулятора: примерно одна тысяча. А десятисантиметровый мягкий диск двойной плотности, вставленный в мой любимый «Эппл Мэк», на котором я печатаю эти фразы, способен хранить в своей памяти более 10 млн. бит информации.
В чем же действительный смысл такого подсчета? Джон Гриффит, математик из Кембриджа [27], однажды прикинул, что если бы человек непрерывно запоминал информацию со скоростью 1 бит в секунду на протяжении 70 лет жизни, то в его памяти накопилось бы 1014 бит, что приблизительно эквивалентно количеству информации, заключенному в Британской энциклопедии или в 10 000 мягких дисков; это почти столько же, сколько вмещает жесткий диск в моем компьютере. Весьма впечатляющая цифра для микро-ЭВМ, но на удивление скромная для функционирующего мозга.
Неужели объем человеческой памяти действительно меньше, чем у микрокомпьютера? Очевидно, что-то не в порядке со всеми этими расчетами. Что бы это могло быть? А вот и подсказка: хотя я не способен запомнить больше восьми цифр, вспыхивающих передо мной на экране, я однажды продемонстрировал слушателям возможности человеческой памяти, сначала показав гораздо более длинный ряд из 48 цифр, а затем повернувшись к экрану спиной и правильно назвав их:
524719382793633521255440908653225141355600362629.
Как мне удалось это, если я не выдержал испытания даже восемью цифрами? Очень просто. Этот длинный перечень был не случайным набором цифр, а последовательностью дат дней рождения, телефонных номеров и других цифровых кодов, которыми я постоянно пользуюсь и потому помню. Но я помню их не так, как компьютер безошибочно помнит цифровую информацию, и не храню их в своей памяти как непрерывную последовательность. В отличие от компьютерной человеческая память постоянно ошибается и пользуется множеством особых приемов, чтобы сохранить информацию. Для меня эта особенная, уникальная последовательность цифр имеет смысл, и он известен только мне. Этим я отличаюсь от компьютера и от того переводчика с китайского, который сидит в комнате Сирла. Я вспоминаю цифры именно по их смыслу, а не по простой последовательности. Более того, я настаиваю, что смысл, значение не синонимичны информации. Смысл подразумевает динамическое взаимодействие между мною и цифрами, это процесс, который несводим к количеству информации.
Другой пример. Вчера за обедом мне принесли меню с большим выбором блюд. Я просмотрел его, выбрал кое-что и съел. Я и сегодня помню, что обед состоял из капустного супа и отварной лососины. Информация, содержавшаяся в печатном тексте меню, преобразовалась в воспоминание об испытанных ранее вкусовых ощущениях, затем в устный заказ официанту и, наконец, в восприятие реальной пищи и ее нынешнего вкуса. Теперь, когда я рассказываю вам, что ел капустный суп и лососину, я не предлагаю вам ни меню, ни саму пищу, еще меньше я предполагаю, что вы отведаете ее; вместо этого я продолжаю трансформировать мой вчерашний опыт, переводя его в слова [28]. В каждом звене этой последовательности происходит не просто переключение с одного способа представления информации на другой, а определенная работа с этой информацией, которая приводит к ее необратимому преобразованию (я не говорю уже о работе, которую проделывает любой слушатель или читатель этого описания в ходе дальнейшей трансформации полученных сведений и интерпретации приведенных мною данных).
Таким образом, мозг работает не с информацией в компьютерном понимании этого слова, а со смыслом, или значением. А значение - это исторически формируемое понятие, оно находит выражение в процессе взаимодействия индивидуума с природной и социальной средой. Одна из трудностей изучения памяти состоит в том,, что приходится иметь дело с диалектическим феноменом. Вспоминая, мы всегда выполняем над воспоминанием какую-то работу и трансформируем его. Мы не просто извлекаем образы из хранилища и, использовав, возвращаем обратно в прежнем виде, а каждый раз пересоздаем заново. В заключительной главе мне придется более обстоятельно поговорить об этой работе по пересозданию следов памяти.
Моя критика до сих пор касалась моделей коннекционистского типа, однако сходные аргументы могут относиться и к холистическому подходу. Достаточно вспомнить контраст между относительной легкостью, с какой программисты смогли научить машины играть в шахматы на гроссмейстерском уровне, и трудностями, с которыми они столкнулись при создании робота, способного водружать оранжевую пирамиду на синий куб. И для сравнения посмотрите, как точно нетренированный человек бросает апельсиновую кожуру в мусорную корзину с расстояния в несколько метров от нее или, например, как легко обучается игре в покер. Конечно, можно создать программу для расчета вероятности взятки при выпадении карты в масть к трем уже имеющимся; но в покере мы, кроме того, имеем дело с чем-то вроде психологического соревнования, с необходимостью перехитрить соперника, что требует оценки моментов, не поддающихся рациональному познанию; а с такой оценкой, я уверен, не сможет хорошо справиться никакая машина. Можно еще получить какое-то удовольствие, играя с компьютером в шахматы, но при игре в покер против программы это исключено. Может быть, надо заменить тест Тьюринга или Сирла покерным тестом?