Проблема искусственного интеллекта - прогнозы трасгуманизма

Трансгуманизм - философское учение, в основе которого лежит утверждение о том, что человек не является последним звеном эволюции. Он может совершенствоваться до бесконечности. Термин «трансгуманизм» в научный оборот ввел биолог Дж. Хаксли в 1957 году. В его трудах встречается и слово «трансгуманист» (Homo Sapiens Plus), человек совершенствующийся. В настоящее время существуют две международные организации трансгуманистов - Институт Экстропии и Всемирная Трансгуманистическая организация. Под их эгидой проводятся многочисленные научные конференции, издаются онлайновые журналы. Вместо термина «трансгуманист» сегодня чаще употребляют другой - «трансчеловек», т.е. «переходный», «промежуточный», человек на пути эволюции к «постчеловеку». «Постчеловек» - это потомок нынешнего человека, радикально модифицированный с помощью генной инженерии, различных нанотехнологий, нейрофармацептии, кибернетики и других научно-технологических средств. Особо подчеркивается, что человек будущего, «постчеловек» будет вооружен мощным искусственным интеллектом (ИИ), по сравнению с которым разум нынешнего человека покажется примитивной кибернетической игрушкой. Делается вывод, что со временем «постчеловек» вообще может утратить свое бренное белковое тело и станет жить в качестве информационной структуры в гигантских сверхбыстрых компьютерных сетях. Иначе, «постлюди» превратятся в «нелюдей», станут так называемыми трансхьюманами, универсальной кибернетической машиной.

В данной связи возникает по меньшей мере два принципиально важных вопроса: 1. Возможно ли создание ИИ, который будет не просто соизмерим с человеческим, но и многократно превзойдет его по всем функциональным параметрам? 2. Если возможно, то целесообразно ли создавать его?

Первые ЭВМ были «идиотски логичны» (А. Эйнштейн). Ни одного самостоятельного шага, не предусмотренного исходной программой, они сделать не могли. Нынешнее поколение компьютеров способно самообучаться (это уже продемонстрировала известная «мышь Шеннона»), по ходу своего функционирования менять алгоритм действий, исправлять ошибки, допущенные его создателем, воспроизводить не только себе подобных, но и более совершенные устройства, просчитывать различные варианты и принимать решение как на основе «черно-белой» (формальной), так и «серой» (вероятностной) логики.

Вместе с тем, человек даже с весьма средним IQ-коэффициентом может сегодня делать то, что не состоянии сделать самые совершенные процессоры: осознавать свое бытие, мыслить образно-ассоциативно, принимать интуитивные решения, фантазировать и др. Есть мнение, что такое принципиально не под силам ИИ. Ведь в переработке информации, получаемой человеком, участвует не только кора больших полушарий, но и подкорка, огромное количество молекул ДНК и РНК, триллионы иных клеток организма. Все это является результатом длительной биологической и социальной эволюции человека. Отсюда делается вывод, что для создания ИИ, который был бы функциональным эквивалентом человеческому, кибернетическая машина должна смоделировать, а по сути, повторить историю развития человеческой цивилизации. А это технически невыполнимо.

Но есть прогнозы и иного плана. Они связаны с возможностью создания наноразмерных ЭВМ (т.н. ассемблеров), способных работать на глубинных уровнях органической материи. Прогнозируется, что такие миникомпьютеры смогут синтезировать молекулы ДНК и РНК, а затем объединять их в ультрасложные белковые системы. Полученный таким способом биокомпьютер в состоянии преподнести самые неожиданные сюрпризы.

Дискуссии о возможности или невозможности создания мощного, «всесторонне развитого» ИИ обычно проходят в теоретической плоскости. Нуждается ли, однако, социальная практика в универсальном искусственном разуме, который мог бы выполнять любые мыслительные операции, свойственные человеку, совмещая их на одном носителе? Аргументы тех, кто считает, что не нужен, выглядят достаточно убедительно. Принцип здесь таков: человеку - человеческое, творческое, машине - машинное, исполнительское. Человек при помощи своего нравственно окрашенного разума должен сам давать задания специализированной «мыслящей машине», которую следует расценивать всего лишь как усилитель отдельных функций человеческого интеллекта. Человек - хозяин любой ситуации, машина - его слуга. В противном случае человек может действительно превратиться в ненужный придаток кибергов и будет уничтожен ими из-за ненадобности. В лучшем случае, если повезет, они оставят нас при себе в качестве «домашних животных» (Р. Пенроуз).

Проблема безопасности «интеллектуальных машин» волнует человечество уже со времен К. Чапека, впервые употребившего термин «робот». О необходимости «обучения» ИИ технике безопасности при контакте с людьми хорошо сказал А. Азимов в своем «Терминаторе». Он сформулировал три известных закона роботехники, без выполнения которых искусственное интеллектуальное существо может превратиться в страшную деструктивную силу: 1. Робот не должен причинять вред человеку или своим бездействием допустить, чтобы такой вред был причинен. 2. Робот должен повиноваться командам, которые ему дает человек, кроме случаев, когда эти команды противоречат первому закону. 3. Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

Является большой проблемой, как подобные директивы можно реализовать при конструировании или самоконструировании ИИ. Не вызывает сомнения лишь одно: развитие ИИ, равно как науки и техники вообще, должно вписываться в постнеклассическую парадигму рациональности: необходимость рассмотрения любых научно-исследовательских и технико-технологических проектов через призму гуманности, нравственности, социальной и экологической целесообразности, и, конечно же, безопасности для человека и человечества.

Наши рекомендации