Проблема определения задач искусственного интеллекта

Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный. Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? И вообще, нужно ли в принципе создание ИИ?

По-видимому, самым приемлемым ответом на эти вопросы является концепция «усилителя интеллекта» (УИ). Здесь уместна аналогия с президентом государства - он не обязан знать валентности ванадия или языка программирования Java для принятия решения о развитии ванадиевой промышленности. Каждый занимается своим делом - химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в промышленный шпионаж, страна получит 20%, а в ванадиевую промышленность - 30% годовых. При такой постановке вопроса любой человек сможет сделать правильный выбор.

В данном примере президент использует биологический УИ - группу специалистов с их белковыми мозгами. Но уже сейчас используются и неживые УИ - например мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует усилители силы (УС) - понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием УИ от УС является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный «Запорожец» взбунтовался, и стал ездить так, как ему хочется. Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, интеллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хотелось бы. Таким образом перед нами встает еще одна проблема - проблема безопасности.

Проблема безопасности

Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ». Первая группа отвечает на вопрос: «Что такое ИИ, возможно ли его создание?» На них я постаралась ответить в своей работе. И вторая группа (этика искусственного интеллекта) задаётся вопросом: «Каковы последствия создания ИИ для человечества?», которая приводит нас к проблеме безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин «робот». Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение - «Терминатор». Кстати именно у Айзека Азимова мы можем найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах роботехники.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

3. Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы.

Интересно, что будет подразумевать система ИИ под термином «вред» после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто…

Так что можно с уверенностью сказать, что опасения многих людей, в том числе и ученых, не беспочвенны. И определенно следует именно сейчас начинать продумывать эти вопросы, до того, как получится создать полноценный «машинный интеллект», чтобы обезопасить человечество от возможного вреда или даже истребления, как конкурирующей, в лучшем случае, или просто ненужной биологической разновидности.

Проблема выбора пути к созданию искусственного интеллекта

Тест Тьюринга

С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. В интернете можно найти и посмотреть историю турниров, узнать о правилах, призах и победителях. Пока ещё эти программы (боты) крайне малоразумны. Всё, что они делают - это применяют заранее подсказанные человеком правила. Осмыслить разговор боты даже не пытаются, в основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Например, внимательно следят, а не задаст ли судья один и тот же вопрос дважды? Человек в такой ситуации сказал бы что-то вроде: «Эй, ты уже спрашивал»! Значит, разработчик добавит боту правило тоже так поступать. В этом направлении представляется очень маловероятным, что появится первый ИИ.

Наши рекомендации