Поиск искусственного интеллекта, который способен поддерживать разговор просто по-дружески, оказался очень уж долгим. Когда отец современных вычислительных систем Алан Тьюринг, представил свой знаменитый тест, который должен был показать у компьютерной программы истинный разум, он поставил для железок очень амбициозную цель. Если бы компьютер мог убедить группу судей-людей, что они разговаривают с человеком – если бы он умел поддерживать разговор – это бы свидетельствовало о наличии искусственного интеллекта, который до такой степени развился, что стал совсем неотличим от человеческого.

Эта перчатка была брошена в 1950 году. До настоящего времени ни одна компьютерная программа не смогла пройти тест Тьюринга. Отдельные лжеподвиги – не в счет.

Почему лжеподвиги? Потому что их считают не достижениями, а скорее провалами. К примеру, еще в 1966 году Джозеф Вайзенбаум, когда компьютеры программировались с помощью больших перфокарт, разработал программное обеспечение для обработки естественной речи под названием ELIZA. «Элиза» была машиной, которая должна была, притворяясь психотерапевтом поддерживать разговор; с ней можно и сегодня поговорить.

Разговаривать с «Элизой» немножко странно. Она постоянно перефразирует то, что вы сказали, так что, для примера, если вы скажете «я себя чувствую подавленным», она может ответить: «Ты ко мне пришел, так как чувствуешь себя подавленным?». Когда ей не понятно, что вы говорите, она говорит в ответ что-то вроде «расскажи мне больше»или «да уж».

В самом начале диалога, и особенно если вы к ней относитесь, как к своему лечащему врачу, «Элиза» может быть очень убедительной. Когда Вайзенбаум заметил это, его это немного встревожило: люди в алгоритме человека были готовы увидеть больше, чем в нем было человечного. Очень скоро некоторые испытуемые все же осознали, что в данном случае они взаимодействуют с машиной, они ей открывали свои секреты и глубокие переживания. Они изливали машине свою душу. Когда с «Элизой»поговорила секретарь Вайзенбаума, хотя она и знала, что разговаривает  с программой, она все равно захотела, чтобы Вайзенбаум вышел из комнаты.

Часть той неожиданной реакции, которую ELIZA вызывала, может быть вызвана тем, что для людей легче открываться машине, зная, что никто их не станет осуждать, даже если машина не сможет вообще ничего связанного сказать или помочь чем-то. Эффект Элизы назвали именно в честь этой компьютерной программы: людям свойственно думать о машинах как о людях и наделять их человеческими чертами.

Сам Вайзенбаум, который стал впоследствии относиться очень подозрительно к влиянию искусственного интеллекта и компьютеров на человеческую жизнь, был очень удивлен, что люди были готовы поверить, что его скрипт был человеком. «Я и не мог подумать, что очень короткое знакомство с обычной компьютерной программой приведет у вполне нормальных людейк настолько бредовому мышлению».

Эффект Элизы мог встревожить Вайзенбаума, но он на протяжении десятилетий интриговал и очаровывал других. Может быть, вы заметили его и на себе, разговаривая с искусственным интеллектом вроде Google Assistant или SiriиAlexa— эти коротенькие ответы кажутся очень уж реальными. В здравом рассудке вы точно знаете, что разговариваете просто с огромным куском кода, который хранится где-то в эфире. Но вам подсознательно кажется, что вы общаетесь с настоящим живым человеком.

Дальше — больше. Facebook открыла свою программу Messenger и предоставила программное обеспечение людям и компаниям, чтобы те могли создавать собственных чатботов. Обработка естественной речи продвигалась с 1960-х годов скачком и ползком. В настоящий момент вы можете найти приветливых чатботов вроде Мицуку, которая выиграла недавно приз Лёбнера, которым награждают машины, вот-вот готовые решить тест Тьюринга. Она будет отвечать на все, что вы ей напишете. Идея простая: если уже есть приложение для заказа пиццы, почему бы не заказать пиццу, попросив, к примеру, чатбота, словно старого друга?

Стартапы такие как SemanticMachines надеются, что их виртуальные ассистенты сумеют взаимодействовать с вами, будто секретари, при этом имея возможность добывать информацию из Интернета. Вскоре они будут всюду.

Но люди, которые делают чатботов — как с социальной, так и с коммерческой жилкой, — часто сталкиваются с общей проблемой: люди, возможно, подсознательно, принимают чатботов для людей и расстраиваются, когда те не могут поддерживать нормальную беседу. Разочарование с недопониманием часто связывают с завышенными изначальными ожиданиями.

До сих пор ни одна машина не смогла научиться понимать контекст — учитывать, что было сказано ранее, ссылаться на это и отвечать, основываясь на текущем положении диалога. Даже Мицуку часто будет пытаться вспомнить тему разговора уже через пару строчек диалога.

Это понятно. Разговор может быть многогранным и сложным. На все, что вы говорите, могут быть сотни ответов, которые будут иметь смысл. Когда же вы создаете дополнительные слои разговора, эти факторы множатся, умножая и всевозможные вариации диалога. Это сложнее, чем игра в шахматы или го.

Но это не мешает людям пытаться создавать новых чатботов. Совсем недавно Amazon запустил конкурс AlexaPrize, в рамках которого победителю среди искусственных интеллектов будет присужден приз в 500 000 долларов и еще миллион долларов сверху, если команда разработчиков сможет создать «социального бота», который способен в течение двадцати минут поддерживать разговор на разнообразные темыс человеческими пользователями.

Среди обозначенных тем —политика, наука и техника, спорт и сплетни о знаменитостях. Недавно анонсировали финалистов: чатботы из университетов в Праге, Эдинбурге и Сиэтле. Финалисты были выбраны в соответствии с рейтингами пользователей Alexa.

Сузив область разговора к определенному кругу тем, чатбот начинает искусно обходить проблему контекста. Гораздо проще моделировать разговор, который касается ограниченных определенной областью тем.

Разработка машины, которая может поддержать практически любой разговор с собеседником в лице человека, может быть сложной. Вероятно, она потребует общего искусственного интеллекта для полноценного решения, нежели используемых ранее подходов с записанными ответами или нейронными сетями, которые ассоциируют вводные данные с ответами.

Но машина, которая станет вести содержательный диалог и которой люди смогут наслаждаться, обязательно будет. Эффект Элизы означает, что мы доверимся машинам раньше, чем думали.