Что такое сознание? Может ли искусственная машина думать по-настоящему? Наш разум — это только нейроны мозга или он таит в своей основе некую «невидимую» искру? Для многих в ответах на эти жизненно важные вопросы кроется будущее искусственного интеллекта. Британский учёный-информатик Алан Тьюринг решил проигнорировать все эти вопросы, задав лишь один простой: «А может ли компьютер говорить, как человек?» Вопрос привёл к возникновению идеи измерения искусственного интеллекта, которая впоследствии стала известна как тест Тьюринга. В вышедшей в 1950 году статье «Вычислительные машины и мозг» Тьюринг предложил следующую игру: человек-судья вступает в переписку с невидимыми партнёрами и оценивает их ответы. Чтобы пройти тест, компьютер должен заменить кого-то из партнёров так, чтобы судья не заметил подмены. Другими словами, компьютер будет обладать интеллектом, если диалог с ним не будет отличаться от общения с человеком. Тьюринг предсказывал, что к 2000 году компьютеры, имеющие 100 мегабайт памяти, смогут легко пройти его тест. Однако он слишком опережал события. И хотя сегодня памяти у компьютеров намного больше, чем он думал, немногим удалось пройти тест, а те, кто добился хороших результатов, скорее, находили хитрые способы обмануть судей, а вовсе не задействовали мощь компьютеров. И пускай настоящий тест она не проходила, ELIZA стала первой программой, добившейся определённого успеха. Применяя довольно простой и короткий сценарий, программа смогла обмануть немало людей, подражая психотерапевту, позволяя людям больше говорить самим, а затем возвращая им их же вопросы. В ещё одном раннем сценарии PARRY применялся противоположный подход: программа выдавала себя за параноидального шизофреника, уводящего разговор к заранее заданным навязчивым идеям. То, как программы одурачили людей, выявило слабое место теста. Люди зачастую признают наличие интеллекта за многими вещами, которые интеллектом не обладают. Вместе с тем ежегодно проводятся конкурсы типа премии Лёбнера, сделавшие тест более формальным; так, судьи заранее знают, что кто-то из партнёров по разговору — компьютер. И хотя качество программ улучшилось, многие чат-боты применяют те же стратегии, что и ELIZA с PARRY. Победитель конкурса 1997 года Катрин могла вести на удивление внимательную и интеллектуальную беседу, но только если судья обсуждал с ней Билла Клинтона. А недавний победитель Евгений Густман выдавал себя за тринадцатилетнего подростка из Украины, поэтому судьи приписали несуразность речи и грамматические ошибки следствию языкового и культурного барьера. Однако другие программы, например, Cleverbot, пошли другим путём: анализируя статистику огромных баз данных реальных разговоров, они попробовали найти наиболее подходящие ответы. Некоторые способны были хранить данные о ранее проведённых беседах, чтобы постепенно улучшать качество разговора. И хотя отдельные ответы Cleverbot'а могут показаться на удивление «человеческими», отсутствие полноценной личности и неспособность переключаться на новые темы выдают программу с головой. Кто бы во времена Тьюринга мог предсказать, что сегодня компьютерам под силу пилотировать космический корабль, выполнять сложные операции, решать огромные уравнения, но они по-прежнему отчаянно пытаются обуздать простейший светский трёп? Человеческий язык оказался поразительно сложным явлением, охватить которое невозможно, обладая хоть самым большим словарём. Чат-ботов можно сбить с толку простейшими фразами типа «М-м» или вопросами, не имеющими правильных ответов. А простейшая фраза вроде: «Я достал сок из холодильника и налил ему, вот только дату забыл посмотреть» на самом деле тянет за собой целый груз фоновых знаний и интуитивных догадок. Оказывается, что для симуляции человеческого разговора нужно куда больше, нежели увеличить память и скорость обработки, и по мере приближения к цели Тьюринга, возможно, нам всё же понадобится найти ответы на все эти сложные вопросы о сознании.