пригодной для использования форме без необходимости понимания усвоенных сведений. Тьюринг воображал проницательного и творческого (следовательно, разумного) агента, который ловко выстраивает ответы на основе проработанной «теории» того, что женщины якобы могут делать и говорить. Если коротко, перед нами интеллектуальное планирование по принципу сверху вниз. Разумеется, Тьюринг не предполагал, что мужчина, победивший в игре в подражание, каким-то образом действительно станет женщиной; он считал, что исход игры будет определять мужское сознание. Скрытая предпосылка аргументации Тьюринга была такова: лишь сознательный, разумный агент способен разрабатывать и реализовывать выигрышную стратегию в игре в подражание. Поэтому для Тьюринга (и для других, включая меня, по-прежнему стойкого защитника теста Тьюринга) было обоснованным утверждение, что «вычислительная машина», способная имитировать человека в состязании с человеком, может и не обладать сознанием в человеческом понимании, но она должна быть сознательным агентом хоть в какой-то степени. Думаю, данная позиция до сих пор достойна защиты (единственная из многих), но следует отдавать себе отчет в том, насколько изобретательным и проницательным придется быть посреднику, чтобы разоблачить поверхностность суждений ИИ, прошедшего глубинное обучение (инструмента, а не коллеги).
Тьюринг не предвидел сверхъестественной способности сверхбыстрых компьютеров бездумно просеивать большие данные, неиссякаемым источником которых служит интернет, обнаруживая вероятностные закономерности в человеческой деятельности и используя их для формирования базы «аутентичных» допустимых ответов на практически любой вопрос потенциального посредника в игре в подражание. Винер тоже недооценивал эту способность, отмечая очевидную слабость машин в том, что они не умеют учитывать
тот огромный диапазон вероятностей, который характерен для человеческих ситуаций.
Но принятие во внимание этого диапазона вероятностей – именно та область, где новый ИИ демонстрирует поразительные успехи. Единственной брешью в доспехах ИИ оказывается это слово «огромный»; человеческие возможности, благодаря языку и культуре, которую язык порождает, поистине огромны [51]. Сколько бы моделей и шаблонов мы с ИИ ни выявили в потоке данных, доступных на сегодняшний день в интернете, существует гораздо больше возможностей, которые в сети никогда не фиксировались. Лишь малая (но не исчезающе малая) часть накопленной в мире мудрости, замыслов, реакций и глупости попадает в интернет, но, вероятно, наилучшей тактикой для посредника-вопрошающего при беседе с участниками теста Тьюринга будет не искать ответы, а как бы создавать их заново. ИИ в своих нынешних проявлениях паразитирует на человеческом интеллекте. Он совершенно беззастенчиво пожирает все, что сотворили люди, и извлекает образцы, которые может отыскать, включая ряд наших самых пагубных привычек [52]. Машины не располагают (пока?) целями, стратегиями и возможностями для самокритики и инноваций, которые позволили бы им выходить за пределы собственных баз данных, осмысливать собственное мышление и собственное целеполагание. Они, как говорит Винер, безвредны не потому, что закованы в кандалы или ущербны как-то иначе, а потому, что вообще не являются агентами – лишены способности «руководствоваться причинами» (как выражался Кант), им открывающимися. Важно, чтобы мы сохраняли такое положение, и это потребует некоторых усилий.
Один из недостатков книги Вейценбаума «Мощность компьютеров и человеческий разум» (я многократно и тщетно пытался переубедить Джо), заключается в том, что автор так и не пришел к выводу, какой именно из двух тезисов он отстаивает: тот, что ИИ невозможен, или тот, что ИИ возможен, но это чревато проблемами. Он хотел доказать, заодно с Джоном Серлом и Роджером Пенроузом [53], что «сильный ИИ» невозможен, но в пользу этого утверждения не имеется веских доводов. В конце концов, нам известно всего-навсего, как я уже отмечал, что мы суть роботы, изготовленные из роботов, изготовленных из роботов – вплоть до моторных белков [54] и прочего, без каких-либо магических ингредиентов, добавляемых к этой смеси. Другое, более значимое и полезное замечание Вейценбаума сводится к тому, что мы не должны стремиться к созданию «сильного» ИИ и нам следует проявлять чрезвычайную осторожность в отношении тех систем ИИ, которые мы можем создать и которые уже создали. Как логично предположить, обоснованный тезис гибриден: ИИ («сильный» ИИ) возможен в принципе, но нежелателен. ИИ, который возможно создать на практике, не обязательно зло – если его не принимают за «сильный» ИИ!
Разрыв между реальными современными системами и фантастическими системами, доминирующими в воображении, все еще велик, хотя многие, равно любители и профессионалы, ухитряются его недооценивать. Возьмем, к примеру, Watson [55] компании «Ай-би-эм», на данный момент вполне достойную веху эволюции искусственного интеллекта. Это итог масштабного процесса НИОКР, охватывающего многие человекостолетия программирования, и, как отмечает Джордж Черч (см. далее), система использует в тысячи раз больше энергии, чем человеческий мозг (технологическое ограничение, которое, на что справедливо указывает Черч, может быть временным). Победа системы в викторине «Jeopardy!» стала настоящим триумфом, который обеспечили формальные ограничения правил игры, но, чтобы машина могла участвовать в игре, даже эти правила пришлось подкорректировать (один из обычных компромиссов: вы отказываетесь от толики универсальности и человечности, зато получаете привлекательное для зрителей шоу). Watson – не лучший собеседник, что бы ни утверждала реклама производителя, обещающая умение поддерживать разговор, и видеть в этой системе полноценного многомерного агента – все равно что уподоблять Watson ручному калькулятору. Она может служить полезным ядром такого агента, но больше похожа на мозжечок или миндалину, чем на человеческий мозг; в лучшем случае это подсистема специального назначения, которая может оказывать значительную поддержку, но совершенно не годится для постановки целей, составления планов и осознанного усвоения и воспроизведения разговорного опыта.
Зачем нам создавать мыслящего, творческого агента из системы Watson? Возможно, блестящая идея Тьюринга с операциональным тестом заманила нас в ловушку: мы желаем сотворить хотя бы иллюзию реального человека за ширмой, проводника через «пропасть». Опасность заключается в том, что с тех самых пор, как Тьюринг сформулировал свои условия (а ведь для него задача состояла в том, чтобы в итоге обмануть посредника), разработчики ИИ пытались перекинуть через эту «пропасть» мост из этаких почти невесомых, сугубо человеческих конструкций; налицо, если угодно, своего рода диснеефикация [56], очаровывающая и обезоруживающая непосвященных. Система ELIZA Вейценбаума была первым примером такого сотворения эфемерных иллюзий, и сам ее создатель поражался и смущался той легкости, с какой его смехотворно простая программа убеждала людей, будто она способна вести серьезный разговор (собственно, именно к этому он стремился).
Вейценбаум смущался не зря. Если мы и научились чему-то на ограниченном применении теста Тьюринга в состязаниях за премию Лебнера [57], то это пониманию того, что даже очень умные люди, незнакомые с возможностями и хитростями компьютерного программирования, легко попадаются на простейшие уловки. Отношение сообщества ИИ к этим методам анализа «человеческого интерфейса» варьируется от презрения