с событиями, имевшими место в авиации в первом десятилетии XX века. Принято считать, что первый аппарат тяжелее воздуха «Флайер-1» построили братья Орвилл и Уилбур Райт, он взлетел 17 декабря 1903 года, а уже к концу десятилетия сотни страны-участники Первой мировой войны использовали авиацию в боевых действиях.
К создание летательных аппаратов тяжелее воздуха приложили руку не только братья Райт, оно стало возможным благодаря успехам в нескольких областях, прежде всего, в появлении легких двигателей внутреннего сгорания и в успехах в изучении основ аэродинамики крыла. Примерно то же самое можно сказать о современных достижениях в области ANI. Подчеркнем, только лишь ANI без каких-либо проекций в будущее на AGI и тем более на ASI. Нынешний взрыв ANI вызвала синергия трех факторов: первый – достижения в работе с большими данными, второй – успехи в области глубокого машинного обучения, и третий – адаптация для процессов обучения ускорителей на графических процессорах GPU.
В данном случае на роли братьев Райт жребий выбрал трех профессоров – Фей-Фей Ли, Джефри Хинтона и Эндрю Ына, каждый из них внес свою лепту в становление этих трех научно-технических направлений. Стоит сказать, что на их месте могли бы оказаться любые другие ученые, все это игра случая, существенно то, что сложились необходимые предпосылки, а кому что досталась не столь важно.
• Профессору Фей-Фей Ли из Стэнфордского университета принадлежит идея использования машинного обучения для извлечения полезной информации из больших объемов данных. В своих экспериментах она использовала базу данных аннотированных изображений ImageNet. Большинство коллег применяли для подобных задач традиционные модели и алгоритмы AI, но Фей-Фей Ли решила нарушить традицию и применить для отработки и распознавания образов мало востребованные к тому времени методы машинного обучения.
• Из всех существовавших методов машинного обучения наилучшие результаты показали методы глубокого обучения, разработанные группой математиков из Университета Торонто, возглавляемой профессором Джефри Хинтоном.
• Универсальные компьютеры оказались слишком медленны для решения задач обучения, выход нашел работавший в Стэнфорде профессор Эндрю Ын. Он предложил использовать графические процессоры GPU для моделирования ANN.
Так возникла технологическая триада, являющаяся базисом современного AI – большие данные, машинное обучение и GPU. Она является альтернативой двум компонентами действующей компьютерной парадигмы, состоящей из программирования и фон-неймановских компьютеров (CPU). Обучение на больших данных заменяет программирование, что же касается GPU, то сегодняшний день кластеры из эти процессоров, ядра которых остаются фон-неймановскими, позволяют создать обучаемую, а не программируемую инфраструктуру. Этот путь создания тела для AI далеко не совершенен, но действующей альтернативы нет, ведутся активные исследования и разработки иных нежели GPU процессоров, но они пока на уровне экспериментов.
Нынешнюю волну AI нередко называют третьей, это так, но надо отдавать себе отчет, что это лишь порядковый номер, ни теоретически, ни технологически эта волна никак не связана с предшествующими. Представленная выше группа весьма харизматичных ученых оказалась в центре внимания масс-медиа, однако необходимые и достаточные условия для возникновения этой волны ANI были созданы более широким научным сообществом.
Подъем интереса к AI немедленно вызвал обратную волну, с критикой выступили люди, далекие от понимания сути происходящего. Неизгладимое впечатление на общественность произвел ныне покойный британский физик и космолог Стивен Хокинг, заявивший в 2017 году: «Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он несет». Хокинг выразил опасения относительно того, что новейшие технологии могут привести к деградации человека, сделав его беспомощным перед лицом природы, что в условиях естественной эволюции и борьбы за выживание означает верную гибель.
Среди тех, кто добросовестно заблуждается и выступают в прессе, не имея серьезного представления об AI, есть и вполне достойные люди, например, великий дипломат Генри Киссинджер. Его статья с эпохальным на первый взгляд названием «Конец Эпоха просвещения» (How the Enlightenment Ends) опубликована не где-нибудь, а в журнале The Atlantic.
Квинтэссенция позиции Киссинджера такова: «Просвещение началось с философских размышлений, которые распространялись с помощью новой технологии. Мы движемся по противоположному пути. Разработана потенциально доминирующая технология AI, которая нуждается в направляющей философии. Но разработкой таковой никто даже не занимается». Статья завершается выводом: «Создатели AI, некомпетентны в политике и философии, точно так же, как я в сфере технологий, поэтому они должны задаться вопросами, которые я поднял в этой статье, чтобы встроить ответы в свои инженерные разработки. Правительству США стоит подумать о создании президентской комиссии из признанных экспертов-мыслителей, которые помогут разработать национальный подход. Очевидно одно: если мы не начнем эту работу в ближайшее время, очень скоро мы поймем, что уже опоздали».
Однако это контрволна незаметно стихла, не успев как следует подняться, в 2018–20 годах поток «провидческих» выступлений заметно ослаб. В средствах массовой информации и в социальных сетях, где все чаще звучит призыв к трезвому отношению к AI под лозунгом демистификации AI (Demystification AI). В эти годы активно развивался AI-бизнес, связанный с производством средств автоматизации в самых разных сферах.
В чем новизна очередной волны AI, что делает ее отличной от предшествующих, и не ждет ли ее такая же печальная судьба? Для этого сравним их исходные позиции. Напомним, авторы первых двух волн шли по пути, названному Тьюрингом «сверху-вниз» в сочетании с действующей по сей день двухзвенной компьютерной парадигмой, стоящей на двух китах: универсальное аппаратное обеспечение и программное обеспечение, служащее для решении конкретной задачи. В рамках этой парадигмы решение любой задачи, какой бы сложной она ни была, сводится написанию программы для компьютера, главное, чтобы он обладал необходимой производительностью. При этом упускались из виду ограничения этой парадигмы – программируемый компьютер по природе своей не может делать ничего помимо того, что в него вложил человек. Следовательно, нет такого момента, где бы он проявить свой собственный тот самый искусственный интеллект и породить что-то «от себя». Он действует строго по программе, даже при выполнении таких, казалось бы, сложных действий, как доказательство теорем, написание музыки или игра в шахматы.
Качественное отличие третьей волны от первых двух в том, что она реализует схему «снизу-вверх» по Тьюрингу, в ее основе лежит коннекционистский подход, альтернативный символьному. В отличие от процессора нейронная сеть не может быть запрограммирована, но ее можно «обучить» тем или иным образом, после чего она способна моделировать простейшие процессы, происходящие в мозге. На данный момент многообразие методов обучения, сводится к предъявлению нейронной сети большого объема данных с тем, чтобы она смогла настроиться на них и находить решения.