постепенно росли за счет электрических или магнитных полей в окружающей среде. Если бы эти пакеты развились до момента, в который они способны поделиться, у них, таким образом, появилось бы средство передать характеристики, делавшие их более крепкими, своим «отпрыскам». И это могло бы стать началом некоторого естественного отбора, в котором выживает сильнейший.
Наконец, обратимся к еще одной гипотетической форме жизни, которая существует только в научной фантастике. В своем романе «Академия на краю гибели» Айзек Азимов рассказывает о планете, все составные части которой образуют взаимосвязанную систему. Планета такого же типа – Пандора – появляется также в фильме «Аватар», где ее целостность и взаимосвязанность обеспечивается посредством некоей нейросети. По сути, такая планета как целое является живым организмом, хотя отдельные ее части живыми могут быть, а могут и не быть. Вы, наверное, понимаете, что такая планета – логическое завершение гипотезы Геи, о которой мы рассказывали в главе 3. (Кстати, планета в романе Азимова называется точно так же – Гея.) Здесь следует учесть, что изучение любого отдельного фрагмента такой планеты – скажем, дерева или камня – не сказало бы вам примерно ничего о громадном объеме единой живой структуры, частью которой этот фрагмент является. С тем же успехом вы могли бы изучать поведение отдельного транзистора, полностью забыв о том, что он – лишь крохотный элемент суперкомпьютера.
Как мы уже говорили в главе 3, нет никаких научных предпосылок для того, чтобы заключить, что такая сверхвзаимосвязанная система могла бы существовать в реальности. С другой стороны, если бы она действительно существовала, подозреваем, что людям‐исследователям такую форму жизни было бы труднее распознать и понять, чем какую бы то ни было еще.
Искусственная жизнь
Первые вычислительные машины были гигантскими громоздкими штуковинами, собранными на основе множества электронных ламп. Замена ламп на транзисторы привела к повышению производительности и уменьшению размеров ЭВМ. И все же в 1960‐е и 1970‐е, когда авторы этой книги учились в колледже, компьютер все еще занимал большую комнату, а для его обслуживания и обеспечения взаимодействия с пользователями требовалась команда операторов. На этой стадии компьютеры были машинами, которые могли следовать составленным для них людьми инструкциям, но за рамки этих инструкций не выходили – их можно было рассматривать как что‐то вроде раздутых до неприличных размеров пишущих машинок. К этому времени, однако, писатели‐фантасты уже начали представлять себе будущее, населенное сложными, обладающими самосознанием компьютерами – обычно в форме роботов. В зависимости от настроений автора эти высокоразвитые, имеющие облик живых существ машины могли быть злодеями, как в фильме «Терминатор», помощниками человека, как в фильме «Я, робот», или даже чем‐то богоподобным, как в серии романов покойного Иэна Бэнкса о машинной космической сверхцивилизации Культуры. Во всех этих историях машины предстают «живыми» в некотором довольно неясном смысле.
Как же все изменилось! В 1965 году американский инженер Гордон Мур, один из основателей компании Intel, сделал наблюдение, которое впоследствии назвали законом Мура: как правило, любой показатель качества работы компьютеров, такой, например, как количество транзисторов, умещающееся на микрочипе, удваивается каждые два года. Позже закон был немного уточнен: количественные показатели производительности компьютера могут удваиваться даже каждые 18 месяцев! В течение нескольких десятилетий с того момента, как Мур сформулировал свое правило, оно неизменно подтверждалось, даже когда на смену транзисторам пришли сначала интегральные схемы, а потом и микрочипы.
Важно понимать, что «закон» Мура – не закон природы, наподобие законов Ньютона. Это просто наблюдение, руководство к действию, аналогичное знаменитому закону Мерфи («если что‐то может пойти не так – оно пойдет не так»). Более того, можно утверждать, что закон Мура не сможет действовать вечно – рано или поздно вам придется иметь дело с эквивалентом транзистора размерами меньше молекулы или атома. Сейчас это кажется невозможным, хотя следует заметить, что некоторые ученые уже пытаются разрабатывать системы хранения информации в отдельных молекулах.
Так или иначе, закон Мура приводит нас к мысли о двух вполне вероятных будущих событиях. Одно – это возникновение ситуации, когда мы сможем разместить на одном чипе столько транзисторов, сколько нейронов помещается в человеческом мозгу (по мнению биологов, их около 100 миллиардов). Назовем это «точкой нейронной эквивалентности». Второе (и более важное) событие произойдет, когда машины достигнут уровня разума, эквивалентного человеческому, а вместе с ним обретут способности к самоусовершенствованию. Эта ситуация называется технической сингулярностью, и она уже некоторое время назад стала предметом как научного анализа, так и самых разных псевдонаучных обсуждений.
В соответствии с законом Мура техническое совершенство компьютеров неуклонно росло, что привело к изменению самой их сущности. Они перестали казаться гигантскими пишущими машинками, неспособными выйти за пределы команд, вводимых в них операторами‐людьми. Постепенно они обрели способность к самообучению и больше не нуждаются в постоянном человеческом присмотре. Методы, которые позволяют им это, известны под названиями «машинного обучения» и «искусственного интеллекта» (AI).
Вот простой пример того, как работают подобные методы. Допустим, вы хотите, чтобы ваш компьютер читал написанные от руки адреса на конвертах – очевидно важная задача для таких организаций, как Почтовая служба США. Итак, например, мы хотим научить машину распознавать букву e. Сделать мы это можем следующим образом: написать букву e на листе бумаги, а затем заставить компьютер наложить на эту надпись электронную сетку. Каждый квадратик этой сетки – на техническом языке он называется элементом изображения или пикселем – будет либо пустым (если при печати в этот квадратик краска не попала), либо черным (если квадратик заполнен краской), либо промежуточным между первым и вторым (если приходится на край буквы). Таким образом, компьютер сможет преобразовать изображение буквы на бумаге в цепочку чисел, каждое из которых будет описывать наполнение каждого отдельного пикселя.
После того как компьютер «прочел» ряд светлых и темных пикселей и в соответствии с введенным в него алгоритмом принял решение, соответствует ли эта последовательность кодов букве e, кто‐то (или что‐то) говорит ему, выполнил ли он идентификацию буквы правильно. В общем случае этот процесс повторяется с множеством листов бумаги, на каждом из которых напечатаны самые разные буквы e – рукописная, печатная, курсивом, готическим шрифтом и так далее, – и каждый раз тот же алгоритм решает, присутствует ли на бумаге буква e. В конечном счете компьютер примет правильное решение в определенном проценте от общего числа случаев. Допустим, например, что исходный процент правильных отождествлений (при первом просмотре) составил 70 % – то есть алгоритм правильно отождествил букву e на 70 листах из каждых ста просмотренных. Теперь компьютер начинает совершенствовать свой алгоритм. Он может, например, изменить значимость, которую он присваивает отдельным пикселям, считая менее важными пиксели,