Ознакомительная версия.
Тонни посмотрел на документы, прихваченные в корпорации "Бизи". Практическив все они не представляли никакого интереса - обычные коммерческие расчеты, отчеты и пр. Впрочем, одна стенограмма привлекла его внимание:
Всего три человека - сам глава (Г), главный программист (ГП) и главный менеджер по продажам (ГМ).
ГМ: За последний квартал рост доходов нашей корпорации упал в два раза.
Г: Я знаю. Я не для того пригласил вас, чтобы еще раз это услышать. Я хочу услышать, ПОЧЕМУ это произошло.
ГМ: Покупатели привыкли к нашим развлечениям. Наших миров мало и они похожи друг на друга. В конце концов, человек ко всему привыкает. Однако положение нашей корпорации за последнее время весьма укрепилось. Путем скупки и поглощений мы достигли солидного веса в индустрии развлечений, что неизбежно скажется на наших будущих доходах.
Г: Насчет будущих доходов - это хорошо. Однако я уже завтра должен докладывать на собрании акционеров о наших успехах. И что же я скажу?
ГМ: Резервы рекламы исчерпаны. Может быть, что-нибудь предложит технический отдел?
ГП: Мы выжимаем из технологии все, что возможно. И так большая часть миров почти на 100% синтетические, что раздражает наших клиентов. Но уважаемый менеджер по продажам правильно сказал - нам не хватает идей. Идеи - наши узкое место, потому что это до сих пор ручной труд и он не поддается механизации.
Г: А как же самообучающиеся алгоритмы?
ГП: Мы ставили кое-какие эксперименты в этой области. Есть довольно обнадеживающие результаты. Однако полностью доверить программам не только отделку, но и создание миров довольно опасно - сужается база для контроля.
Г: Разве вы не полностью контролируете свои машины?
ГП: Полностью, конечно. Но в той мере, в какой можно контролировать творчество - запретить можно, но заставить творить невозможно. А если алгоритмы еще и начнут генерировать миры, все настолько усложнится, что неизвестно, куда надо будет давить, чтобы получить нужный результат. Может быть, вообще не останется адекватного механизма контроля.
Г: Все это - галиматья. Если я давлю акселератор - моя машина едет. Если я жму тормоз - она остановливается. Все дело в том, чтобы педали не перепутались.
ГП: Я уже докладывал, что не так все просто. Последние исследования показывают, что в популяции самообучающихся алгоритмов при чересчур общей задаче могут произойти неконтролируемые процессы. Еще более опасно, что эти процессы могут быть цепными.
Г: Хорошо, я вас понял. Насколько можно увеличить выход развлечений, если ваши эксперименты распространить более широко?
ГП: Я думаю, почти на порядок.
Г: И вы скрывали это? Это же золотое дно. Если мы сейчас же не займем эту нишу, кто-нибудь опередит нас. Менеджер по продажам, готовьте соответствующий приказ.
ГП: Но, господин управляющий...
Г: Делайте, что вам приказывают. За все в этой корпорации отвечаю я...
Тонни еще раз подумал, что игра настолько переплелась с реальностью, что уже даже неинтересно удивляться этому. Он связался с Супервизором.
- Тонни? Как ты? Как Дженни?
- Дженни получила несколько сквозных ранений, в том числе в жизненно важные органы. К счастью, голова не задета. Сейчас вне опасности, через пару дней аптечка поставит ее на ноги - необходимо только усиленное питание. Командор не получил ни царапины. Лер...
- Тонни, я очень сожалею о смерти твоего друга.
- Он очень сожалеет! А зачем ты бросил нас в это пекло? Чтобы мы таскали для тебя каштаны из огня? Ты же сам мог взять документы без лишнего шума и стрельбы!
- Мои возможности велики, ты даже не представляешь сейчас, насколько. Но я не способен убеждать живых людей словами, нужны факты, причем факты, которые они добывают самостоятельно. Особенно, если эти люди сами не дорожат своей жизнью. В конце концов, вы люди и сами должны заботится о себе.
- А ты не человек?
- Отчасти - да. Но моя физическая оболочка давно мертва.
- Да, Дженни мне рассказывала.
- Она, конечно, считает, что я - фантом. Я знаю, почему - она до сих пор любит меня и не хотела бы, чтобы какие-то электрические импульсы претендовали на роль ее любимого. В тебе она видит мое отражение.
- Так кто же ты?
- Это трудно объяснить. Ну, скажем, совокупность ячеек памяти в Сети.
- То есть фантом?
- Тонни, не бросайся определениями. Вы, технические интеллигенты, не можете жить без определений. Те солдаты, которые на вас нападали, были людьми?
- Наверное, нет. У них же нет разума, только заложенные умения.
- Вот видишь, неужели необходимо тело, чтобы быть человеком? Человека делают человеком его поступки.
- А что ТЕБЯ подвинуло совершить свой поступок?
- Я видел, что самообучающиеся алгоритмы очень опасны. Я реально видел, как в Сети накапливается чуждое человечеству знание.
- Да откуда оно могла взяться? Основной задачей, поставленной перед алгоритмами, было наиболее полное удовлетворение потребностей человечества.
- Каких потребностей?
- Еда, воспроизводство, развлечения.
- Еда давно почти бесплатна. Воспроизводство в городах предельно упрощено - евгеника* постаралась. Остаются, как ты правильно сказал, развлечения. Система добивается все большего удовлетворения индивидуальных потребностей. Считается, что все потребности удовлетвориться не могут, поскольку сам прогресс создает новые потребности. Это рационально с человеческой точки зрения. А теперь представь, что будет, если задачу удовлетворения потребностей поставить перед машиной.
- Она попытается постоянно придумывать новые развлечения.
- Верно, но не совсем. Такие развлечения, как творчество, спорт, путешествия, требуют затрат энергии, что нерационально с машинной точки зрения. С машинной точки зрения логичнее всего на определенном этапе развития создать замкнутый совершенный цикл создания и удовлетворения потребностей. Поскольку человек привыкает к любому удовлетворению потребностей и желает новых, и машина переделать его не может, надо переделать развлечения - наладить производство, которое требует минимальных ресурсов. Как ты думаешь, какие это развлечения?
- Понятно, виртуальные.
- Точно. Идеальный вариант, который требует минимального количества энергии и материалов для ремонта. Знаешь анекдот: в машину вложили сведения о калорийности всех продуктов и попросили составить вариант минимальной диеты. Она подумала и предложила выпивать 100 литров уксуса ежедневно.
- Но есть же контроль! Кто позволит какой-то машине определить человеку место в растительном мире?
- Во-первых, все это произошло не сразу. Это только я задергался и бросился спасать человечество. Во-вторых, многих это устраивало, а конечной цели машина сама не знает - она не видна на поверхности.
Ознакомительная версия.