My-library.info
Все категории

На краю пропасти. Экзистенциальный риск и будущее человечества - Орд Тоби

На электронном книжном портале my-library.info можно читать бесплатно книги онлайн без регистрации, в том числе На краю пропасти. Экзистенциальный риск и будущее человечества - Орд Тоби. Жанр: Прочая научная литература год 2004. В онлайн доступе вы получите полную версию книги с кратким содержанием для ознакомления, сможете читать аннотацию к книге (предисловие), увидеть рецензии тех, кто произведение уже прочитал и их экспертное мнение о прочитанном.
Кроме того, в библиотеке онлайн my-library.info вы найдете много новинок, которые заслуживают вашего внимания.

Название:
На краю пропасти. Экзистенциальный риск и будущее человечества
Автор
Дата добавления:
31 октябрь 2023
Количество просмотров:
34
Читать онлайн
На краю пропасти. Экзистенциальный риск и будущее человечества - Орд Тоби

На краю пропасти. Экзистенциальный риск и будущее человечества - Орд Тоби краткое содержание

На краю пропасти. Экзистенциальный риск и будущее человечества - Орд Тоби - описание и краткое содержание, автор Орд Тоби, читайте бесплатно онлайн на сайте электронной библиотеки My-Library.Info

Философ Тоби Орд, много лет изучавший проблему глобальной бедности, в разное время – советник Всемирной организации здравоохранения, Всемирного банка и других важных международных институтов, один из основателей движения эффективного альтруизма посвятил свой труд экзистенциальным рискам, способным разрушить не только настоящее, но и весь будущий потенциал человечества. Выделяя основные риски, с которыми нам предстоит столкнуться, Орд приводит слова Уинстона Черчилля, предупреждавшего, что “те достижения мысли, которые сулили человечеству неизмеримые материальные блага, могут обернуться его полным уничтожением”. Опираясь на современные научные исследования и огромный массив данных, Орд выражает ясную, доступную и в высшей степени гуманистическую мысль: он призывает человечество в целом и к каждого человека в отдельности внести свой вклад в сохранение нашей цивилизации здесь и сейчас. Как бы ни была велика вероятность природных катастроф, главные угрозы для себя создали мы сами – и только в наших силах их предотвратить. Но действовать нужно немедленно. В формате PDF A4 сохранен издательский макет книги.

На краю пропасти. Экзистенциальный риск и будущее человечества читать онлайн бесплатно

На краю пропасти. Экзистенциальный риск и будущее человечества - читать книгу онлайн бесплатно, автор Орд Тоби

Марвин Минский (1984) предупреждал о рисках создания мощных ИИ-прислужников, которые могут неверно трактовать наши истинные цели: “Главный риск связан с тем, что всегда опасно пытаться снять с себя ответственность за осмысление того, как именно будут исполнены наши желания… чем больше возможных способов мы отдаем на откуп этим прислужникам, тем выше становится риск ошибок и несчастных случаев. Если мы делегируем эту ответственность, то можем не понять, пока не станет слишком поздно поворачивать назад, что наши цели трактуются неверно, возможно даже со злым умыслом. Мы видим это в таких классических историях о судьбе, как «Фауст», «Ученик чародея» и «Обезьянья лапка» У. У. Джекобса”.

Пионер обучения с подкреплением и соавтор самого популярного учебника по этому предмету Ричард Саттон утверждает, что “несомненно, есть немалая вероятность, что в течение ожидаемого срока нашей жизни” будет создан ИИ человеческого уровня, а затем добавляет, что агенты ИИ “не будут поддаваться нашему контролю” и что “если мы создадим сверхразумных рабов, то у нас появятся сверхразумные противники”. Он заключает: “Нам нужно внедрить механизмы (социальные, правовые, политические, культурные), чтобы удостовериться, что все получится”, но “неизбежно значимость обычных людей снизится” (Sutton, 2015), (Alexander, 2015).

О рисках, сопряженных с ИИ, высказывались и другие ведущие исследователи, включая Джеффа Клюна (2019): “…даже если есть лишь небольшая вероятность, что мы создадим опасный ИИ или вызовем неописуемые страдания, издержки так велики, что мы должны обсуждать такую возможность. По аналогии, если бы с вероятностью 1 % через десять или сто лет на Землю упал бы астероид, способный уничтожить цивилизацию, было бы глупо не начать дискуссию о том, как отследить его и предотвратить такую катастрофу”.

Ян Гудфеллоу (OSTP, 2016): “Очень долго будет важно создавать ИИ-системы, которые понимают ценности своих пользователей и настроены в соответствии с ними… Исследователи начинают изучать этот вопрос, и государственное финансирование могло бы помочь сообществу заранее решить его, а не пытаться разбираться с серьезными проблемами после их возникновения”.

431

Szilard & Winsor (1968), pp. 107–108.

432

Хотя в открытом письме содержались в основном утверждения общего характера (Future of Life Institute, 2015), в прилагающейся к нему программе исследований четко говорилось о необходимости изучать стоящие перед человечеством риски того типа, который обсуждается в этом разделе (Russell, Dewey & Teg-mark, 2015).

433

Future of Life Institute (2017).

434

Это была выдержка из работы Russell (2014), и она близка к приведенным здесь аргументам.

435

Это поразительно высокая оценка. Полагаю, так высоко вероятность того, что их работа приведет к катастрофически плохим последствиям для человечества, могли бы оценить еще разве что ученые-атомщики накануне создания бомбы. И все же я благодарен исследователям за честность в этом вопросе.

436

См., например, доводы Пинкера в книге “Просвещение продолжается” (2018, p. 300).

437

Демис Хассабис открыто говорит об этих вещах (Bengio et al., 2017): “Сейчас нам важнее всего сосредоточиться на проблеме координации. Нам хотелось бы избежать губительной гонки к финишу, в которой будут срезаться углы и страдать безопасность. Это станет серьезной проблемой мирового масштаба”.

438

Если бы системы могли совершенствовать собственный интеллект, это, возможно, вызвало бы каскадный эффект, называемый “интеллектуальным взрывом”. Это могло бы случиться, если бы при повышении уровня интеллекта повышались и способности системы к самосовершенствованию. Первым на это обратил внимание И. Дж. Гуд (1959), и это вполне правдоподобный механизм того, как прогресс может быстро выйти из под контроля. В упоминавшемся ранее опросе (Grace et al., 2018) 29 % респондентов посчитали вероятным, что аргумент в пользу того, почему нам следует ожидать интеллектуального взрыва, в целом верен.

Но нельзя сказать, что такой исход гарантирован. Начать хотя бы с того, что ИИ для этого должен быть способен исследовать ИИ не только лучше человека, но и лучше всего исследовательского сообщества ИИ (при сравнимых затратах). Следовательно, мы, возможно, успеем заметить, что система находится примерно на человеческом уровне, прежде чем дело дойдет до интеллектуального взрыва.

Кроме того, сложность каждого следующего шага на пути к повышению интеллекта системы будет, возможно, расти быстрее, чем уровень ее интеллекта, и тогда потенциал “взрыва” быстро сойдет на нет. Предполагается, что в какой то момент он действительно должен сойти на нет, и поэтому главный вопрос в том, есть ли где то ближе к началу процесса промежуток, когда усовершенствования порождают еще большие усовершенствования. Подробнее об этом см. у Bostrom (2014, p. 66).

439

Metz (2018). Согласен и Стюарт Рассел (Flatow, Russell & Koch, 2014): “Я замечаю, что ведущие исследователи отрасли, которые никогда публично не высказывали никаких опасений, негласно полагают, что к этому вопросу нам следует относиться со всей серьезностью, причем чем раньше мы начнем воспринимать его всерьез, тем лучше”.

Советы Хассабиса и Рассела вторят заблаговременному предупреждению И. Дж. Гуда (1970): “Даже если вероятность появления ультраинтеллектуальной машины невелика, это приведет к таким серьезным последствиям, будь они хоть плохими, хоть хорошими, что нам пора бы рассматривать такую возможность. Как бы то ни было, я надеюсь, что к 1980 году мы успеем в деталях обсудить последствия этого и необходимые меры безопасности, и это главная причина, по которой я поднимаю этот вопрос: пора начинать дискуссию”.

Если бы мы последовали совету Гуда, сегодня мы, возможно, оказались бы на несколько десятилетий впереди, а грозящий нам риск был бы небольшим и хорошо контролируемым.

440

В худших случаях, возможно, даже имеющем отрицательную ценность – а такой исход хуже вымирания.

441

Orwell (1949, p. 121; перевод В. Голышева) четко это формулирует: “Правящая группа теряет власть по четырем причинам. Либо ее победил внешний враг, либо она правит так неумело, что массы поднимают восстание, либо она позволила образоваться сильной и недовольной группе средних, либо потеряла уверенность в себе и желание править. Причины эти не изолированные; обычно в той или иной степени сказываются все четыре. Правящий класс, который сможет предохраниться от них, удержит власть навсегда”.

442

Можно даже сказать, что таким стал первый в истории серьезный экзистенциальный риск. С этой точки зрения первая волна антропогенного экзистенциального риска поднялась из за этих опасных идеологий, которые были открыты совсем недавно, и глобализованный мир, возможно, не в силах будет ее сдержать. Технологические риски (начиная с ядерного оружия) представляют собой вторую волну.

В поддержку этой идеи можно вспомнить о характерной для нацистской Германии риторике о “тысячелетнем рейхе” как свидетельстве стремления создать поистине устойчивый режим. Обратите внимание, что вероятность этого не должна быть особенно высокой, чтобы принимать ее в расчет: вероятно, хватит и одного шанса на тысячу (поскольку это больше, чем годовой природный риск).

Хотя “1984” – художественное произведение, оно свидетельствует, что Оруэлла беспокоила вероятность поистине экзистенциальной катастрофы. Он нарисовал картину мира, пребывающего в состоянии постоянного конфликта между тремя тоталитарными сверхдержавами, каждая из которых коварными социальными и технологическими средствами подавляет любые намеки на сопротивление. Ключевой аспект этой картины в том, что в ней, вероятно, воплотилась необратимая дистопия: “Если вам нужен образ будущего, вообразите сапог, топчущий лицо человека – вечно”. Предвосхищая идею об экзистенциальном риске, он сравнил такой исход с вымиранием: “Если вы человек, Уинстон, вы – последний человек. Ваш вид вымер; мы наследуем Землю. Вы понимаете, что вы один? Вы вне истории, вы не существуете”.


Орд Тоби читать все книги автора по порядку

Орд Тоби - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки My-Library.Info.


На краю пропасти. Экзистенциальный риск и будущее человечества отзывы

Отзывы читателей о книге На краю пропасти. Экзистенциальный риск и будущее человечества, автор: Орд Тоби. Читайте комментарии и мнения людей о произведении.

Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*
Все материалы на сайте размещаются его пользователями.
Администратор сайта не несёт ответственности за действия пользователей сайта..
Вы можете направить вашу жалобу на почту librarybook.ru@gmail.com или заполнить форму обратной связи.