точки зрения и интересы и часто ставят под сомнение старый консенсус о том, как вести дискуссию и принимать решения. Правила дискуссии должны быть согласованы заново. Это потенциально позитивное развитие событий, которое может привести к созданию более инклюзивной демократической системы. В конце концов, исправление прежних предубеждений и предоставление возможности ранее лишенным прав людям присоединиться к общественной дискуссии - это жизненно важная часть демократии. Однако в краткосрочной перспективе это создает беспорядки и дисгармонию. Если не будет достигнуто соглашение о том, как вести общественные дебаты и как принимать решения, результатом станет анархия, а не демократия.
Анархический потенциал ИИ вызывает особую тревогу, поскольку он позволяет не только новым человеческим группам вступать в общественные дискуссии. Впервые в истории демократия вынуждена бороться с какофонией нечеловеческих голосов. На многих платформах социальных сетей боты составляют значительное меньшинство участников. Согласно одному из аналитических исследований, из 20 миллионов твитов, созданных во время избирательной кампании в США в 2016 году, 3,8 миллиона твитов (почти 20 процентов) были созданы ботами.
К началу 2020-х годов ситуация ухудшилась. Исследование 2020 года показало, что боты создают 43,2 % твитов. Более полное исследование 2022 года, проведенное агентством цифровой разведки Similarweb, показало, что 5 % пользователей Twitter, вероятно, являются ботами, но они создают "от 20,8 до 29,2 % контента, публикуемого в Twitter". Когда люди пытаются обсудить такой важный вопрос, как кого выбрать президентом США, что произойдет, если многие из голосов, которые они услышат, будут созданы компьютерами?
Еще одна тревожная тенденция касается контента. Изначально боты использовались для влияния на общественное мнение за счет огромного объема распространяемых ими сообщений. Они ретвитили или рекомендовали определенный контент, созданный человеком, но сами не могли создавать новые идеи и устанавливать близкие отношения с людьми. Однако новые инструменты генеративного ИИ, такие как ChatGPT, способны именно на это. В исследовании 2023 года, опубликованном в журнале Science Advances, ученые попросили людей и ChatGPT создать как точные, так и намеренно вводящие в заблуждение короткие тексты по таким вопросам, как вакцины, технология 5G, изменение климата и эволюция. Затем эти тексты были представлены семистам людям, которых попросили оценить их достоверность. Люди хорошо распознавали ложь дезинформации, созданной человеком, но склонны были считать дезинформацию, созданную ИИ, достоверной.
Что же произойдет с демократическими дебатами, когда миллионы, а со временем и миллиарды высокоинтеллектуальных ботов будут не только составлять чрезвычайно убедительные политические манифесты и создавать глубоко фейковые изображения и видео, но и смогут завоевать наше доверие и дружбу? Если я вступаю в политические дебаты с ИИ в режиме онлайн, то пытаться изменить его мнение - пустая трата времени: будучи бессознательной сущностью, он не интересуется политикой и не может голосовать на выборах. Но чем больше я общаюсь с ИИ, тем лучше он меня узнает, а значит, сможет завоевать мое доверие, отточить свои аргументы и постепенно изменить мои взгляды. В борьбе за сердца и умы близость - чрезвычайно мощное оружие. Раньше политические партии могли завладеть нашим вниманием, но им было сложно создать массовую близость. Радиоприемники могли транслировать речь лидера на миллионы, но они не могли подружиться со слушателями. Теперь же политическая партия или даже иностранное правительство могут развернуть целую армию ботов, которые установят дружеские отношения с миллионами граждан и затем используют эту близость, чтобы повлиять на их мировоззрение.
Наконец, алгоритмы не только присоединяются к дискуссии, но и все чаще ее организуют. Социальные сети позволяют новым группам людей оспаривать старые правила ведения дискуссий. Но переговоры о новых правилах ведутся не людьми. Скорее, как мы уже объясняли в нашем предыдущем анализе алгоритмов социальных сетей, зачастую именно алгоритмы устанавливают правила. В XIX и XX веках, когда медиамагнаты подвергали цензуре одни взгляды и продвигали другие, это могло подорвать демократию, но, по крайней мере, магнаты были людьми, и их решения могли быть подвергнуты демократической проверке. Гораздо опаснее, если мы позволим непостижимым алгоритмам решать, какие взгляды следует распространять.
Если манипулятивные боты и непостижимые алгоритмы станут доминировать в общественных дискуссиях, это может привести к краху демократических дебатов именно тогда, когда мы больше всего в них нуждаемся. Именно тогда, когда мы должны принимать судьбоносные решения о быстро развивающихся новых технологиях, общественная сфера будет наводнена сгенерированными компьютером фальшивыми новостями, граждане не смогут определить, с кем они ведут дискуссию - с другом-человеком или с манипулятивной машиной, и не смогут прийти к консенсусу относительно самых основных правил обсуждения или самых основных фактов. Такая анархическая информационная сеть не может породить ни истину, ни порядок и не может существовать долго. Если в итоге мы получим анархию, следующим шагом, вероятно, станет установление диктатуры, поскольку люди согласятся обменять свою свободу на некоторую определенность.
ЗАПРЕТИТЬ БОТОВ
Перед лицом угрозы, которую алгоритмы представляют для демократического общения, демократические государства не беспомощны. Они могут и должны принять меры по регулированию ИИ и предотвращению загрязнения нашей инфосферы фальшивыми людьми, распространяющими фальшивые новости. Философ Дэниел Деннетт считает, что мы можем черпать вдохновение из традиционных правил регулирования денежного рынка. С тех пор как были изобретены монеты, а затем и банкноты, всегда существовала техническая возможность их подделки. Подделка представляла собой экзистенциальную опасность для финансовой системы, поскольку подрывала доверие людей к деньгам. Если бы плохие игроки наводнили рынок фальшивыми деньгами, финансовая система рухнула бы. Однако на протяжении тысячелетий финансовой системе удавалось защищать себя, принимая законы, запрещающие подделку денег. В результате лишь относительно небольшой процент денег в обращении был подделан, и доверие людей к ним сохранилось.
То, что верно в отношении подделки денег, должно быть верно и в отношении подделки людей. Если правительства принимают решительные меры для защиты доверия к деньгам, то имеет смысл принять столь же решительные меры для защиты доверия к людям. До появления искусственного интеллекта один человек мог выдавать себя за другого, и общество наказывало таких мошенников. Но общество не потрудилось объявить вне закона создание поддельных людей, поскольку технологии для этого не существовало. Теперь, когда ИИ может выдавать себя за человека, это грозит разрушить доверие между людьми и расшатать ткань общества. Поэтому Деннетт предлагает правительствам объявить фальшивых людей вне закона так же решительно, как ранее они объявили вне закона фальшивые деньги.
Закон должен запрещать не только глубокое подделывание реальных людей - например, создание фальшивого видео с президентом США, - но и любые попытки нечеловеческого агента выдать себя за человека. Если кто-то жалуется, что такие строгие меры нарушают свободу слова, ему следует напомнить, что у ботов нет свободы