выработку этического решения.
Значительное число этических вопросов посвящено рискам дискриминационной практики алгоритмов, которые воспроизводят или даже усиливают враждебные настроения в обществе. Основное внимание должно быть уделено понятию дискриминации, как индивидуальной, так и коллективной, чтобы заложить основу измерения дискриминационной предвзятости, инструментов ее выявления и возможной коррекции. Например, постановление Европейского парламента 2016/679 от 27 апреля 2016 года [Regulation (EU), 2016/679] строго регулирует сбор персональных данных (религиозного, политического, сексуального, этнического характера и т. д.) и запрещает лицам, ответственным за алгоритмические решения, принимать их во внимание при автоматизированной обработке. Следует также уделить особое внимание уязвимым группам населения, таким как дети и инвалиды, а также другим лицам, которые исторически находились в неблагоприятном положении, подвергались риску изоляции или оказывались в ситуациях, характеризующихся асимметрией власти или информации (между работодателями и работниками, производителями и потребителями).
Для такого класса задач характерна проблема формализации собственно человеческих решений. Люди не являются полностью рациональными агентами. Вместо того чтобы рассчитывать свои действия по максимизации суммы функций полезности, мы зачастую имеем конкурирующие намерения. Иногда эмоциональные реакции не позволяют действовать рационально. Не все человеческие решения оказываются безупречными при их этической оценке. Следовательно, возникает более сложный вопрос: как выработать и формализовать этические принципы для ИИ. Некоторые исследователи занимались вопросом их формализации [Hibbard, 2001; Yudkowsky, 2004; Muehlhauser, Helm, 2012]. В данных исследованиях ключевым вопросом было то, какие можно найти пути для преодоления противоречий между четкостью вычислительных алгоритмов ИИ и неоднозначным, непоследовательным, субъективным разнообразием человеческих ценностей. Например, иногда одни исследователи предлагают основывать системы искусственного интеллекта на нравственности, но при этом не дают точного объяснения того, как агент по искусственному интеллекту должен выбирать действия, последовательно базирующиеся на ней [Haidt, Kesebir, 2010].
Существует целый класс этических проблем, связанных с этикой предсказуемости. Множество программ ИИ пишется для решения прогностических задач. Для ряда программ (например, в области медицины) уровень их эффективности достаточно высок и продолжает расти. Однако при непосредственном взаимодействии человека и программы на стороне человека могут возникать коллизии этического характера. В частности, не ясно, в какой степени пациенты должны и желают знать исход протекающего заболевания, риски возникновения новых заболеваний, характер новых болезней и проч. Также не вполне ясно, как должно регулироваться поведение лечащих врачей в ситуации такой осведомленности и широких возможностей прогнозирования, которая обеспечивается ИИ.
Точно так же программы по тестированию психологической совместимости (например, супружеских пар) могут иметь высокую предсказательную силу. Агент ИИ на основе уже известной информации о человеке может моделировать ценности и поведение людей, которые он наблюдает в течение достаточно длительного периода времени и лучше человека может предсказывать результаты выбора разных опций. Но последствия такого взаимодействия между ИИ и человеком представляют собой этическую трудность.
Также различные программы тестирования способностей студентов или планирования профессиональных и карьерных портфолио для абитуриентов сталкиваются с проблемой готовности пользователя программы ознакомиться с результатом. В последующем могут возникать различные виды субъективного дискомфорта, связанного с «программированием» выбора или эффектами снижения мотивации и проч.
Решение данных вопросов осложняется тем, что формализовать человеческий запрос не всегда возможно. Ряд авторов [Мuehlhauser, Helm, 2012] пришли к выводу, что люди не могут точно описать свои собственные ценности. Часто мы можем наблюдать у людей противоречия в их ценностной системе или отсутствие однозначных ответов на этические вопросы. Решения, принятые быстро, могут разительно отличаться от решений, которые долго продумывались или обсуждались. Ценности также могут изменяться в зависимости от пережитого опыта, под влиянием ближайшей среды и т. д.
В целом «ценностные» установки большинства программ ИИ на сегодняшний день – оптимизационные (или утилитарные). Таким образом, этический Кодекс ИИ – прагматический.
В связи с этими установками возникает масса проблем. Например, при выполнении инструкций по максимизации прибыли «Максимально увеличить прибыль, но никому не навредить» – для ИИ остается неясным, что имеется в виду под вредом. Идет ли речь о том, что не стоит заключать жесткие сделки, или не следует продавать никому то, что им не нужно? «Размышляя» над этими вопросами, ИИ может прийти к выводу, что в случае соблюдения всех этих правил, акционеры, сотрудничавшие с компанией, могут потерять свои деньги, что, действительно, причинит им вред [Raphael, 2009].
Есть и другой аспект. Поскольку рациональный агент выбирает действия для максимизации ожидаемой суммы функций полезности, он может выбирать действия, которые не увеличивают полезность в краткосрочном периоде, но в целом увеличивают его способность повысить полезность в будущем. Такие действия могут включать в себя самозащиту, увеличение собственных ресурсов и возможностей агента.
Если углубляться в детали этих компромиссов, то придется пересматривать этическую модель ИИ. Однако проблема не только в том, что недостаточно провести изменения в инструкции высокого уровня (такой как «максимизация прибыли»). Не совсем ясно, как сформулировать инструкции для ИИ так, чтобы сбалансировать двусмысленность максимизации прибыли с минимизацией вреда. Прибыль – это ценность, связанная с результатами, но существуют и другие способы определения ценности результатов, которые в более общем плане влияют на благосостояние человека [Arkin, 2013].
Процесс человеческой оценки тех или иных ситуаций зависит от слишком многих правил, условий и влияния среды, чтобы его можно было сформулировать через перечень конкретных аналитических высказываний. Существует мнение, что в силу отсутствия таких правил или точных способов их поиска [Tasioulas, 2017], более успешной стратегией является использование статистических данных для решения различных дилемм (как люди и с какой частотой поступают в конкретных ситуациях). Это было бы более эффективным способом взаимодействия с ИИ, однако потребовалась бы огромнейшая база данных и сложные алгоритмы ИИ для такого масштабного исследования человеческих ценностей статистическим путем. Это создает проблему курицы и яйца для этического ИИ: изучение человеческих ценностей требует мощного ИИ, но этический ИИ требует знания человеческих ценностей.
Таким образом, в масштабах проблемы этической оценки ИИ появляется дилемма. Если мы могли бы запрограммировать кодекс этики для регулирования поведения роботов, какую этическую теорию мы использовали бы? Или же роботы должны рассматриваться исключительно инструментально (как оружие, компьютеры и т. д.) и регулироваться соответствующим образом?
На эти вопросы предстоит ответить как широкой общественности, так и узким специалистам, занимающимся разработкой ИИ. Важную роль в экспертной подготовке решений поставленных проблем должны играть специальные комитеты по этической экспертизе разработки и внедрения того или иного продукта ИИ, куда будут входить специалисты из междисциплинарных областей. В ходе открытого обсуждения и свободной дискуссии ими будут вырабатываться решения по тем или иным этическим вопросам внедрения и успешной реализации ИИ.
Ключевые этические рекомендации, лежащие в основе настоящего документа, выстроены на основе определенных принципов и ценностей, которые мы последовательно артикулируем в этой части. Таким