не на специальные юридические термины в текстах обращений. При анализе дела, связанного с возможным нарушением прав человека, судьи обращают внимание на слова «душность», «переполненность», «прогорклость», «нагноение» и т. д. Эти выводы соотносятся с предыдущими исследованиями практики судов других уровней, в том числе Верховного суда США. После анализа судебных приговоров исследователи сделали вывод, что судей чаще волнует моральная сторона дела [Aletras et al., 2016].
При использовании данных технологий возникают некоторые этические осложнения.
Их применение отягощается в случае такого типа судейства, при котором этические и моральные нормы так или иначе вводятся в закон. В частности, ряд современных американских судей полагают, что при рассмотрении дел должны учитываться текущие моральные нормы, в том числе религиозные и церковные. Однако программирование такого ИИ, который был бы чувствителен к подобного рода ценностным величинам, является крайне сложной задачей. Кроме того, анализ тех значений, которые не типичны для словаря юридических терминов, многократно усложняет применение формализованных судейских решений. В свою очередь, отказ от ценностных и «обыденных» слов или способов описания ситуаций может привести к невосприимчивости ИИ к собственно этической природе правовых споров. Между тем в том типе судопроизводства, который применяется сейчас в большинстве европейских государств, так или иначе сохраняется значение ключевых моральных кодексов и таких философско-этических категорий, как справедливость, честность, сострадание, милосердие, благородство и проч. Однако формат «обучение» ИИ, который закладывается в большинство компьютеризированных систем судопроизводства, основан на принципе «lex искусственный». Такие программы не воспринимают не только трудно формализуемые понятия этического словаря, но и абстрагируются от культурных норм и особенностей истолкования этических понятий в различных языках и странах. В качестве решения данной проблемы предлагается и в этом случае рассматривать ИИ-судей как помощников, которые могут заменять людей только в судах низшей инстанции. В качестве конечных арбитров на вершине любой правовой системы должны оставаться судьи-люди. Последние будут продолжать ориентироваться на этические и моральные ценности как релевантные нормы права. С технической точки зрения ИИ окажется полезным для актуализации собственно инструментальной части закона, однако именно люди будут ответственны за конечный выбор наилучшего решения.
1.2. Перечень рекомендаций
Принимая во внимание указанные выше трудности можно отметить, что программа судейства, основанная на технологиях ИИ, должна проходить экспертную проверку на различные этические недоразумения и дилеммы. Правовая сфера – одна из труднейших для цифровизации, поскольку эта область практически полностью построена на ценностной основе. Понятия справедливости, достоинства, ценности человеческой жизни, благополучия, морального ущерба и проч. представляют собой сложнейшие комплексы философских смыслов и идей. Их формализация – большая трудность. Возможно, на начальной стадии внедрения использование ИИ в области судопроизводства может быть ограничено оказанием помощи судьям в выявлении их собственных предубеждений и поддержании последовательности. По мере дальнейшего распространения внедрения ИИ в судебной сфере данные полномочия могут расширяться, однако при условии экспертного контроля со стороны общественности, профессиональных сообществ и, отчасти, государства. Необходимо также иметь в виду, что все более широкое использование автоматизации в судопроизводстве неизбежно повлияет на процесс принятия решений человеком.
Передача формирования судебных решений в ведение ИИ является неоднозначным шагом, что предполагает устранение не только технических вопросов, таких как информационная безопасность и защита от возможных взломов, но и решение вопросов обучения ИИ с точки зрения этических требований. Этическая настройка технологий ИИ в судебной сфере требует нормативного контроля, социально-правовой экспертизы, общественного наблюдения и сотрудничества с узкими специалистами.
Отдельное внимание потребуется уделить параметрам защиты от избыточной формализации. При этом подразумеваются различные дискриминационные риски, а именно алгоритмизация оценки таких факторов, как этническое происхождение, расовая принадлежность, социальное и экономическое положение, политические взгляды, интенсивность и характер социальных связей, возраст, пол, уровень образования и проч. По-видимому, следует отдельно устанавливать определенные дискриминационные запреты в алгоритмах ИИ, используемых в судебной и правоохранительной системах. К ним относятся применение генетических и биометрических данных, данных, связанных с религиозными и политическими взглядами, сексуальной ориентацией. Если подобная дискриминация формируется самой системой ИИ, необходимо усовершенствование алгоритмов или подключение антропоморфного интеллекта. Принимая во внимание имманентно присущую технологиям ИИ (в особенности на базе нейронных сетей) возможность самообучаться, а именно фиксировать таксономию новых данных на основе библиотеки ранее обнаруженных данных, необходимо, чтобы общественные институты, специализированные исследовательские центры или государственные органы, еще в процессе создания ИИ-программ ограничивали возможность ущемления отдельных социальных групп или граждан в ходе применения программы. В целом важно держаться равновесия между частной инициативой разработчиков ИИ (их интеллектуальной собственности) и независимыми экспертными группами (как привлеченных, так и действующих независимо). Данное требование могло быть реализуемо каждым конкретным судом, однако контроль за его исполнением следовало бы возложить на специальные группы независимых судей, которые определялись бы выборным путем и регулярно переизбирались. Такая практика должна способствовать сохранению беспристрастности и прозрачности в разработках ИИ для судебных и правоохранительных органов, а также их открытости для возможной проверки.
Создателям технологий самообучения программ необходимо создать все условия для использования профессионального опыта сотрудников правовых органов и учреждений. Помимо сотрудничества с профессионалами из тематически релевантной группы, такими как судьи, адвокаты, прокуроры, следователи и др., необходимо подключить специалистов различных гуманитарных профилей, в частности философов, в том числе аксиологов, социологов, психологов и др. Для успешной разработки ИИ в судебной сфере имеет смысл заняться организацией интегрированных проектных команд, ориентированных на междисциплинарный подход. В частности, при формировании госзаказов на разработку и внедрение программ ИИ для правовой области важным критерием выбора должно быть обучение по курсам этики ИИ с получением соответствующих сертификатов.
Полезной рекомендацией также является государственная сертификация и экспертная оценка производителей ИИ для судебной и правоохранительной сферы. В этом же ключе можно рассмотреть возможность организации внешнего аудита технологий ИИ. Мы предлагаем установить порядок, при котором будет соблюдена прозрачность алгоритмической базы и понятность всех решений, принятых ИИ. Данная мера важна для установления защиты от дискриминационных решений, любых типов злоупотреблений, а также возможности выявления ошибки на любой стадии принятия решения. Наиболее эффективной экспертами признается модель неограниченного доступа людей в решения ИИ, когда используется открытая документация и экспликативная модель алгоритмизации. Уже на стадии обучения ИИ программу следует снабдить навыком объяснения своих решений на метаязыке, отличном от объект-языка самого решения. Необходимость данного требования вполне объяснима – все участники судебного процесса (адвокаты, обвиняемые и проч.), в котором судьей выступает ИИ, должны иметь возможность оспорить решения, принятые ИИ-судьей. В дополнение к этому следует позаботиться о том, чтобы все участники судебного процесса получили доступ ко всем входным данным. Кроме того, участникам должно быть предоставлено право на апелляцию не только при участии судьи-человека, но и другого ИИ-судьи.