поводу любой из сводящих с ума современных проблем – касающихся пола, сексуальности, расы и трассексуальности – Кремниевая Долина имеет свое «правильное» мнение и призывает всех разделить его с ней. Это – та причина, по которой Twitter способен забанить женщину за твиты «Мужчины – не женщины» и «В чем разница между мужчиной и транс-женщиной?» [124]. Если люди принимают «неправильную позицию» в вопросе о трансгендерности, Кремниевая Долина сделает все для того, чтобы их голоса не транслировались на ее платформах. Twitter настаивает, что твиты, упомянутые выше, например, «разжигали ненависть». В то время как аккаунты, атакующие так называемых «ТЭРФ» (транс-эксклюзивных радикальных феминисток), могут остаться. Одновременно с тем, как Twitter велел фем-активистке Меган Мёрфи удалить два вышеуказанных твита, Тайлер Коутс, редактор журнала Esquire, просто сказал: «К черту ТЭРФ!» и легко получил тысячи ретвитов [125]. В 2018 году политика Twitter относительно «поведения, разжигающего ненависть», изменилась, и теперь Twitter смог навсегда банить людей, которые называли транссексуалов их «старым» именем, которое те носили до перемены пола, или тех, кто использовал по отношению к ним неправильные местоимения [126]. Начиная с момента, когда человек заявляет, что он трансгендерная личность, и объявляет о смене имени, у каждого, кто называет его «старым» именем или использует по отношению к нему его «прежнее» местоимение, деактивируется аккаунт. Twitter решил, что является, а что не является поведением, разжигающим ненависть, и посчитал, что трансгендерные люди нуждаются в защите от феминисток больше, чем феминистки нуждаются в защите от транс-активистов.
Технологические компании неоднократно придумывали жаргон, позволяющий защитить их решения, всегда ангажированные в пользу только одной стороны. У спонсорского вебсайта «Patreon» есть «Команда доверия и безопасности», предназначенная для отслеживания и анализа приемлемости «авторов», использующих «Patreon» как краудфандинговый ресурс. Генеральный директор компании «Patreon» Джек Конте заявил:
«Мониторинг контента и решение удалить „автора“ с платформы не имеют ничего общего с политикой и идеологией и целиком завязаны на концепте „наблюдения видимого поведения“. Смысл „наблюдения видимого поведения“ состоит в том, чтобы команда, изучающая контент, отстранилась от своих ценностей и убеждений. Это – метод изучения, полностью основанный на видимых фактах. На том, что зафиксировала камера. На том, что записало звукозаписывающее устройство. Не важно, каковы ваши намерения, ваша мотивация, не важно, кто вы, какова ваша идентичность, ваша идеология. „Команда доверия и безопасности“ смотрит только на „видимое поведение“» [127].
По словам Конте, это – «отрезвляющая ответственность», потому что «Patreon» знает, что забанить человека на платформе означает отнять у него источник дохода. Но это то, что его компания проделывала неоднократно, и в каждом из случаев это было направлено на людей, чье «видимое поведение» было «неправильным» и было связано с «неверной» позицией по поводу одной из современных догм. Технологические компании постоянно транслируют такие догмы, и порой – самыми странными способами.
Машинное обучение справедливости
В последние годы Кремниевая Долина не просто приняла идеологические взгляды сторонников интерсекциональности и борцов за социальную справедливость. Она укоренила их в себе на таком глубоком уровне, что каждое общество, перенимающее их, открывает для себя совершенно новый вид безумия.
Для того, чтобы скорректировать свои предубеждения и предвзятые мнения, недостаточно просто пройти процедуры, описанные в главе «Женщины». «Уроки о бессознательных предубеждениях» могут заставить нас перестать доверять своим инстинктам, могут даже показать, как перестроить наше уже существующее поведение, позицию и мировоззрение. Они могут заставить нас обратить внимание на наши привилегии, сравнить с привилегиями и обездоленностью других, и назвать место, которое мы занимаем в любой из существующих иерархий. Уделяя внимание пересечениям систем угнетения, люди узнают больше о том, когда им следует промолчать и когда они могут говорить. Но все это – корректирующие меры. Они не могут заставить нас начать с нуля более справедливыми людьми. Они могут лишь исправить нас, когда мы идем по «неверному» пути.
Именно поэтому технологические компании возлагают столь большие надежды на «Машинное обучение справедливости» (МОС). МОС не просто отнимает у порочных, полных предубеждения и нетерпимых людей процесс вынесения суждений. Оно также передает право суждения компьютерам, которые точно не смогут перенять наши предвзятые мнения. Это происходит за счет встраивания в компьютеры таких наборов мнений и суждений, которых, наверное, никогда не придерживался ни один человек. Это – разновидность справедливости, на которую не способен никто из людей. Только после того, как пользователи стали замечать, что с результатами поиска в поисковых системах происходит что-то странное, технологические компании посчитали нужным объяснить, что такое МОС. Понятное дело, они постарались рассказать о нем как можно более спокойно, словно ничего особенного не происходило. Однако это было не так. Совсем не так.
Google с перерывами выложил, затем удалил, а затем вновь выложил доработанное видео, в котором рассказывалось о МОС самым понятным образом из возможных. В видео, которое представляет собой лучшую из этих попыток на сегодняшний день, дружелюбный женский голос говорит: «Давайте сыграем в игру», а затем предлагает зрителям закрыть глаза и представить себе обувь. На экране появляются кроссовок, стильный мужской ботинок и туфля на высоком каблуке. «Хоть мы и не знаем, почему, – говорит закадровый голос, – мы все склонны представлять себе один предмет обуви, а не иной». Если вы попытаетесь научить компьютер тому, что такое обувь, возникнет проблема. И заключается она в том, что вы расскажете компьютеру о том, что является обувью по вашим меркам. Поэтому, если для вас лучшей обувью являются туфли на каблуке, вы научите компьютер ассоциировать с обувью именно их. На экране появляется сложная сеть из линий, дающая понять зрителю, как сложно все это устроено.
Машинное обучение помогает нам «перемещаться» онлайн. Оно позволяет Интернету рекомендовать нам что-то, советовать нам маршруты и даже переводить тексты. Для того, чтобы это стало возможным, люди раньше вручную вводили код, позволяющий пользователям решать их проблемы. Но машинное обучение позволяет решать проблемы при помощи «нахождения закономерностей в данных»:
«Легко подумать, будто человеческая предвзятость тут ни при чем. Однако тот факт, что нечто основано на данных, не делает его автоматически нейтральным. Даже имея лучшие намерения, невозможно сепарироваться от наших собственных человеческих предубеждений. Поэтому наши человеческие предубеждения становятся частью технологии, которую мы создаем».
Вновь рассмотрим обувь. В рамках недавнего эксперимента людей попросили нарисовать обувь, чтобы потом обучить с помощью рисунков компьютер. Поскольку многие нарисовали нечто похожее на кроссовок, компьютер, обучающийся в процессе, не распознал туфли на высоком каблуке как обувь. Эта проблема известна как «предвзятость взаимодействия».
Но «предвзятость взаимодействия» – не единственный вид предвзятости, беспокоящей Google. Существует также «латентная предвзятость». Покажем на примере: представьте, что