работники, иммигранты, пациенты больниц и этнические меньшинства, зачастую усугубляет ситуацию, не позволяя людям выступать против использования закрытых систем.
Вот почему так непросто находить и расследовать реальные случаи влияния ИИ-программ на общество. Люди, которых притесняют алгоритмы, не спешат рассказывать о собственном опыте. Поэтесса Хелен Морт, которая нашла в интернете дипфейк-порнографию со своим участием, Диана Сарджо, сыновей которой заклеймил алгоритм прогнозирования преступной активности, и водитель Uber Александру Ифтимие в числе первых стали привлекать внимание к проблемам, надеясь изменить ситуацию с непонятными ИИ-системами, хотя им нередко приходилось действовать себе во вред.
Со временем я стала встречать все больше таких борцов за справедливость. Я пообщалась с 32-летней британкой Сарой Мередит, которой пересадили донорскую печень, и ее родственниками, которые объявили войну алгоритму распределения органов, поскольку сочли, что он поступает с пациентами несправедливо. Рик Берджесс, входящий в Коалицию людей с ограниченными возможностями из Большого Манчестера, подал в суд на Министерство труда и пенсий, которое занимается выплатой социальных пособий, чтобы больше узнать о модели, выявляющей подозрения на мошенничество с выплатами. Берджесс полагал, что она носит дискриминирующий характер и не контролируется людьми.
Во всех этих случаях проблема заключалась не просто в том, что алгоритмы проявляют предвзятость и причиняют вред представителям меньшинств (подобные вещи сложнее доказать), а в том, что ИИ-системы остаются закрытыми и непонятными даже для людей, в отношении которых они используются. Вопросы внедрения и регулирования этих алгоритмов постепенно превращаются в вопросы о правах человека.
Именно поэтому опытная правозащитница Кори Крайдер оказалась втянута в эту битву, посвятив несколько лет защите политзаключенных в тюрьме Гуантанамо.
Крайдер родилась и выросла в Техасе, но впоследствии обосновалась в Лондоне. Она всегда считала, что невозможно представить себе больший дисбаланс сил, чем между заключенным из Гуантанамо и Министерством обороны, которое держит его в тюрьме, не предъявляя ему обвинений и не представляя его к суду.
Но в 2019 году она наткнулась на скрытое от посторонних глаз сообщество модераторов контента, работающих на таких гигантов социальных сетей, как Meta. И обнаружила неожиданные и поразительные сходства между ними и узниками тюрьмы.
Крайдер побеседовала более чем с сотней модераторов Facebook, Instagram и TikTok, включая Дэниела Мотаунга из кенийской аутсорсинговой компании Sama. Их работа заключалась в том, чтобы очищать контент-помойку в социальных сетях и обучать системы искусственного интеллекта, призванные автоматизировать эти процессы. Крайдер посетила Варшаву, Краков, Найроби и Дублин – города, где Meta подыскивала себе работников, – и взяла у модераторов интервью на условиях анонимности.
Так Крайдер узнала о потоке контента, который приходится постоянно отсматривать тем людям, которые его фильтруют: они видят обезглавливания, массовые расстрелы, террористические акты, сексуальное насилие и детскую порнографию.
Крайдер была знакома с ПТСР. Она привыкла общаться с политическими заключенными, которых похищали, избивали и насильно кормили. Беседуя с модераторами, которые явно демонстрировали признаки травмы, она вспоминала свою работу с узниками Гуантанамо. Разумеется, она понимала, что между ними есть разница, но переклички были очевидны: они описывали схожие флешбэки – сцены насилия, которые снова и снова всплывали у них в голове, поскольку их невозможно было забыть. Пока Крайдер не узнала об этой отрасли, она и не думала, что ПТСР может возникнуть даже из-за просмотра насильственных сцен на экране – в результате многочасовой фильтрации контента и его детального анализа. После интервью это стало ей совершенно очевидно.
Она увидела, что самые прибыльные продукты Кремниевой долины – рекомендательные сервисы на базе ИИ, формирующие ленту новостей в TikTok и Instagram и содержимое вкладки «Для вас» в соцсети X, – зачастую держатся на плечах наиболее уязвимых групп, включая бедную молодежь, женщин и мигрантов, которым работа дает право на жизнь в чужой стране. Без внештатных модераторов контента новостные ленты были бы непригодны для использования – их токсичность не позволила бы нашему обществу и дальше потреблять контент с такой жадностью, как сейчас.
Проблема, впрочем, заключалась не только в природе самого контента, но и в условиях труда – в приравнивании человека к роботу, который одновременно обучает своей работе системы ИИ. Модераторы контента должны были ежедневно обрабатывать по несколько сотен единиц информации, какими бы жуткими они ни были. Им приходилось внимательно смотреть видеоролики, чтобы определять их предназначение и изучать контекст высказываний, а также вблизи рассматривать неприятные изображения ран и фрагментов тел, чтобы их классифицировать. Как сообщается, качество их работы оценивалось каждые 15–30 минут и не должно было падать ниже деспотических 98%. Объем работы, требуемая скорость ее выполнения и давление, которое испытывали люди, были невыносимы.
И это происходило в атмосфере секретности и страха, с которой Крайдер была знакома еще по работе с различными спецслужбами. Клиенты, в том числе Meta, часто требовали, чтобы работники подписывали соглашения о неразглашении, по которым им запрещалось обсуждать свою работу даже с родственниками и адвокатами. Крайдер привыкла к тому, что американское правительство засекречивает всю информацию о ее клиентах из Гуантанамо, не сообщая даже, чем их кормят, что отчасти объясняется стремлением лишить узников всего человеческого. Модераторы Facebook, в свою очередь, связаны железобетонными контрактами, которые заставляют их молчать. В некоторых соглашениях о неразглашении, подготовленных для Facebook аутсорсинговой компанией Accenture, работникам приходилось подписываться под тем, что их осведомили, что работа может вызвать ПТСР. Такая подпись освобождала Accenture и Facebook от ответственности за ухудшение психического здоровья модераторов{146}.
Из-за соглашений о неразглашении люди опасались доверять друг другу, не выстраивали рабочие связи и не создавали профессиональные ассоциации. «Им было сложно говорить даже со мной, их адвокатом, – сказала Крайдер. – Это неправильно».
Полевой цветок, который либо убивает, либо исцеляет
Раньше Крайдер защищала интересы общества в некоммерческой организации Reprieve и привыкла бороться со знакомым и вполне реальным врагом: вездесущим правительством. В Гуантанамо перед ней стояла ясная задача: найти способ вытащить клиента из камеры, в которой он заперт. Она отмечает, что узники оказывались за решеткой из-за «очевидной и вызывающей» жестокости.
По работе она также встречалась с американскими чиновниками и людьми, выжившими при атаках беспилотников в Пакистане и Йемене, и пришла к выводу, что образ врага постепенно меняется. Слушая их истории, она подмечала, что структуры, работающие в сфере обороны и национальной безопасности, все чаще тайно собирают данные и применяют в своих целях алгоритмы. Анализ данных постепенно становился основой для разведывательных операций и военных действий. Со временем Крайдер поняла, что ее преследуют мысли о поглощающих данные алгоритмах машинного обучения и создающих их корпорациях, которые, как она считала, действуют вразрез с либеральными западными идеалами свободы и самоопределения. Глядя на технологический мир со стороны, она стала задумываться,