были в их власти», – сказала Ноэль.
Борьба за перемены
В прошлом феврале я побеседовала с исследовательницей Оливией Сноу из Калифорнийского университета в Лос-Анджелесе, которая также является профессиональной доминатрикс и специалистом по секс-работе, технологиям и правовому регулированию в этой отрасли. Работая доминатрикс, она использует вымышленное имя. Недавно Сноу и ее коллеги начали использовать приложение Lensa, которое с помощью ИИ превращает фотографии лиц в анимированные аватары в стиле аниме или фэнтези. «Для нас это безопасный способ показать свое лицо в профиле», – сказала она. Однако, загрузив в приложение больше своих фотографий, она заметила, что алгоритм программы гиперсексуализирует «мультяшные» портреты.
Заинтересовавшись этим, она добавила в Lensa и другие снимки, включая селфи с конференций и детские фотографии, чтобы посмотреть, что с ними сделает алгоритм. Сноу с ужасом обнаружила, что сексуализации подверглись и они – были созданы даже частично обнаженные фотографии. «Очень скоро приложения вроде Lensa начнут использоваться против женщин. В последние несколько недель я наблюдаю всплеск случаев, когда женщинам показывают дипфейк-порно с их участием», – сказала Сноу.
Она отметила, что международные регуляторы непозволительно медлят с введением ответственности за надругательства такого типа. «Мы вообще не регулируем такие технологии, как ИИ, пока не становится слишком поздно».
Сноу права: ситуация почти не сдвигается с мертвой точки. Такие жертвы, как Хелен и Ноэль, которые имеют смелость – и чувствуют себя достаточно защищенными, – чтобы говорить о том, что с ними произошло, борются за судебное преследование преступников и требуют, чтобы правительства их стран признали, что дипфейки заполоняют мир, и ввели уголовную ответственность за создание и распространение порнографического контента, генерируемого без согласия сторон с помощью ИИ-систем.
Эта борьба показывает, что надругательства с применением ИИ не менее деструктивны, чем распространение реальных снимков, и отчасти именно поэтому пострадавшие женщины говорят о случившемся публично. В последние годы, когда все больше пострадавших рассказывает о своем столкновении с дипфейками, а программы для создания изображений на базе ИИ становятся лучше и лучше, активисты, выступающие за цифровые права и права женщин, начинают все настойчивее лоббировать запрет такого типа надругательств на законодательном уровне.
Хелен, например, запустила онлайн-петицию с требованием к правительству изменить законы и защитить тех, кто, как и она, стали жертвами технологий. «После этого испытания я столкнулась со страхом, стыдом, паранойей и опустошенностью. Но я не позволю им заставить меня замолчать», – написала она.
В своей петиции, которую подписали более шести тысяч человек, она призывает запретить дипфейки, «создав один понятный закон для запрета скачивания, создания и фабрикации вредоносных изображений»{37}.
Благодаря борьбе Хелен и других людей, включая Генри Айдера из Sensity AI и десятки активистов, Великобритания недавно запретила недобровольное распространение интимных дипфейк-изображений по Закону о безопасности в интернете, который разрабатывался с 2019 года. Несмотря на широкую критику, в момент написания этой книги идут последние этапы его обсуждения – он медленно, но верно продвигался по британским законотворческим инстанциям.
Профессор права из Даремского университета Клэр Макглинн, которая на протяжении последнего десятилетия изучает законодательство в соответствующей сфере, говорит, что несмотря на шаги, предпринятые Великобританией для решения этого вопроса, в настоящее время в мире существуют лишь отдельные законы национального и регионального уровня, направленные против злоупотребления изображениями, а законов, запрещающих создание и распространение дипфейков, и того меньше. Кроме того, судя по сведениям, полученным Макглинн от потерпевших, даже когда законы существуют, их соблюдение контролируется не всегда, в связи с чем женщинам, составляющим основную часть жертв подобных надругательств, чрезвычайно сложно защититься от нападок, которые, как в случае Ноэль, порой длятся по несколько лет.
По словам Макглинн, законодательство не меняется не потому, что риск злоупотребления фальсифицированными фото и видео вызывает сомнения, а потому, что законотворцы не считают этот вопрос особенно важным. Регулировать ИИ, как и социальные сети и другие интернет-технологии, очень сложно. Эта технология эволюционирует чрезвычайно быстро и не признает никаких границ: ИИ-программы, созданные в одной стране, могут применяться в приложениях в другой стране, а затем взламываться и использоваться для создания недобровольных дипфейков в третьей.
В последний год многие страны озаботились проблемой регулирования технологий искусственного интеллекта, но пока обсуждаются главным образом вопросы, касающиеся опасности продвинутых ИИ-систем, включая возможность их использования для разработки биологического оружия, проблемы распространения создаваемой ИИ дезинформации в политических сферах, а также риски негативного влияния ИИ на демократию. Кроме того, рассматриваются случаи нарушения авторских прав, поскольку для обучения ИИ-систем требуется использование охраняемых авторским правом текстов, изображений, голосов и стилей представителей творческих профессий. На первом саммите, состоявшемся в прошлом ноябре в британском особняке Блетчли-парк, государственные лидеры обсуждали необходимость законодательного обеспечения безопасности ИИ: разработку алгоритмических систем, которые не проявляют дискриминацию, не нарушают этику и не подходят для совершения преступлений, а также – в далеком будущем – создание сверхчеловеческих технологий, не причиняющих вред человечеству.
Как отмечает Макглинн, занимаясь такими сложными вопросами, мировые политические лидеры – в большинстве своем мужчины{38} – просто не отдают приоритет проблеме распространения дипфейков. По ее мнению, дело, возможно, в том, что жертвами этой технологии становятся преимущественно женщины. Иными словами, жертвы просто недостаточно значимы.
* * *
Красноречивым свидетельством колониализма данных, то есть эксплуатации уязвимых сообществ могущественными технологическими компаниями, служит распределение влияния алгоритмических систем. В силу статистического характера технологий их преимуществами обычно пользуется большинство – выделяемое хоть по расовому, хоть по географическому, хоть по половому признаку. Например, плохо разработанные системы найма на базе ИИ отдают предпочтение кандидатам мужского пола, поскольку в прошлом представители этой группы успешно проходили собеседования в конкретной компании{39}. С другой стороны, токсичному влиянию ИИ-систем особенно подвержены маргинализированные группы, которые и без того притесняются в современном обществе. В частности, системы распознавания лиц на базе ИИ гораздо чаще ошибаются в случаях с женщинами и людьми с небелой кожей, чем с мужчинами и представителями европеоидной расы.
Начав следить за распространением дипфейк-порнографии, я обнаружила, что технология применяется не только на Западе: подобные алгоритмы использовались против женщин в Египте, Китае, Йемене и Индии, а также в других государствах. В перечисленных странах эту технологию уже направляют против журналисток и активисток, причем шаткое положение, которое они занимают в этих культурах, позволяет причинять им гораздо больший вред, чем, скажем, женщинам в западных странах.
В 2020 году мы с коллегами из Financial Times начали рассказывать о том, как именно ИИ используется в качестве оружия против женщин и других меньшинств в интернете, и узнали о молодом китайском программисте Scsky, живущем в Германии. Он собрал команду из семерых программистов, которые на добровольных началах за пять