Дипфейки в политике: опыт США и Евросоюза

Дипфейки — это синтетическое медиа (видео, аудио или изображение), созданные с помощью технологий искусственного интеллекта (ИИ), способные правдоподобно имитировать реальных людей​.

С 2017 года, когда появились первые ролики на основе искусственного интеллекта, эксперты предупреждали, что дипфейки могут привести к информационному кризису​. Имитация речи Барака Обамы в 2018 году была создана как предупреждение о новой угрозе​. С тех пор во всём мире зафиксировано множество случаев применения дипфейков в политической пропаганде — от попыток дискредитировать оппонентов и вмешаться в выборы до информационных операций во время войн. В этой публикации мы рассмотрим наиболее резонансные случаи.

 

Дипфейки в США: от сатиры до вмешательства в выборы

В апреле 2018 года было создано вирусное видео, на котором бывший президент США Барака Обама обращается к зрителям с неожиданными фразами. На самом деле это оказался дипфейк: лицо Обамы было синтезировано нейросетью, а голос пародировал комик Джордан Пил.

Дипфейк Барака Обамы стал первой масштабной демонстрацией новой эры, эры искусственного интеллекта

Видео было создано BuzzFeed в сотрудничестве с Пилом как наглядное предупреждение о потенциальных угрозах технологических инноваций​. Публикация имела международный резонанс в СМИ, стала тревожным звонком для многих правительств, спровоцировала всплеск интереса к разработкам по определению дипфейков. А в США началось обсуждение законодательных мер против злоупотреблений искусственным интеллектом.

 


Как Цукерберг отказался от услуг фактчекеров и получил волну фейков о себе


 

Ещё один интересный пример — так называемые «cheap fake» (примитивный фейк). Прекрасная его иллюстрация — видео «пьяной» Нэнси Пелоси, экс-спикером Палаты представителей Конгресса США от Демократической партии.

Пьяная Нэнси Пелоси
Видео с «пьяной Нэнси Пелоси» — пример cheap fake-ов / Скриншот The Washington Post

В мае 2019 года в сети разошёлся ролик, где видная оппонентка нынешнего президента США Дональда Трампа, Нэнси Пелоси, невнятно произносит речь, создавая впечатление, будто она нетрезва или нездорова​. Впоследствии выяснилось, что это умышленно замедленная запись выступления Пелоси. Однако ролик собрал миллионы просмотров и даже распространялся известными политиками. Руди Джулиани, личный адвокат Трампа, поделился клипом в Х (бывший Twitter).

Хотя видео было разоблачено, инцидент продемонстрировал, что даже простая манипуляция может создать недоверие к публичным деятелям и контенту. В Конгрессе США этот случай упоминали на слушаниях по дезинформации и дипфейкам​, а в Калифорнии вскоре приняли закон, запрещающий распространение ложных клипов о политиках перед выборами (правда, позже его действие приостановили по решению суда).​

К 2023 году использование искусственного интеллекта в американской политике вышло на новый уровень. В мае 2023 команда Дональда Трампа опубликовала пародийный ролик, сгенерированный нейросетью: имитировалась аудиоконференция в Х с участием поддельных голосов известных лиц — от Илона Маска до Адольфа Гитлера — которые якобы высмеивают неудачный старт кампании Рона Десантиса​. В конце «выступает» и сам дипфейковый Трамп, бранно издеваясь над оппонентом​.

Дипфейк конференция Рона Десантиса
Участники дипфейковой аудиоконференции, анализирующей старт предвыборной кампании Рона Десантиса в США / Скриншот Gizmodo

Опубликованное в Х / Instagram Трампа произведение искусственного интеллекта было подано как очевидная шутка, не с целью обмана​. Прямого запрета на политическую пародию нет, и видео оставалось доступным, задавая тон агрессивной кампании 2024 года. ​Вместе с тем, штаб Дональда Трампа этим ходом нормализовал использование дипфейков, вызвав обеспокоенность экспертов и конкурентов. Федеральная избирательная комиссия (FEC) и законодатели стали рассматривать введение ограничений и регулирующих правил по данному поводу. Например, обсуждается обязанность маркировать ИИ-генерированную агитацию​.

 


Том Хэнкс и Ричард Гир уехали из США, поскольку не смогли смириться с победой Трампа?


 

Обратимся к другому примеру дипфейка, использованного во время избирательной кампании в США. В январе 2024, накануне праймериз в штате Нью-Гэмпшир, ряд избирателей получил звонки с записанным сообщением, звучащим как обращение президента Джо Байдена. В сообщении голос, очень похожий на Байдена, убеждал людей не приходить на предварительное голосование: «Ваш голос важен в ноябре, а не в этот вторник»​.

Конечно, сам Байден ничего подобного не говорил. Это была дипфейк-аудиозапись, созданная злоумышленниками для подавления явки. Кампания Байдена резко осудила случившееся как угрозу демократии​. Случай стал одним из первых примеров использования дипфейков для прямого подавления голосования в США, что усилило призывы ввести уголовную ответственность за подобные действия.

 

Европа: от шуток до клеветы

На исходе предвыборной кампании в Великобритании осенью 2019 года некоммерческая организация Future Advocacy выпустила два коротких пародийных дипфейк-видео: в одном тогдашний премьер-министр Борис Джонсон якобы призывает голосовать за своего соперника Джереми Корбина. В другом — наоборот, Корбин «агитирует» за консерваторов​.

Видео, в котором Борис Джонсон призывает отдать голоса оппоненту 

Эти шуточные ролики были маркированы как фальшивка и предназначены для повышения медиаграмотности. Авторы хотели показать обществу, что нельзя верить даже своим глазам. В данном случае цель была просветительской, но эпизод получил широкое освещение и продемонстрировал, что технология уже доступна для использования в политических целях в Европе.

 


Как искусственный интеллект помогает распространять дезинформацию


 

Один из самых заметных кейсов по влиянию на общество — это фейк о подкупе избирателей в Словакии (2023). За двое суток до парламентских выборов на Facebook появилась аудиозапись, в которой лидер прогрессивной партии Михал Шимечка якобы обсуждает с журналисткой Моникой Тодовой план фальсификации выборов​. Политики говорили о покупке голосов у ромского (цыганского) населения — серьёзное обвинение, способное подорвать репутацию лидера.

Михал Шимечка
Лидер прогрессивной партии Словакии Михал Шимечка / Фото Zuzana Gogova, Getty Images

Шимечка и газета Denník N мгновенно заявили, что запись сфабрикована​. Эксперты AFP FactCheck выявили признаки генерации речи ИИ​.

Хотя компромат быстро опровергли, в оставшиеся до голосования часы он успел распространиться по соцсетям без широкого разоблачения. Запись появилась как раз в период 48-часового предвыборного «молчания», когда опровержения затруднены законом. К тому же правила Facebook тогда запрещали только фейковые видео, а не аудио, что злоумышленники и использовали​. Эксперты сходятся во мнении, что подложный компромат мог повлиять на исход выборов, в которых победила популистская партия СМЕР.

Прецедент встревожил ЕС: еврокомиссар Вера Юрова назвала словацкие выборы экзаменом на уязвимость перед новейшими технологиями вмешательства​. Сразу после выборов европейские структуры обсудили необходимость закрыть лазейки в политике соцсетей и привлечь к ответственности организаторов вброса. Опыт Словакии также заставил соцсети усилить сотрудничество с фактчекерами и нанять больше модераторов перед последующими европейскими выборами.​

 

Читайте о дипфейках в Восточной Европе, Индии и Китае в нашей будущей публикации. 

 

Понравилась статья? Прочитай другие новости проверенные на фейк или обучись медиаграмотности сам_а!

Ищешь, где смотреть проверенные новости? Подпишись!