Не верь глазам своим: как война Израиля и Ирана искажается искусственным интеллектом

Ближний Восток снова стал эпицентром глобального напряжения — война Израиля и Ирана сменила собой тлевший годами конфликт двух государств. 13 июня Тель-Авив начал операцию «Восходящий лев». Израильские ВВС атаковали ключевые ядерные объекты Ирана, мотивируя действия тем, что ядерная программа Ирана была на финальном этапе и угрожала безопасности как Израиля, так и региона в целом. В результате ударов погибли высокопоставленные командиры Корпуса стражей исламской революции (КСИР) и ведущие учёные-ядерщики. Иран атаковал в отместку, после чего стороны продолжили обмениваться взаимными ударами.

Последствия обстрелов широко освещали правительства обеих стран, международные и местные медиа. Поэтому сеть заполонили сотни видео и фото, на которых, как утверждается, изображены события ирано-израильской войны лета 2025 года. Однако далеко не все из них являются правдивыми.

Мы расскажем, как искусственный интеллект в ближневосточном конфликте создает альтернативную реальность. А также научим её распознавать, прежде чем она заменит настоящую.

 

ФЕЙК: Фото сбитого израильского самолета F-35

На третий день противостояния, то есть 16 июня, иранские медиа, ссылаясь на данные армии Ирана, заявили об уничтожении четырёх израильских самолетов F-35, не предоставив никаких доказательств. Израиль назвал такие сообщения фейковыми, добавив, что Иран не сбивал ни одного их самолёта. Несмотря на это, после заявлений Ирана в сети начали распространять фото якобы уничтоженного F-35.

Иран сбил F-35 фейк
Фото якобы сбитого иранцами израильского F-35 — фейк заметен невооружённым глазом / Фото Подоляка

Однако опубликованное изображение кажется нереалистичным, в частности, из-за размеров самолёта. Согласно техническим характеристикам, длина F-35 достигает 15,7 м, высота — около 4,4 м, а размах крыльев — 6,9 м. Исходя из размеров машины относительно людей, стоящих вокруг него, можно сделать вывод, что он значительно превышает указанные для F-35 размеры.

F-35
Реальные размеры F-35 относительно человека можно оценить по этому снимку / Изображение  Lockheed Martin YouTube

Хвостовое оперение F-35 намного ближе примыкает к крыльям самолёта. А на снимке между ними существенный разрыв, который не может возникнуть даже из-за повреждений.

К тому же рисунок звезды Давида на якобы сбитом F-35 отличается от рисунка на реальных самолётах ВВС Израиля. Так, на самолёте с фейкового снимка на крыле нарисована белая звезда Давида, а на настоящих израильских машинах звезда Давида размещена внутри белого круга.

Иран сбил F-35 фейк
Звезда Давида на фейковом (сверху) и реальном (снизу) самолётах ВВС Израиля / Коллаж Azbuka media

На снимке люди и расположенные неподалёку от них машины и здания одинаковы по размеру, что также является нереалистичным. Проблемы с пропорциями и мелкими деталями на «фотографии» указывают, что изображение сгенерировали с помощью ИИ, ведь это типичные для искусственного интеллекта ошибки.

Иран сбил F-35 фейк
Сравните размеры людей и размеры автомобилей и домов, пропорции явно нарушены

 


Израиль назвал машины скорой помощи и госпитали законными военными целями?


 

ФЕЙК: Видео массированного обстрела Тель-Авива

На другом фото, которое активно распространяли в сети, якобы был изображён момент массированного обстрела столицы Израиля, Тель-Авива.

Обстрел Тель-Авива фейк
Часть ИИ-ролика, демонстрирующего якобы обстрел Тель-Авива / Изображение Umma_Islama.tv

По обратному поиску мы нашли видео, с которого сделали скриншот. При детальном изучении становится очевидно, что видео тоже сгенерировано. Несмотря на большое количество боеприпасов, нигде не видно попаданий, повреждения зданий или вспышек ПВО. А человек, который это снимает, несмотря на явную опасность, стоит неподвижно и лишь вертикально перемещает камеру.

Более того, первоисточником изображения с фейковым обстрелом Тель-Авива является канал, который специализируется на создании картинок, сгенерированных ИИ. Автор канала разместил сгенерированное изображение 13 июня, после чего картинку анимировал другой человек и опубликовал ролик, также указав, что это дипфейк.

Видео иранского удара по Тель-Авиву
Автор ролика указал, что перед нами изменённый или синтетический контент / Скриншот на основе видео пользователя Epic Faith Stories на YouTube

 


Как искусственный интеллект помогает распространять дезинформацию


 

ФЕЙК: Фото уничтоженного Ираном бомбардировщика B-2

После того как в ночь с 21 на 22 июня США атаковали ключевые ядерные объекты Ирана, применив самолёты B-2, в сети начали публиковать фото якобы уничтоженного Ираном бомбардировщика.

Иран сбил B-2 фейк
На снимке якобы уничтоженный иранцами стратегический бомбардировщик В-2 / Фото пользователя Bill The Investor на странице в сети Х

Однако некоторые детали указывают, что фотография не настоящая. Так, ИИ не смог воспроизвести реальные размеры бомбардировщика В-2, ведь его длина достигает 21,03 м, высота — 5,18 м, а размах крыльев — 52,42 м. Учитывая такие параметры, люди, стоящие вровень с бомбардировщиком, должны быть великанами.

Самолёт B-2
Реальные размеры В-2 по отношению к человеческому росту / Фото U.S. Strategic Command

Кроме этого кажется странным, что самолёт отбрасывает тень, а мужчины на фото — нет. А табличка позади них будто зависла в воздухе, ведь она не касается земли.

Иран сбил B-2 фейк
Детали на снимке, указывающие, что его сгенерировали

Сам снимок не распространяли даже иранские чиновники или надёжные международные медиа. Впервые изображение опубликовал пользователь с произраильскими взглядами, о чём упомянуто в подписи к его профилю. В комментарии к посту автор указал, что это сарказм. А на следующий день он снова разместил пост с бомбардировщиком, подписав его так: «Ого. Простите, друзья. Но мне действительно нужно было уточнять, что это подделка?».

 


Как отличить фейковые видео


 

ФЕЙК: Видео разбомбленного Тель-Авива

Через несколько дней обмена ударами в соцсетях начали распространять кадры якобы из Тель-Авива с многочисленными разрушениями домов. Якобы такие разрушения стали результатом иранских атак возмездия.

Разрушенный Тель-Авив фейк
Авторы утверждают, что так выглядит Тель-Авив после разрушительных атак со стороны Ирана / Скриншот Azbuka media на основе публикации Samvel Time в Threads

Однако кадры из ролика тоже не имеют ничего общего с реальностью, его сгенерировали с помощью ИИ. По обратному поиску мы установили, что видео опубликовали ещё 28 мая 2025 года, то есть до начала текущего ирано-израильского конфликта. Telegram-канал, где разместили клип, регулярно распространяет сгенерированный контент.

На видео, которое мы нашли, качество изображения намного лучше, отдельные элементы на нём более чёткие. Так, на седьмой секунде ролика видно, как два авто «сливаются» в одно, что подтверждает тезис о дипфейке.

Разрушенный Тель-Авив дипфейк
Кадры «объединения» двух машин / Коллаж Azbuka media

 


Дипфейки и искусственные изображения — как отличить подделку


 

Как самостоятельно распознать контент, сгенерированный искусственным интеллектом

Сгенерированного ИИ контента становится всё больше, и надо признать, он становится всё качественнее. Причина такого бума дипфейков проста — технологии позволяют делать реалистичные ролики на любые темы. Поэтому некоторые каналы в погоне за лайками и распространением не гнушаются создавать поддельные фото и видео. При этом они намеренно выбирают актуальные темы и придумывают сюжеты, которые действительно могли случиться. Например, последствия обстрела Тель-Авива со стороны Ирана.

Так как же выявить подделку? Сейчас даже программы, которые должны определять дипфейки, не всегда работают корректно. Поэтому лучший инструмент — ваши глаза. Присмотритесь к деталям — нет ли на изображении так называемых «аномалий», то есть странных, искажённых, нереалистичных элементов.

Кроме этого, обращайте внимание на то, кто распространил фотографию / клип. Сейчас существует много групп, которые специализируются на создании ИИ-контента и открыто об этом заявляют. По возможности лучше поискать первоисточник видео или хотя бы проверить публиковали ли ролик официальные ресурсы или надёжные международные медиа.

Еще одним признаком, который может указывать, что контент создан искусственным интеллектом, является низкое качество изображения. Ведь публикующие дипфейки аккаунты намеренно снижают разрешение изображений, чтобы трудно было рассмотреть мелкие элементы, с которыми у ИИ часто возникают проблемы.

Подробнее о том, как распознавать дипфейки, мы рассказывали в предыдущем материале. А проверить свои компетенции в выявлении ИИ-контента можно по ссылке.

 

Понравилась статья? Прочитай другие новости проверенные на фейк или обучись медиаграмотности сам_а!

Ищешь, где смотреть проверенные новости? Подпишись!