Не верь глазам своим: как война Израиля и Ирана искажается искусственным интеллектом
Навигация по статье
Ближний Восток снова стал эпицентром глобального напряжения — война Израиля и Ирана сменила собой тлевший годами конфликт двух государств. 13 июня Тель-Авив начал операцию «Восходящий лев». Израильские ВВС атаковали ключевые ядерные объекты Ирана, мотивируя действия тем, что ядерная программа Ирана была на финальном этапе и угрожала безопасности как Израиля, так и региона в целом. В результате ударов погибли высокопоставленные командиры Корпуса стражей исламской революции (КСИР) и ведущие учёные-ядерщики. Иран атаковал в отместку, после чего стороны продолжили обмениваться взаимными ударами.
Последствия обстрелов широко освещали правительства обеих стран, международные и местные медиа. Поэтому сеть заполонили сотни видео и фото, на которых, как утверждается, изображены события ирано-израильской войны лета 2025 года. Однако далеко не все из них являются правдивыми.
Мы расскажем, как искусственный интеллект в ближневосточном конфликте создает альтернативную реальность. А также научим её распознавать, прежде чем она заменит настоящую.
ФЕЙК: Фото сбитого израильского самолета F-35
На третий день противостояния, то есть 16 июня, иранские медиа, ссылаясь на данные армии Ирана, заявили об уничтожении четырёх израильских самолетов F-35, не предоставив никаких доказательств. Израиль назвал такие сообщения фейковыми, добавив, что Иран не сбивал ни одного их самолёта. Несмотря на это, после заявлений Ирана в сети начали распространять фото якобы уничтоженного F-35.

Однако опубликованное изображение кажется нереалистичным, в частности, из-за размеров самолёта. Согласно техническим характеристикам, длина F-35 достигает 15,7 м, высота — около 4,4 м, а размах крыльев — 6,9 м. Исходя из размеров машины относительно людей, стоящих вокруг него, можно сделать вывод, что он значительно превышает указанные для F-35 размеры.

Хвостовое оперение F-35 намного ближе примыкает к крыльям самолёта. А на снимке между ними существенный разрыв, который не может возникнуть даже из-за повреждений.
К тому же рисунок звезды Давида на якобы сбитом F-35 отличается от рисунка на реальных самолётах ВВС Израиля. Так, на самолёте с фейкового снимка на крыле нарисована белая звезда Давида, а на настоящих израильских машинах звезда Давида размещена внутри белого круга.

На снимке люди и расположенные неподалёку от них машины и здания одинаковы по размеру, что также является нереалистичным. Проблемы с пропорциями и мелкими деталями на «фотографии» указывают, что изображение сгенерировали с помощью ИИ, ведь это типичные для искусственного интеллекта ошибки.

Израиль назвал машины скорой помощи и госпитали законными военными целями?
ФЕЙК: Видео массированного обстрела Тель-Авива
На другом фото, которое активно распространяли в сети, якобы был изображён момент массированного обстрела столицы Израиля, Тель-Авива.

По обратному поиску мы нашли видео, с которого сделали скриншот. При детальном изучении становится очевидно, что видео тоже сгенерировано. Несмотря на большое количество боеприпасов, нигде не видно попаданий, повреждения зданий или вспышек ПВО. А человек, который это снимает, несмотря на явную опасность, стоит неподвижно и лишь вертикально перемещает камеру.
Более того, первоисточником изображения с фейковым обстрелом Тель-Авива является канал, который специализируется на создании картинок, сгенерированных ИИ. Автор канала разместил сгенерированное изображение 13 июня, после чего картинку анимировал другой человек и опубликовал ролик, также указав, что это дипфейк.

Как искусственный интеллект помогает распространять дезинформацию
ФЕЙК: Фото уничтоженного Ираном бомбардировщика B-2
После того как в ночь с 21 на 22 июня США атаковали ключевые ядерные объекты Ирана, применив самолёты B-2, в сети начали публиковать фото якобы уничтоженного Ираном бомбардировщика.

Однако некоторые детали указывают, что фотография не настоящая. Так, ИИ не смог воспроизвести реальные размеры бомбардировщика В-2, ведь его длина достигает 21,03 м, высота — 5,18 м, а размах крыльев — 52,42 м. Учитывая такие параметры, люди, стоящие вровень с бомбардировщиком, должны быть великанами.

Кроме этого кажется странным, что самолёт отбрасывает тень, а мужчины на фото — нет. А табличка позади них будто зависла в воздухе, ведь она не касается земли.

Сам снимок не распространяли даже иранские чиновники или надёжные международные медиа. Впервые изображение опубликовал пользователь с произраильскими взглядами, о чём упомянуто в подписи к его профилю. В комментарии к посту автор указал, что это сарказм. А на следующий день он снова разместил пост с бомбардировщиком, подписав его так: «Ого. Простите, друзья. Но мне действительно нужно было уточнять, что это подделка?».
Как отличить фейковые видео
ФЕЙК: Видео разбомбленного Тель-Авива
Через несколько дней обмена ударами в соцсетях начали распространять кадры якобы из Тель-Авива с многочисленными разрушениями домов. Якобы такие разрушения стали результатом иранских атак возмездия.

Однако кадры из ролика тоже не имеют ничего общего с реальностью, его сгенерировали с помощью ИИ. По обратному поиску мы установили, что видео опубликовали ещё 28 мая 2025 года, то есть до начала текущего ирано-израильского конфликта. Telegram-канал, где разместили клип, регулярно распространяет сгенерированный контент.
На видео, которое мы нашли, качество изображения намного лучше, отдельные элементы на нём более чёткие. Так, на седьмой секунде ролика видно, как два авто «сливаются» в одно, что подтверждает тезис о дипфейке.

Дипфейки и искусственные изображения — как отличить подделку
Как самостоятельно распознать контент, сгенерированный искусственным интеллектом
Сгенерированного ИИ контента становится всё больше, и надо признать, он становится всё качественнее. Причина такого бума дипфейков проста — технологии позволяют делать реалистичные ролики на любые темы. Поэтому некоторые каналы в погоне за лайками и распространением не гнушаются создавать поддельные фото и видео. При этом они намеренно выбирают актуальные темы и придумывают сюжеты, которые действительно могли случиться. Например, последствия обстрела Тель-Авива со стороны Ирана.
Так как же выявить подделку? Сейчас даже программы, которые должны определять дипфейки, не всегда работают корректно. Поэтому лучший инструмент — ваши глаза. Присмотритесь к деталям — нет ли на изображении так называемых «аномалий», то есть странных, искажённых, нереалистичных элементов.
Кроме этого, обращайте внимание на то, кто распространил фотографию / клип. Сейчас существует много групп, которые специализируются на создании ИИ-контента и открыто об этом заявляют. По возможности лучше поискать первоисточник видео или хотя бы проверить публиковали ли ролик официальные ресурсы или надёжные международные медиа.
Еще одним признаком, который может указывать, что контент создан искусственным интеллектом, является низкое качество изображения. Ведь публикующие дипфейки аккаунты намеренно снижают разрешение изображений, чтобы трудно было рассмотреть мелкие элементы, с которыми у ИИ часто возникают проблемы.
Подробнее о том, как распознавать дипфейки, мы рассказывали в предыдущем материале. А проверить свои компетенции в выявлении ИИ-контента можно по ссылке.
Понравилась статья? Прочитай другие новости проверенные на фейк или обучись медиаграмотности сам_а!
Ищешь, где смотреть проверенные новости? Подпишись!