С началом масштабного столкновения с Ираном информационное пространство захлестнула волна сгенерированного контента. Поддельные кадры ракетных ударов и апокалиптических разрушений создаются не только иранскими пропагандистами, но и обычными пользователями, которые гонятся за охватами. Алгоритмы искусственного интеллекта позволяют за считанные минуты «нарисовать» трагедию, которой не было в реальности.
Об этом сообщают фактчекеры агентств AFP, Associated Press (AP) и администрация платформы X.
Одним из самых резонансных фейков стало вирусное видео «удара по Тель-Авиву» от 3 марта. На кадрах был запечатлен огненный шквал в густонаселенном районе, собравший миллионы просмотров. Однако внимательный разбор выявил типичные ошибки ИИ: идеально симметричные инверсионные следы ракет, физически невозможные флаги на балконах и странно искаженные солнечные панели на крышах. В реальности в этот день подобных попаданий зафиксировано не было.
Помимо генерации новых изображений, сетевые манипуляторы активно используют метод «цифровой археологии». За свежие удары по Израилю или Катару выдаются кадры пожара на складе красок в Дубае, произошедшего еще 24 ноября 2025 года. Фактчекеры AFP провели геолокацию и подтвердили, что видео не имеет отношения к текущей войне. Кроме того, в ход идут фрагменты из реалистичных видеоигр и архивы прошлых конфликтов, которые выдаются за эксклюзивную хронику с передовой.
Ситуация достигла такого масштаба, что соцсеть X (бывший Twitter) ввела жесткие санкции для авторов, зарабатывающих на монетизации контента. Теперь за публикацию сгенерированных нейросетями кадров без соответствующей маркировки пользователей будут лишать дохода на 90 дней. Повторное нарушение приведет к вечной блокировке возможности заработка. Это попытка остановить тех, кто превращает военную панику в инструмент для личного обогащения.