«Украина изымает скот у крестьян»: как россияне распространяют фейки и пропаганду с помощью ИИ-видео в TikTok
Фото: Первый Криворожский
Распознать ИИ-видео можно: искусственный интеллект делает лица неестественными, мимику монотонной. Голоса ИИ-персонажей рассказывают о «беззащитном небе» и «отправке большинства операторов БПЛА на Ближний Восток». Также распространяются ложные истории о «массовом изъятии скота у крестьян» — подобные практики на самом деле фиксируются только на территории России.
Цель этой кампании — посеять внутренний раскол, запугать общество и заставить согласиться на условия Кремля. Ранее Центр противодействия дезинформации сообщал, что РФ массово использует дипфейки и ИИ-видео для имитации «голоса народа».
Как пропаганда манипулирует темой проблем украинских военных
В TikTok появилась новая волна видео, созданных с помощью искусственного интеллекта, где якобы украинские военные критикуют сотрудничество Украины с международными партнёрами по борьбе с иранскими дронами.
Через новые аккаунты распространяется дезинформация о «300 военных», которых якобы отправляют в Персидский залив «защищать интересы депутатов». Также в этих видео призывают прекратить мобилизацию, аргументируя это тем, что военнослужащих якобы могут отправлять за границу.
На самом деле это часть российской пропаганды, которая быстро адаптируется под актуальные международные события. Используя ИИ, создаётся эмоциональный и манипулятивный контент, призванный запугать людей, создать ощущение ослабления обороны и вызвать недовольство в обществе.
Как отметил Владимир Зеленский, сотрудничество с партнёрами направлено на усиление украинской ПВО и предотвращение расширения войны. Кроме того, официально не разглашалось количество специалистов, которые могли быть направлены на Ближний Восток.
ИИ-видео как инструмент дискредитации мобилизации в Украине
В TikTok распространяются видео, созданные с помощью ИИ, где якобы сотрудники ТЦК и СП убегают от физически сильных мужчин. В некоторых роликах видны водяные знаки генераторов, в частности Sora.
Хотя такие видео подаются как развлекательные или шутливые, они несут скрытые смыслы: оправдание уклонения от мобилизации, подрыв доверия к государственным структурам и формирование искажённого представления о мобилизации как о несправедливом процессе.
На самом деле такой контент является частью целенаправленной информационной кампании, цель которой — ослабить мобилизационные процессы в Украине. Ранее Центр противодействия дезинформации уже сообщал о похожих видео, где даже поощрялось насилие против представителей ТЦК и СП.
Другой случай: в TikTok появились видео, сгенерированные ИИ, где якобы сотрудники ТЦК и СП убегают от крепких мужчин. В некоторых из них видны водяные знаки генераторов, включая Sora.
Хотя контент подается как юмористический, он несет скрытые послания: оправдание уклонения от мобилизации, дискредитация государственных институтов и создание искаженного образа мобилизации как несправедливого процесса. На самом деле эти видео являются элементом целенаправленной кампании по ослаблению мобилизации в Украине.
Как распознать видео, созданные ИИ: 5 простых советов
В современном интернете не всё, что выглядит правдоподобно, является реальным. Благодаря развитию ИИ появляется всё больше видео, которые трудно отличить от настоящих. Инструменты вроде DALL·E и Veo 3 позволяют создавать очень реалистичные изображения и видео — что открывает не только творческие возможности, но и риски распространения фейков.
Вот несколько способов распознать такие подделки:
-
Обращайте внимание на странные детали
Даже качественные ИИ-видео часто содержат мелкие ошибки: неестественное освещение, неправильные тени, странные руки или пальцы, неприродные движения глаз и мимики. Иногда объекты могут внезапно появляться или исчезать, а фон выглядит искажённым. -
Подозрительно «идеальная» картинка
ИИ часто создаёт слишком гладкие и безупречные сцены: идеальное небо, зеркальная вода или слишком плавные движения. Также персонажи могут выглядеть неестественно — почти не моргать или двигаться «как роботы». -
Проверяйте логику событий
Иногда в видео нарушается элементарная логика: люди не реагируют на опасность или ведут себя неестественно в критических ситуациях. Это может быть сигналом, что перед вами искусственно созданный контент. -
Анализируйте источник и контекст
Если видео якобы показывает важное событие, но о нём не пишут авторитетные СМИ — это повод насторожиться. Также подозрительно выглядит массовая публикация «качественных» видео с новых аккаунтов. -
Используйте специальные инструменты
Для проверки можно применять сервисы вроде InVID или Deepware Scanner, которые помогают анализировать видео, проверять метаданные и выявлять признаки искусственного происхождения.
Российская пропаганда адаптирует нарративы под международный контекст, пытаясь запугать общество «ослаблением обороноспособности» и спровоцировать протестные настроения. На самом деле все эти ролики — искусственно созданные, о чём свидетельствуют неестественные движения лиц и дефекты изображения. Цель россиян — деморализовать общество, подорвать доверие к ВСУ и создать впечатление катастрофы.