«Україна вилучає худобу в селян»: як росіяни поширюють фейки і пропаганду за допомогою ШІ-відео в TikTok

«Україна вилучає худобу в селян»: як росіяни поширюють фейки і пропаганду за допомогою ШІ-відео в TikTok

Фото: Перший Криворізький

Росія використовує штучний інтелект, щоб створювати фейкові відео в соцмережах. Вони показують нібито «звичайних українців», які говорять, що треба віддати частину території за «мир», або українських військових, які нібито скаржаться на проблеми з харчуванням, електрикою чи командуванням.

Розпізнати ШІ-відео можна: штучний інтелект робить обличчя неприродними, міміку монотонною. Голоси ШІ-персонажів розповідають про «беззахисне небо» та «відправку більшості операторів БпЛА на Близький Схід». Також ширяться неправдиві історії про «масове вилучення худоби у селян» — подібні практики насправді фіксуються лише на території Росії.

Мета цієї кампанії — посіяти внутрішній розкол, залякати суспільство і змусити погодитися на умови кремля. Раніше Центр Протидії дезінформації повідомляв, що рф масово використовує дипфейки та ШІ-відео для імітації «голосу народу».


Як пропаганда маніпулює темою проблем українських військових


У TikTok з'явилася нова хвиля відео, створених за допомогою штучного інтелекту, де нібито українські військові критикують співпрацю України з міжнародними партнерами щодо боротьби з іранськими дронами.

Через нові акаунти поширюється дезінформація про «300 військових», яких начебто відправляють у Перську затоку «захищати інтереси депутатів». Також у цих відео закликають припинити мобілізацію, аргументуючи це тим, що військових нібито можуть відправляти за кордон.

Насправді це частина російської пропаганди, яка швидко підлаштовується під актуальні міжнародні події. Використовуючи ШІ, створюється емоційний і маніпулятивний контент, покликаний залякати людей, створити відчуття ослаблення оборони та викликати невдоволення в суспільстві.

Як зазначав Володимир Зеленський, співпраця з партнерами спрямована на посилення української ППО та запобігання розширенню війни. Крім того, офіційно не розголошувалася кількість спеціалістів, яких могли направити на Близький Схід.

ШІ-відео як інструмент дискредитації мобілізації в Україні


У TikTok поширюються відео, створені за допомогою штучного інтелекту, де нібито працівники ТЦК та СП тікають від фізично сильних чоловіків. У деяких роликах навіть видно водяні знаки генераторів, зокрема Sora.

Хоча такі відео подаються як розважальні або жартівливі, вони несуть приховані сенси: виправдовують ухилення від мобілізації, підривають довіру до державних структур і формують викривлене уявлення про мобілізацію як про несправедливе переслідування.

Насправді подібний контент є частиною цілеспрямованої інформаційної кампанії, мета якої — послабити мобілізаційні процеси в Україні. Раніше Центр протидії дезінформації вже повідомляв про схожі відео, де навіть заохочувалося насильство проти представників ТЦК та СП.

Інший випадок: у TikTok з'явилися відео, згенеровані штучним інтелектом, у яких нібито працівники ТЦК та СП утікають від міцних чоловіків. У деяких із них можна помітити водяні знаки генераторів, зокрема Sora.

Попри те, що такий контент подається як гумористичний, він несе приховані меседжі: виправдання ухилення від мобілізації, дискредитацію державних інституцій та створення викривленого образу мобілізації як несправедливого процесу. Насправді ці відео є елементом цілеспрямованої інформаційної кампанії, спрямованої на ослаблення мобілізації в Україні.

Як розпізнати відео, створені штучним інтелектом: 5 простих порад


У сучасному інтернеті не все, що виглядає правдиво, є реальністю. Завдяки розвитку штучного інтелекту з'являється дедалі більше відео, які складно відрізнити від справжніх. Інструменти на кшталт DALL·E та Veo 3 дозволяють створювати дуже реалістичні зображення й відео — і це відкриває не лише творчі можливості, а й ризики поширення фейків.

Ось кілька способів, які допоможуть виявити такі підробки:

1. Звертайте увагу на дивні деталі Навіть якісні ШІ-відео часто мають дрібні помилки: неприродне освітлення, неправильні тіні, дивні руки або пальці, неприродні рухи очей чи міміки. Іноді об'єкти можуть раптово з'являтися або зникати, а фон виглядає спотвореним.

2. Підозріло «ідеальна» картинка ШІ часто створює надто гладкі й бездоганні сцени: ідеальне небо, дзеркальну воду або занадто плавні рухи. Також персонажі можуть виглядати неприродно — наприклад, майже не кліпати або рухатися «як роботи».

3. Перевіряйте логіку подій Іноді у відео порушується елементарна логіка: люди не реагують на небезпеку або поводяться неприродно в критичних ситуаціях. Це може бути сигналом, що перед вами штучно створений контент.

4. Аналізуйте джерело та контекст Якщо відео показує нібито важливу подію, але про неї не пишуть авторитетні медіа — це привід насторожитися. Також підозріло виглядає масова поява «якісних» відео з нових акаунтів.

5. Використовуйте спеціальні інструменти Для перевірки можна застосовувати сервіси на кшталт InVID або Deepware Scanner, які допомагають аналізувати відео, перевіряти метадані та знаходити ознаки штучного походження.

Додатково: шукайте підказки від авторів Іноді творці самі вказують, що контент згенерований ШІ — у вигляді підписів, назв файлів або водяних знаків. Наприклад, у відео можуть бути позначки про використання AI або спеціальні цифрові маркери.

Роспропаганда адаптує наративи під міжнародний контекст, намагаючись налякати суспільство «послабленням обороноздатності» і спровокувати протестні настрої. Насправді всі ці ролики — штучно створені, про це свідчать неприродні рухи обличчя, і дефекти зображення. Мета росіян — деморалізувати суспільство, підірвати довіру до ЗСУ та створити враження катастрофи.

Посилання скопійовано в буфер обміну