Spilnota Detector Media

Фейкороби змонтували відео про депортацію українців із Канади з їх заміною на індійців

Російська пропаганда поширює неправдиву інформацію про нібито заяву прем’єр-міністра Канади Марка Карні щодо депортації українських біженців, які ухиляються від мобілізації. У соціальних мережах активно циркулює відео з виступом політика, до якого додали вигаданий переклад його слів російською мовою. У ролику Карні нібито каже, що Канада «висилатиме всіх українців, які мають бути на фронті», а замість них прийматиме «дешевших і старанніших індусів». Насправді ж це маніпуляція — жодних подібних заяв прем’єр не робив. Фейк спростували фактчекери StopFake.

Насправді відео є монтажем. Кадри взяті з виступу Марка Карні на виїзному засіданні Ліберальної партії Канади, що відбулося 10 вересня 2025 року в місті Едмонтон. У ролику з фейковим перекладом справді чути початок його промови, де він говорить англійською: «This won’t always be easy» («Це не завжди буде легко»). Саме ця фраза допомогла фактчекерам знайти оригінальний запис, оприлюднений телеканалом CBC News.

На відео видно, що інтонація, жести й напрямок погляду прем’єра збігаються з моментом у справжній промові. Однак подальші слова політика не мають нічого спільного з тим, що поширюють пропагандистські ресурси. У реальності Марк Карні говорив про виклики, пов’язані зі змінами у світовій економіці та новою торговельною політикою Сполучених Штатів.

«Ми маємо й надалі бути чесними з канадцями: це не завжди буде легко. США фундаментально трансформують усі свої торговельні відносини не лише з Канадою. Наслідки цього глибокі — скорочуються робочі місця, порушуються ланцюжки постачання, зростає невизначеність, що стримує інвестиції та збільшує рівень безробіття», — йдеться у справжньому виступі прем’єр-міністра Канади.

У жодному фрагменті його промови, що триває майже 25 хвилин, немає згадок про депортацію українців чи інші подібні висловлювання. Отже, поширюване відео є навмисною підробкою, створеною для дискредитації українських біженців і розпалювання ворожнечі.

Раніше StopFake вже спростовував схожі вигадки про Канаду, зокрема неправдиву інформацію про нібито створення спеціальної програми евтаназії для українських біженців.

Фейк: український військовий нібито вбив побратима через крадіжку золота

Російські пропагандистські телеграм-канали поширюють фейк, у якому український військовий нібито допитує іншого про вбивство побратима через вкрадене золото. Експерти VoxCheck розвінчали цей відеофейк.

Скриншот одного з пропагандистських телеграм-каналів, що поширив відеофейк

Походження фейку

Відео, яке активно поширюється російськими джерелами, зображує сцену, де один військовий нібито розпитує іншого про вбивство їхнього товариша через конфлікт щодо поділу вкраденого золота. Проте в українському інформаційному просторі жодних згадок про такий інцидент немає. Відео з’явилося виключно в російських джерелах, що вказує на його пропагандистське походження.

Ознаки фейку

Експерти VoxCheck наводять такі докази того, що відео створене за допомогою штучного інтелекту (ШІ):

  • Візуальні ознаки ШІ: Обличчя військового виглядає глянцевим і нагадує накладену маску. Під час розмови помітно, що зуби персонажа періодично зникають, що є типовою помилкою ШІ-генерації.
  • Озвучка: Голос за кадром звучить неприродно — надто швидко, рівно, без інтонаційних змін, що характерно для автоматично згенерованого аудіо.
  • Відсутність ідентифікації: На формі військового, крім синіх стрічок, немає жодних шевронів чи інших розпізнавальних знаків, що не відповідає стандартам ЗСУ. Місце знімання також неможливо ідентифікувати, що є типовою ознакою постановних відео.

Це відео є частиною російської дезінформаційної кампанії, спрямованої на дискредитацію Збройних сил України. Щотижня фактчекери знаходять приклади фейків, спрямованих проти українських військових

Дипфейк: Мая Санду не називала Грузію «російською колонією»

28-29 вересня 2025 року грузинсько- та російськомовні акаунти у фейсбуці, а також російські пропагандистські медіа поширили фейкову інформацію, стверджуючи, що президентка Молдови Мая Санду під час одного з виступів у ході виборчого процесу в Молдові назвала Грузію «російською колонією». Деякі дописи супроводжувалися відео, на якому Санду нібито говорить румунською мовою, а російські субтитри приписують їй слова: «Ми бачимо на власні очі, як Грузія, зневажаючи європейські цінності, знову стала російською колонією. Грузинський уряд позбавив народ шансу на процвітаюче майбутнє в Європейському Союзі». Фейк спростували грузинські експерти з Mythdetector

Скриншоти пропагандистських медіа, що "розганяли" дипфейк із вигаданою цитатою Санду
Скриншоти грузинськомовних сторінок на фейсбуці, що поширювали фейк

Утім, поширене відео є дипфейком, створеним за допомогою штучного інтелекту для маніпуляції промовою Маї Санду від 29 серпня 2025 року. У справжній промові, доступній на її офіційній сторінці у фейсбуці, президентка не згадує Грузію і не називає її «російською колонією». Оригінальне відео триває 2 хвилини 28 секунд і містить заклик до молдован зробити правильний вибір на виборах, що визначать майбутнє країни. Візуальні елементи у дипфейку, як-от одяг Санду та фон, збігаються з промовою від 29 серпня, що підтверджує факт маніпуляції.

Оригінал промови Санду, опублікований на офіційній сторінці у фейсбуці

Докази маніпуляції

Грузинські фактчекери з Mythdetector проаналізували відео за допомогою інструментів виявлення штучного інтелекту Hive Moderation та Invid. Результати показали, що аудіо містить 91-99% слідів AI-маніпуляцій, а відео — 91,5-98% ознак дипфейк-технологій. Візуальний аналіз також виявив недоліки: неприродні рухи рота, голови та очей Санду, невідповідні вирази обличчя та моменти, коли її зуби зникають. Аудіо відрізняється від стилю мовлення президентки, з неприродними паузами та тоном.

Скриншот аналізу відео за допомогою інструменту Hive Moderation

Жодні авторитетні джерела, включно з офіційними сторінками Маї Санду в іксі та фейсбуці чи місцевими молдовськими медіа, не підтверджують, що вона називала Грузію «російською колонією». Дописи на іксі, які посилаються на цю заяву, спираються виключно на маніпульоване відео і не мають незалежного підтвердження.

Фейкове відео може бути частиною ширшої кампанії, спрямованої на розкол молдовського суспільства, посилення поляризації або мобілізацію проросійських виборців перед виборами до парламенту Молдови, що пройшли 28 вересня. 

Замість новин тікток підсунув аналітикам 30 фейків і маніпуляцій за 48 годин

Протягом двох днів тікток запропонував експертам Інституту масової інформації щонайменше 30 неправдивих відео, пов’язаних з Україною. Серед них виявлено фейки про «змову Заходу», «неминучу перемогу Росії», а також ролики, спрямовані на дискредитацію української влади та Сил оборони. Частину цього контенту створили колишні українські політики, відомі проросійською позицією. Такі відео часто маскуються під аналітику, використовуючи клікбейтні заголовки та емоційні маніпуляції, поширюють панічні меседжі й формують ілюзію безсилля держави.

У межах дослідження проаналізовано відео, які алгоритми тіктоку пропонували українським користувачам для перегляду 9–10 вересня 2025 року за найпоширенішими гештегами, пов’язаними з Україною та новинами про неї. Загалом перевірено добірки за тегами «Україна», «Україна новини», «новини Україна сьогодні» та аналогічними російською мовою. У кожному випадку платформа пропонувала близько 145 відео, причому зміст добірок був майже однаковий.

Дослідники виявили 30 відео, що містили дезінформацію: 17 із них класифіковані як фейки, 13 — як маніпуляції. Це свідчить про системне поєднання відвертої брехні з напівправдою, яка видається за прогнози чи «експертні» оцінки. У маніпулятивних роликах блогери й псевдоексперти поширювали тези про «змову Заходу», «зраду української влади» чи «неминучу поразку України», часто використовуючи формат особистої думки, емоційні узагальнення або вирвані з контексту цитати.

Серед поширюваних фейків є відео про нібито загибель українських політиків, «розподіл України» між Росією та союзниками, відсутність світла й тепла, а також підроблені новини, створені за допомогою штучного інтелекту. У таких роликах використовуються змонтовані сюжети, синтезовані голоси, клікбейтні підписи й конспірологічні теорії.

Експерти ІМІ пишуть, що  тікток став майданчиком, де активно поширюється дезінформація про війну Росії проти України. Поєднання технологічної простоти платформи з емоційними меседжами робить ці відео особливо небезпечними, адже значна частина користувачів сприймає тікток як розважальний ресурс, не очікуючи там маніпулятивної чи пропагандистської складової.

Російська пропаганда використовує дипфейк української активістки, щоб посварити Польщу та Україну

У TikTok поширюється відео, в якому українська активістка Наталія Панченко нібито ображає поляків, називаючи їх «невпевненими мудаками, яким потрібен ворог, щоб почуватися важливими» та стверджуючи, що «якщо Україна впаде, Путін знищить і Польщу». Як встановили фактчекери Demagog це відео є дипфейком – штучно створеним контентом, згенерованим за допомогою штучного інтелекту, який маніпулює зображенням і голосом Наталії Панченко. Відео з’явилося в той же день, коли російські дрони порушили повітряний простір Польщі, щоб посилити антиукраїнські настрої у польських соцмережах.

Скриншот підробного відео з ТікТоку. Джерело: Demagog

Чому це діпфейк?

  • Неприродна мова та синхронізація: У відео помітна неприродна вимова, а рухи губ не відповідають сказаним словам – це типові ознаки маніпуляції, створеної штучним інтелектом.
  • Технічний аналіз: Фактчекери з Demagog використали інструмент InVID для перевірки відео. Аналіз показав із 95% ймовірністю, що звук у відео був згенерований штучно, та накладений на відео.
Результати аналізу звукової доріжки за допомогою InVID показали, що вона є штучно накладеною на відео. Джерело: Demagog

Громадська ініціатива Євромайдан-Варшава, яку очолює Наталія Панченко, опублікувала заяву у Facebook, категорично спростовуючи автентичність відео та попереджаючи про його роль у дезінформаційній кампанії. За заявою Євромайдан-Варшава, це свідома спроба підірвати єдність між поляками та українцями, послабити підтримку України та дестабілізувати регіональні альянси:

«Ми не сумніваємося, що ця скоординована кампанія є частиною російської стратегії, спрямованої на розкол поляків і українців та послаблення нашої єдності. Ми не дозволимо себе розділити. Разом ми сильніші».

Російська пропаганда використовує діпфейки та дезінформацію, щоб розпалювати напруженість між союзними країнами, такими як Польща та Україна, підриваючи довіру та співпрацю. Хибні наративи, що зображують українців як невдячних чи ворожих, спрямовані на зменшення міжнародної допомоги та солідарності з Україною під час війни з Росією. Дипфейки це дешевий і ефективний інструмент для маніпулювання громадською думкою.

Сирський та Єрмак нібито «обговорюють хабарі» сенатору Грему за зброю зі США - розвінчано фейк

Російські ЗМІ, Telegram-канали та боти в соцмережі X поширюють відео, яке нібито отримало турецьке пропагандистське видання «Aydınlık». На це звернули увагу аналітики «Укрінформу».

У ролику, як стверджується, головнокомандувач ЗСУ Олександр Сирський і голова Офісу Президента України Андрій Єрмак обговорюють постачання зброї зі США. Обидва начебто скаржаться на сенатора Ліндсі Грема, який, за їхніми словами, отримує «відкати» від України, але не забезпечує достатніх обсягів зброї, що нібито заважає українському керівництву заробляти на цих постачаннях.

Скриншот Аргументы и Факты 

Як заззначено в матеріалі Укрінформу, це відвертий фейк. Відео є дипфейком, створеним за допомогою штучного інтелекту. Голоси в ролику російськомовні, не відповідають оригінальним голосам Сирського та Єрмака, а міміка обличчя, схожого на голову ОПУ, виглядає неприродно — верхня третина обличчя взагалі не рухається.

Скриншот DeepFack-o-meter
Скриншот DeepFack-o-meter

Аналіз сервісу DeepFack-o-meter підтверджує, що відео підроблене. Платформа використовує кілька ШІ-ботів, навчених на величезній базі фейкових матеріалів, які аналізують аудіо, міміку та піксельні помилки. За їхніми оцінками, відео є дипфейком із ймовірністю 89.9–99.9%.

Частина кадрів із Сирським запозичена з його реальних доповідей річної давнини, але голос замінено штучною аудіодоріжкою.

Скриншот Freedom

Джерело фейку — видання «Aydınlık» — відоме своєю антиукраїнською риторикою та співпрацею з російською пропагандою. На сайті видання регулярно з’являються вигадки про Україну, які повторюють кремлівські наративи, наприклад, про нібито причетність Києва до теракту в «Крокус Сіті Хол» чи зв’язки з ІДІЛ. «Aydınlık» також передруковує заяви російських посадовців, таких як Дмитро Мєдвєдєв чи Марія Захарова. Власник видання, Догу Перінчек, підтримує зв’язки з ідеологом російського нацизму Олександром Дугіним, а його син Мехмет хвалився дружбою з дочкою Дугіна Дар’єю.

Скриншот Aydınlık

Цей фейк спрямований на просування російських наративів про корупцію в українській владі та армії, а також на дискредитацію України в очах міжнародної спільноти щодо західної підтримки.

Росіяни поширюють фейкове відео глави Херсонської ОВА про нібито «здачу Херсонщини» росіянам

У пропагандистському телеграм-каналі, пов'язаному з окупаційними силами, з'явилося відео, де нібито голова Херсонської обласної військової адміністрації (ОВА) Олександр Прокудін погоджується на «звільнення» правобережжя регіону — насправді ж, на окупацію росіянами. На вкид звернули увагу у виданні Kavun.City.

Аналіз від Kavun.City показує, що це типова ворожа провокація, а ролик створено за допомогою штучного інтелекту. 

Анонімні проросійські ресурси поширили «витік» — текстовий опис і відео, яке приписують «джерелам» у ХОВА. У фейку Прокудіну вклеюють фрази про «евакуацію» цивільних, «відведення» Збройних сил України (ЗСУ) та «угоди» від Києва щодо «мирної здачі» правого берега Дніпра. Такі канали вже не раз намагалися дискредитувати херсонське керівництво, поширюючи брехню про регіон.

Скриншот пропагандистського допису від Kavun.City
Скриншот пропагандистського допису від Kavun.City
Скриншот пропагандистського допису від Kavun.City

Крім того, Kavun.City раніше розкривало зв'язки цього каналу з Костянтином Шульгою — херсонцем, підозрюваним у колабораціонізмі. Зараз він переховується в Росії або на тимчасово окупованій території Херсонщини. Ця «операція» — черговий елемент інформаційної війни, спрямований на сіяння хаосу серед українців.

Вкиди слугують для «картинки успіху» в російських ЗМІ — нібито «Україна здається». Це підтримує мораль окупантів, виправдовує втрати та мобілізацію.

Фейки про «мирні домовленості» чи «евакуацію» можуть вплинути на Захід, створюючи враження, що Україна «не тримається» і потребує «переговорів». Це ослаблює підтримку (зброя, санкції).

Фейкове відео про «евакуацію» чи «відведення ЗСУ» з правобережжя Херсонщини може спровокувати масову паніку — люди можуть почати тікати, створюючи затори, перевантаження ресурсів та дезорганізацію. Це ослаблює оборону та полегшує ворогу просування.

Трамп нібито шкодує про допомогу Україні та називає її «злиденною» — розвінчано вкид

Кремлівські телеграм-канали та акаунти в соціальних мережах активно поширюють фейкову інформацію, нібито президент США Дональд Трамп назвав Україну «злиденною країною» та висловив жаль щодо наданої їй допомоги. Як «підтвердження» вони наводять відредаговане відео з Трампом, де його слова нібито перекладені російською.

На це звернули увагу аналітики проєкту StopFake.

У фальшивому перекладі Трамп нібито заявляє: «Набагато правильнішою позицією було б не віддавати мільярди доларів цій злиденній країні. Подивіться, що зараз станеться… Це мій власний аналіз, і ви, як і я, зможете побачити це вже найближчим часом. Україна програє цю війну, Путін матиме величезний вплив на Європу та інші процеси у світі. Ми від початку підтримали не ту сторону, не ту позицію. Ми зараз знаходимося на одному боці з тими, хто програв».

Цей контент активно поширюється в інстаграмі й телеграмі.

Скриншот з Instagram
Скриншот з телеграму

Насправді опубліковане пропагандистами відео — це уривок із зустрічі Трампа з президентом Польщі Каролем Навроцьким у Білому домі 3 вересня 2025 року, де американський лідер спілкувався з пресою. У фейковому ролику чутно лише початок фрази Трампа: «We are in much better position» («Ми перебуваємо в набагато кращому становищі»). Після цього запис обривається і починається вигаданий російський переклад. Фактчекери зі StopFake проаналізували повну трансляцію від Associated Press і з'ясували, що в оригіналі слова Трампа зовсім інші.

Трамп насправді відповідав на запитання журналістів щодо запровадження мит на імпорт з різних країн та розгляду цієї теми у Верховному суді США. Ось його реальні слова: «Ми в набагато кращому становищі. До нашої країни надходять трильйони доларів. Якби не було мит, ми були б дуже бідною країною, і нами користувалися б усі інші країни світу, як друзі, так і вороги. Ми не дозволимо цьому статися. І в нас дуже, дуже серйозна справа у Верховному суді».

Жодних згадок про Україну чи критику допомоги їй не було ні в цьому уривку, ні в інших частинах зустрічі з Навроцьким чи пресконференції. Російська агітаційна машина просто вигадала ці слова, щоб дискредитувати Україну та підірвати довіру до міжнародної підтримки. Цікаво, що такий самий фальшивий ролик активно циркулював у грузинському сегменті фейсбуку, на що звернули увагу фактчекери з Myth Detector.

Фейки про те, що Трамп (як ключовий гравець у США) нібито шкодує про «мільярди доларів" для «злиденної» України, спрямовані на те, щоб переконати американську аудиторію (зокрема, консерваторів і прихильників Трампа) у марності та шкідливості допомоги. Це частина ширшої кампанії Кремля, яка після перемоги Трампа у 2024 році посилилася, щоб «відрізати» Україну від зброї та фінансів, полегшивши російське просування. Російська дезінформація розрахована на ерозію підтримки України після повернення Трампа до Білого дому, використовуючи фейкові відео та наративи про корупцію чи «неонацистів» в Україні.

Знову фейк про підготовку Польщі до нападу на Україну

У мережі поширюють відео з військовою технікою, яка рухається вулицями Польщі. Автор ролика стверджує, що це підготовка країни до вторгнення в Україну. Насправді ж ідеться про підготовку до військового параду з нагоди Дня Війська Польського. Фейк викрили VoxCheck.

Відео опублікував тікток-акаунт @fsbtop2, який систематично поширює проросійські наративи та конспірологічні теорії. Зокрема, там можна знайти твердження, що українців нібито використовують як «гарматне м’ясо», що президент Володимир Зеленський воює до «останнього українця», а також абсурдні історії про «утилізацію» людей за допомогою 5G.

Джерело: VoxCheck 

У профілі автора також розміщене інше відео від 15 серпня 2025 року, де видно військову техніку та пам’ятник. Завдяки зворотному пошуку вдалося з’ясувати, що це пам’ятник «Слава саперам» у парку маршала Едварда Ридза-Сміглого у Варшаві.

Того ж дня у Польщі відбувся військовий парад, присвячений Дню Війська Польського. Він проходив уздовж західної частини Віслостради — швидкісної дороги у Варшаві поруч із цим пам’ятником. Це підтверджує, що відео було знято саме під час підготовки до святкового параду.

Наратив про нібито плани Польщі здійснити напад на Україну є елементом російської пропаганди, яка має на меті посварити українців і поляків та підірвати стратегічні відносини між двома державами.

Відеофейк: «Жителі Одеси просять допомоги у Путіна»

9–11 серпня 2025 року грузинськомовні та російськомовні акаунти у Facebook поширили відео, яке нібито знято на мітингу в Одесі, Україна. На відео видно групу людей із українськими прапорами, які, за твердженням авторів постів, скандують «Путін, допоможи нам!». Один із постів супроводжується підписом «Одеса — російське місто». Відео також було опубліковано 8 серпня в TikTok акаунтом sasha1111z, а згодом поширилося в Instagram та YouTube. На момент аналізу лише в TikTok воно зібрало 4,2 мільйона переглядів. У коментарях російськомовні акаунти стверджують, що «українці прокинулися». Відеофейк розвінчали експерти грузинського проєкту mythdetector

Скриншоти акаунтів у фейсбуці, що поширювали відеофейк

Насправді відео є сфабрикованим і не відображає реальних подій, які воно нібито ілюструє. Кадри взяті з «Вишиванкового мегамаршу», що відбувся в Одесі 28 червня 2014 року, у День Конституції України. Цей марш, у якому взяли участь до 1500 осіб, був проукраїнським заходом, де учасники в традиційному українському одязі скандували патріотичні гасла, такі як «Єдина, соборна, вільна Україна!», «Слава Україні! Слава героям!», а також виконували гімн України. Це підтверджують численні репортажі українських медіа.

Аудіозапис із криками «Путін, допоможи нам!» не належить до цього відео. Він був узятий із зовсім іншої події — мітингу в місті Орськ, Росія, що відбувся 8 квітня 2024 року, про що повідомляла Deutsche Welle. Аудіозапис штучно накладено на відео з Одеси, щоб створити хибне враження, ніби українці звертаються за допомогою до президента Росії.

Цей відеофейк є прикладом дезінформації, що використовує реальні кадри, але з маніпулятивно доданою аудіодоріжкою. Мета такої маніпуляції — створити хибне враження про настрої в Україні та просувати наратив про «російську Одесу». 

Розвінчано фейк про блокування SIM-карт під час повітряної тривоги

У мережі з’явилася інформація, що уряд нібито ухвалив рішення №395 про блокування SIM-карт без верифікації під час повітряної тривоги. Повідомляється, що Міністерство цифрової трансформації разом із мобільними операторами запустило систему, яка забезпечує доступ до зв’язку під час тривоги та захищає SIM-карти від блокування.

На це звернула увагу команда VoxCheck

Насправді це фейкове відео. Уряд не ухвалював жодних рішень щодо блокування SIM-карт під час повітряних тривог, а Мінцифри не розробляло систем для збереження зв’язку в таких умовах. Аудіодоріжка цього ролика була створена за допомогою штучного інтелекту.

Як стверджують аналітики, відео поширюється через тікток-канал «top_news_uaa», який регулярно публікує фейкові повідомлення про нібито грошові виплати від українських мобільних операторів. Для створення контенту автори використовують ШІ, включаючи згенероване аудіо, уривки новин та дипфейки з людьми, які нібито озвучують інформацію.

VoxCheck проаналізував ролик за допомогою сервісу Hive Moderation і підтвердив, що аудіодоріжка створена нейромережею.

На сайті Кабінету Міністрів є документи під номером 395, але вони стосуються, наприклад, оренди майна, призначення заступника міністра оборони чи присвоєння рангів держслужбовцям. Жоден із них не пов’язаний із блокуванням SIM-карт під час тривог.

Мінцифри також не повідомляло про співпрацю з операторами щодо спеціальних систем для зв’язку під час тривог. Хоча в Україні обговорюють можливість вибіркового відключення зв’язку через використання росіянами українських SIM-карт у БПЛА, конкретних рішень із цього питання ще не прийнято.

Мета поширення неправдивих новин — викликати паніку серед населення, посіяти недовіру до державних інституцій, таких як уряд чи Мінцифри, та підірвати стабільність у суспільстві. Фейки часто вписуються в ширші російські наративи, наприклад, про «утиски» громадян чи «неефективність» Української держави.

П'ять способів розпізнати відео, згенеровані штучним інтелектом

Фатіма Квадрі, фактчекер The FactCheckHub

Те, що ви бачите в інтернеті, може виявитися неправдою — в епоху штучного інтелекту він може легко вас обдурити.

Ця стаття допоможе вам навчитися розпізнавати відео, створені за допомогою таких інструментів, як DALL·E (який генерує зображення, часто змонтовані у відеопослідовності) та Veo (який створює цілі відеосцени за запитом).

З швидким розвитком штучного інтелекту інтернет наповнюється відеороликами, які виглядають справжніми, але насправді такими не є. Від фейкових інтерв'ю до синтетичних новинних сюжетів — дипфейки стали настільки складними для виявлення, що вже не видають себе незграбними посмішками чи скутими жестами. Тепер вони настільки переконливі, що для їх розпізнання потрібно більше, ніж просто помічати нерівності або дивні посмішки.

Такі інструменти, як DALL·E та Veo 3, можуть створювати приголомшливі візуальні ефекти та кінематографічні відео лише за простим запитом. Хоча ця технологія відкриває нові творчі можливості, вона також несе значні ризики. Проблема полягає в тому, що ці відео часто майже неможливо відрізнити від справжніх.

Скріншот відео з X

Наприклад, уважний розгляд відео, опублікованого користувачем іксу в червні, яке показувало журналістку, що повідомляє про повінь у нігерійському місті Абеокута, виявляє окремі, але показові ознаки створення штучним інтелектом. Попри людиноподібні рухи та природне звучання мови, деякі невідповідності видали підробку. Зокрема, під час швидкого повороту ведучої в її руці раптом з'явилася парасолька, хоча секундою раніше її там не було.

Крім того, її байдужа реакція на падіння людини поруч — інцидент, який зазвичай викликав би занепокоєння — також свідчить про неавтентичну людську поведінку у відео. Існує багато прикладів таких відео, які стали вірусними.

Скріншот відео з Facebook

Інший приклад — це відео, що показує обвал естакади. Хоча пейзаж і конструкція виглядають реалістично, поведінка білого автомобіля, що їде до обваленої ділянки, неправдоподібна — це не та поведінка, яку можна очікувати перед лицем небезпеки.

Розпізнання контенту, створеного штучним інтелектом, — це не просто корисна навичка, це критично важлива навичка.

Шукайте візуальні аномалії

Відео, створені штучним інтелектом, хоча й стають дедалі досконалішими, часто виявляють свою штучну природу через тонкі збої та невідповідності. Зверніть увагу на дивне освітлення або невідповідні тіні, спотворені руки або пальці (поширене явище в перетвореннях зображення у відео DALL·E), неприродні рухи очей або кліпання, а також деформовані об'єкти на задньому плані.

В інструментах на кшталт Veo 3 роботоподібні рухи тіла, надто плавні переходи, змінені або незв'язні субтитри та звук, який звучить надто ідеально або не має фонового шуму, — все це може сигналізувати про синтетичний контент. Навіть складні сцени можуть містити об'єкти, які непослідовно розміщені або освітлені, тому ретельне спостереження є важливим.

Бездоганно, але це підробка

Veo, особливо в останній версії (Veo 3), може генерувати кінематографічні сцени з гіперреалізмом, але результати часто містять тонкі ознаки підробки. Зверніть увагу на надто ідеальні середовища, такі як бездоганно чисте небо, дзеркально гладка вода або неприродно плавний рух.

Переходи між сценами або кутами камери також можуть здаватися різкими або роботоподібними. Самі актори можуть не кліпати, не дихати або рухатися не зовсім природно, створюючи моторошне відчуття. Veo 3 навіть може створювати сценарії, які суперечать логіці або фізиці — подумайте про неймовірні події, бездоганних персонажів або фони з дивними повторюваними візерунками, які не належать до реальних умов.

Контекст також важливий. Veo 3, наприклад, є платним інструментом, тому раптовий потік коротких високоякісних відео навколо екстрених новин може сигналізувати про залучення штучного інтелекту.

Недавнім прикладом є аварія на естакаді в місті Насарава у центральній Нігерії, де циркулювали зображення, створені штучним інтелектом, щоб підтвердити це твердження. Однак The FactCheckHub виявив, що ці візуальні матеріали були оманливими.

Аналогічно, якщо відео нібито показує важливу подію, але про неї не повідомляє жодне авторитетне видання, це може бути тривожним сигналом.

Перевіряйте метадані

Такі інструменти, як InVID, можуть допомогти перевірити автентичність відео шляхом витягування метаданих, таких як часові позначки, GPS-координати та інформація про пристрій. Відео, створені штучним інтелектом, часто не містять цих даних або включають розпливчасті, загальні теги. Якщо у вас є доступ до оригінального файлу відео, перевірте його метадані на предмет таких ознак, як «Veo», «Gemini» або «Google AI».

Пам'ятайте, що метадані можуть бути видалені або змінені, тому це не повинно бути єдиним способом перевірки.

Використовуйте інструменти виявлення ШІ

Кілька інструментів можуть допомогти виявити медіаконтент, створений або змінений штучним інтелектом. Deepware Scanner призначений для виявлення дипфейкових змін обличчя, тоді як Hive Moderation використовує виявлення штучного інтелекту для позначення ймовірно синтетичних зображень або кадрів відео. InVID особливо корисний для перевірки відео, уможливлюючи покадровий аналіз та витягування метаданих. Ще один зручний інструмент — AI or Not, який допомагає визначити, чи було зображення або відео створене за допомогою штучного інтелекту.

Шукайте дисклеймери

Деякі творці добровільно позначають або ставлять водяні знаки на контент, створений штучним інтелектом, тому варто уважно подивитися. Шукайте фрази на кшталт «створено за допомогою штучного інтелекту», «створено за допомогою DALL·E» або «Veo3» у підписах, назвах файлів або описах проєктів, особливо якщо вони містять мову у стилі запитів.

Google вбудовує як видимі, так і невидимі водяні знаки в кожне відео Veo 3. Ви можете помітити маленькі логотипи або текст «Створено штучним інтелектом» у кадрі. Більш тонко, відео Veo 3 містять SynthID — невидимий цифровий підпис, який можна виявити лише спеціалізованими інструментами. Хоча широка громадськість не має доступу до сканерів SynthID, деякі фактчекери та організації можуть використовувати їх для перевірки походження відео.

Висновок

Виявлення контенту, створеного штучним інтелектом, стає все складнішим, оскільки технологія продовжує розвиватися. Однак, поєднуючи пильне спостереження з правильними інструментами та ставлячи під сумнів контент, якому не вистачає достовірного контексту або джерел, ми можемо залишатися на крок попереду дезінформації, керованої штучним інтелектом. Пам'ятайте: бути поінформованим — це не лише споживання контенту, але і його перевірка.

Оригінал публікації на сайті The FactCheckHub

Відеофейк: підробний ролик Politico про роботу ТЦК

Пропагандистські телеграм-канали поширили підробний відеоролик нібито від видання Politico, в якому стверджується, що «у липні ТЦК стали на 72% частіше проникати у помешкання». З посиланням на начальника Одеського обласного Територіального центру комплектування та соціальної підтримки Юрія Пуйка пропагандисти заявили, що це дало змогу збільшити показники мобілізації на 25%.

Втім, аналіз «Детектора медіа» показав, що поширюваний ролик є сфальшованим. 

Скриншот телеграм-каналу, що поширив сфальшоване відео

Перевірка офіційного сайту Politico не виявила розслідувань чи публікацій про роботу ТЦК. У соцмережах як Politico, так і іншого медіа, що висвітлює європейську політику — Politico.EUROPE, зокрема сторінок у фейсбуку (Politico.EUROPE) та іксі (Politico.EUROPE) — подібних роликів також немає. 

Ба більше, стиль, який використали пропагандисти у підробному ролику, суттєво відрізняється від стилю справжніх роликів Politico та Politico.EUROPE. Білу букву P у червоному квадраті використано авторами анонімного телеграм-каналу, натомість оригінальне брендування містить повну назву видання у червоному кружечку. 

Приклад оригінального стилю та брендування яке використовує Politico
Приклад оригінального логотипа, який використовує Politico.EUROPE

Оригінальне відео за участі начальника Одеського обласного Територіального центру комплектування та соціальної підтримки Юрія Пуйка — це його інтерв'ю для медіа Ukrainian Witness від 23 вересня 2024 року. У ньому Пуйко не наводив згаданих пропагандистами цифр чи фактів. На відеоряд були накладені вигадані агітпропом показники мобілізації у відсотках. 

Скриншот з інтерв'ю Юрія Пуйка для Ukrainian Witness

Дезінформація та відеофейки спрямовані на дискредитацію роботи ТЦК використовуються російською пропагандою для посилення соціального напруження в Україні та зменшення боєздатності Сил оборони. 

Пропагандисти відео з Ужгорода ілюстрували фейк про мобілізацію жінок в Україні

У соціальних мережах поширюють відео з камер спостереження, на якому нібито військовий представник ТЦК затримує жінку просто посеред житлового двору в Ужгороді. Автори стверджують, що це — приклад мобілізації жінок в Україні. Чому це фейк пояснили фактчекери VoxCheck.

На відео видно, як невідомий чоловік намагається силоміць заштовхати жінку в автомобіль кольору хакі. Його першим оприлюднив депутат Ужгородської міської ради Віталій Глагола. Інцидент стався 17 квітня 2025 року, а вже наступного дня поліція Закарпаття та місцеві медіа повідомили, що нападником виявився колишній чоловік постраждалої, з яким вона розлучилася за тиждень до події.

18 квітня Ужгородський міськрайонний суд, обираючи запобіжний захід підозрюваному, зазначив, що він є чинним військовослужбовцем. Однак жодної інформації про його зв’язок із ТЦК, так само як і про причетність жінки до армії, немає.

Крім того, норми чинного законодавства залишаються незмінними: жінки в Україні можуть проходити військову службу виключно на добровільних засадах. Жодних офіційних ініціатив чи планів щодо їх примусової мобілізації наразі не озвучувалося.

Цей випадок — не перша спроба маніпулювати темою «мобілізації жінок». Раніше вже неодноразово поширювали подібні фейки, які згодом спростовували незалежні фактчекери.

Маніпуляція із законодавством, що українці не є корінним народом в Україні

У соціальних мережах поширюють відео з твердженням, що нібито українців виключили з переліку корінних народів України, а корінними названо євреїв і татар. Автор відео заявляє, що українці нібито не мають відповідного статусу. Цей фейк спростували фактчекери VoxCheck.

Автор відео, пояснюють фактчекери, неправильно розуміє терміни. Українці — це державотворча нація. Тобто нація, яка утворила Українську державу і становить більшість її населення. Тимчасом за законом корінні народи — це етнічні спільноти, які сформувалися на території України, не мають власної держави і становлять меншість у її населенні. До них належать кримські татари, караїми та кримчаки.

ООН у своїх документах також зазначає, що корінні народи мають власні мову, культуру, релігію та соціальні інститути, які відрізняються від домінантної системи в країні проживання. Українці не відповідають цим критеріям, адже мають свою державу та не є етнічною меншиною в Україні.

Що ж до євреїв, яких згадує автор відео, то вони теж не належать до корінних народів України. Вони є етнічною меншиною. У своїх звітах ООН трактує етнічну меншину як групу, що не становить більшість населення країни, не має домінантного становища та відрізняється культурою, мовою чи релігією. Водночас не кожна етнічна меншина є корінним народом, але кожен корінний народ є етнічною меншиною.

Отже, твердження про «виключення українців з переліку корінних народів» є маніпулятивною дезінформацією, яка базується на хибному розумінні термінів.

Росіяни поширюють фейкове відео про «мародерство» ЗСУ на Донеччині

Російська пропаганда поширює черговий фейковий відеоролик, у якому нібито військовослужбовець 100-ї окремої механізованої бригади ЗСУ стверджує, що поранених не евакуйовують із Донеччини, оскільки транспорт нібито заповнений майном, «вкраденим» у цивільних.

На вкид звернули увагу у Центрі протидії дезінформації.

Скриншот: ЦПД

Насправді відео має явні ознаки фальсифікації. Особу «бійця», який говорить, та його «побратимів» неможливо ідентифікувати, як і місце подій. Звук, імовірно, був штучно накладений, а якість відео настільки низька, що ускладнює перевірку його достовірності.

Зміст ролика відповідає стандартним пропагандистським наративам Росії про ЗСУ. Центр протидії дезінформації неодноразово спростовував подібні фейки, які звинувачують українських військових у «звірствах» чи «мародерстві» на Донбасі.

Поширюючи такі фейки, російська пропаганда прагне дискредитувати Сили оборони України, посіяти недовіру серед населення до захисників і відвернути увагу від численних злочинів російської армії на території України. Фейки про «звірства» чи «мародерство» ЗСУ мають на меті посіяти недовіру серед українців до власних захисників, послаблюючи єдність суспільства та армії, особливо в умовах війни.

Фейк: Coldplay видалив усі дописи в соцмережах на підтримку України

Пропагандистські анонімні телеграм-канали поширюють новину нібито від музичного журналу NME про видалення гуртом Coldplay всіх публікацій на підтримку України після гучного скандалу зі зрадою на концерті. Команда VoxCheck спростувала цей фейк.

На офіційному сайті та в соцмережах NME такого відео немає. Крім того, в оригінальних відео NME використовується інакше оформлення: відсутній логотип, інакший розмір та шрифт субтитрів, чорне тло поза текстом.

Інформація про видалення гуртом Coldplay постів на підтримку України також не відповідає дійсності. На офіційній сторінці гурту є відео, опубліковане 9 липня 2022 року, де музиканти з українським прапором виконують пісню гурту «Океан Ельзи» «Обійми мене».

Поширенням цього фейку пропагандисти прагнуть зобразити міжнародну підтримку України як нестабільну та ненадійну.

Підготувала Анастасія Сизоненко

Відеофейк: прокремлівські медіа поширюють ролик з "кремацією українських солдатів" у Тернопільській області

9 липня російське державне пропагандистське агентство ТАСС опублікувало відеозапис, стверджуючи, що на ньому зафіксовано кремацію українських солдатів у крематорії на Тернопільщині. За версією ТАСС, російські "правоохоронні органи" стверджують, що Київ спалює тіла своїх військових, щоб уникнути виплати компенсацій родинам загиблих. Цю дезінформацію миттєво підхопили інші російські пропагандистські видання, такі як Gazeta.ru, Lenta.ru, Вести, Ural.ru, Царьград, Российская газета, Погляд та Russia Today. Відео також поширили грузиномовні акаунти у Facebook, повідомляють фактчекери грузинського проєкту Mythdetector

Перевірка показала, що ТАСС поширює інформацію про кремацію тіл українських солдатів без жодних доказів. Ключовим фактом, що розвінчує цей фейк, є те, що у Тернопільській області взагалі немає крематорію. Протягом багатьох років в Україні функціонували лише три крематорії: у Києві (відкритий у 1975 році), Харкові (1977 рік) та Одесі (1988 рік). Спроба відкрити крематорій у Львові у 2021 році виявилася невдалою, і міська адміністрація відмовилася виділяти кошти на його будівництво. 

10 липня Центр протидії дезінформації відреагував на цю інформацію, зазначивши, що у Тернопільській області немає жодного діючого крематорію, де могло би було знято відео: "Мета такої брехні – дискредитувати державу та посіяти безнадію серед родин військовослужбовців", – йдеться у заяві ЦПД.

Пропагандисти не надають жодних додаткових доказів, окрім самого відео та загальної заяви російських "правоохоронних органів". Крім того, не повідомляється, як агентству вдалося отримати відео, яке нібито було знято у Тернопільській області, що розташована на заході України, далеко від лінії фронту. Відео, опубліковане ТАСС, візуально нагадує запис з камери спостереження, що може свідчити про зйомку в інфраструктурно справному крематорії, де встановлені аналогічні камери. З огляду на те, що кремація тіла потребує дуже високих температур та відповідної інфраструктури, малоймовірно, що нещодавно було збудовано новий крематорій для кремації військових тіл, і ця інформація не поширювалася.

Російські пропагандистські медіа та офіційні кремлівські агентства систематично, бездоказово, поширювали інформацію про те, що тіла загиблих в Україні солдатів спалюють, аби приховати втрати або уникнути виплати компенсацій. Цей випадок є черговим прикладом того, як російська пропаганда використовує фейки для дискредитації України та поширення паніки серед населення.

Чи правда, що існує петиція, яка зобов'язує Дональда Трампа депортувати власну дружину Меланію Трамп?

У мережі поширюють фейк про те, що Дональда Трампа нібито закликають депортувати його дружину Меланію. У темі розібрались фактчекери Snopes.com.

У липні 2025 року в соцмережах шириться твердження, що президента США Дональда Трампа нібито просять депортувати його дружину Меланію Трамп, яка народилася у Словенії та отримала американське громадянство в липні 2006 року. Поширювали цю заяву з підписом: «Дональда Трампа тепер просять депортувати власну дружину». У темі розібрались фактчекери Snopes.com.

Таке відео, наприклад, зʼявилось 15 липня на TikTok, де набрало понад 3,1 млн переглядів і 629 тис. лайків. У ролику йшлося:

«Дональда Трампа тепер просять депортувати власну дружину. Він каже, що не зробить цього, бо вона — родина. Це справедливо чи президент США має привілеї?»

При цьому у відео не вказано, хто саме нібито звертався з таким закликом.

Подібні публікації, пишуть Snopes, зʼявлялись також на Facebook, Instagram, TikTok і X. У частині із них згадували про «віральну петицію з тисячами підписів». Частина відео містила глибоко підроблені зображення (deepfake), синтетичний голос і візуалізацію, які нібито демонструють реакцію подружжя Трампів на цю новину.

Насправді, пишуть фактчекери, жоден орган державної влади, суд чи офіційна особа не вимагали депортації Меланії Трамп. Йшлося лише про онлайн-петицію, як зазначалося у деяких роликах. Станом на 18 липня ця петиція, опублікована на прогресивному сайті MoveOn.org, зібрала понад 12 700 підписів із ціллю у 15 000. Петиція має провокаційну назву — з помилкою в імені сина подружжя — «Депортувати Меланію, її батьків і Барона в першій хвилі депортацій!».

Автор петиції використав маніпулятивні твердження. Зокрема, назвав Барона Трампа принизливим терміном «anchor baby» (буквально — «якірна дитина») — це образливе позначення дітей, народжених у США іноземцями з метою отримання громадянства. Також у петиції звучить неправдива вимога, що мати матері дитини повинна бути народжена в США, щоб дитина мала право на громадянство — такого положення не існує в жодному законодавстві чи указі Трампа.

При цьому Меланія Трамп отримала «грінкарту» ще у 2001 році — за п’ять років до народження сина Барона, а громадянкою США стала в липні 2006-го. Тож твердження про нібито отримання нею громадянства через дитину — безпідставні.

Сервіс для створення онлайн-петацій MoveOn.org також додав на сторінку петиції дисклеймер:

«Волонтери MoveOn переглянули цю петицію й дійшли висновку, що вона може не відображати прогресивні цінності спільноти або викликає суперечки серед її учасників. MoveOn не просуватиме цю петицію, окрім як надавши платформу для її розміщення».

Фактчекери Snopes звернулися до Білого дому і до прессекретаря першої леді по коментар. У відповідь надійшло лише коротке повідомлення: «Це очевидна підробка».

Український плутоній: росіяни вигадали новий «радіоактивний» фейк

Російські спецслужби вчергове вдались до інформаційної провокації, намагаючись звинуватити Україну у поширенні радіоактивних речовин на території Сирії.

Про це повідомили в Головному управлінні розвідки Міністерства оборони України.

На сирійських майданчиках з'явилася неправдива інформація про нібито продаж військового обладнання, «придбаного» у Міністерства оборони України. Основою провокації став фальшивий контейнер із «радіоактивними речовинами», маркованими як PU.94244U (плутоній) та U.92 (уран). Вміст капсул не ідентифіковано, їхнє походження — вигадане.

Контейнер виготовлено кустарно, з грубими помилками у написах і невідповідною символікою. Для фіксації логотипа Повітряних сил України використано звичайну синю ізоляційну стрічку. Один з «ізотопів» — PU.94244U — є надзвичайно рідкісним і в природі практично не зустрічається. Його вміст у всій земній корі — декілька грамів.

Усередині контейнера також виявлено наручний механічний годинник, що лише підкреслює абсурдність російської постановки.

Крім контейнера, росіяни демонструють старий радянський прилад хімічної розвідки (ВПХР), який начебто «викуплено» у українських військових, які здійснювали радіаційно-хімічний захист у Сирії. На відео з «торговою пропозицією» стоїть дата арабською — 13 березня 2025 року.

За даними української розвідки, це не перша подібна кампанія: ще у 2023 році в одному з приватних блогів було опубліковано вигадану історію про «український контейнер із плутонієм». Тоді росіяни заявили, що «зірвали змову» США, які нібито хотіли звинуватити Росію у використанні хімічної зброї в Сирії.

Представник ГУР МО України Андрій Юсов наголосив, що російська дезінформаційна кампанія спрямована на підрив репутації України на міжнародній арені, особливо перед новим керівництвом Сирії, партнерами по антиядерній безпеці та МАГАТЕ.

«Це спроба завдати Україні репутаційного удару. Кремль продовжує маніпулювати темою глобальної ядерної безпеки, і вільний світ повинен реагувати на це жорстко», — зазначив Юсов.

Фейк: Представники ТЦК мобілізували жителя Павлограда, який ховався у холодильнику

Центр протидії дезінформації (ЦПД) спростував нову спробу російської пропаганди дискредитувати територіальні центри комплектування та соціальної підтримки (ТЦК). У мережі поширили постановочне відео, яке нібито знято в Павлограді, де показано, як чоловіка, що ховався в холодильнику, примусово мобілізують.

На відео видно кількох осіб у балаклавах, які заходять до будинку. Жіночий голос за кадром стверджує, що це представники військкомату «без документів» забирають її сина, який нібито непридатний до служби.

Скриншот: підставний представник ТЦК шукає військовозобов'язаного у шафі
Скриншот: підставний представник ТЦК знаходить військовозобов'язаного у холодильнику

За даними ЦПД, відео є фальшивкою. Про це свідчать закриті обличчя осіб без будь-яких розпізнавальних знаків, що вказували б на їхню приналежність до офіційних структур, неможливість точно визначити місце зйомки, а також неприродна поведінка учасників.

У ЦПД наголосили, що це не перший випадок, коли російська пропаганда використовує подібні постановки для дискредитації працівників ТЦК та зриву мобілізації в Україні.

Такі фейки спрямовані на підрив довіри до територіальних центрів комплектування (ТЦК) та української армії. Зображуючи працівників ТЦК як «нелегітимних» чи «жорстоких», пропаганда намагається створити образ хаосу та несправедливості в процесі мобілізації.

Фейки, які показують українців у негативному світлі (наприклад, як жертв «примусової» мобілізації), використовуються для створення наративу, що Росія «рятує» українців від власної влади.

Росія посилила атаки на територіальні центри комплектування в Україні. Подібні відео є частиною широкомасштабної гібридної атаки на ТЦК.

Українці масово "радіють" російським атакам на ТЦК - фактчекери спростували дезінформацію.

Фейк: Україна хоче замінувати західний кордон

Проросійські джерела поширюють відеосюжет із логотипом Fox News. У матеріалі стверджується, що після виходу з Оттавської конвенції Україна нібито планує замінувати не лише східний, а й західний кордон з метою запобігти втечі чоловіків призовного віку. 

Скриншот телеграм-каналу, що поширював фейк. Джерело: StopFake

Утім, і саме відео, і викладена в ньому інформація є вигадкою. Команда розвінчувачів фейків StopFake повідомляє: сюжет не знайдено ні на офіційному сайті, ні в соціальних мережах Fox News. Його поширення обмежується виключно російськими пропагандистськими ресурсами. Крім того, жодне авторитетне українське чи західне медіа не повідомляло про існування подібних планів з боку української влади.

Поштовхом до поширення цієї дезінформації стало рішення України вийти з Оттавської конвенції — міжнародної угоди, яка забороняє використання, зберігання, виробництво та передачу протипіхотних мін, а також передбачає їхнє знищення. 

Варто зазначити, що Росія не ратифікувала Оттавську конвенцію і від початку повномасштабної війни активно використовує протипіхотні міни. Рішення вийти з Конвенції стало відповіддю України на збройну агресію з боку Росії. На подібний крок наважилися також низка європейських країн, зокрема Латвія, Литва, Польща, Фінляндія та Естонія. Усі вони пояснюють свій вихід із Конвенції необхідністю подбати про свій захист, зважаючи на небезпеку, яка йде з боку Росії.

Поширення дезінформації подібного характеру — спроба посіяти ворожнечу між Україною та її західними сусідами.

Матеріал підготувала Анастасія Сизоненко 

Дезінформаційна мережа Matryoshka підриває європейський курс Молдови

Напередодні саміту ЄС — Молдова, який відбувся 4 липня 2025 року в Кишиневі, проросійська дезінформаційна мережа Matryoshka, підтримувана Кремлем, розгорнула нову інформаційну атаку. Кампанія спрямована на дискредитацію президентки Маї Санду та загалом — на послаблення довіри до європейського курсу Молдови. Про цю операцію впливу розповіли у проєкті EUvsDisinfo.

Напередодні саміту в соцмережах поширювали фейкові відео, зокрема від імені видання The Insider, у яких нібито повідомляється, що висока представниця ЄС Кая Каллас відмовилася від участі в саміті через «конфлікт» із Маєю Санду. Ще одне відео звинувачує Санду у спробах замінити Каллас на посаді очільниці європейської дипломатії — при цьому жодного реального «доказу» не наведено. Ці повідомлення є вигадкою, але подаються як «ексклюзиви» від імені західних медіа, щоб надати їм видимості достовірності.

Цей фейковий «конфлікт» між Санду та Каллас просувається в мережі ще з травня, а пік активності припав на 19 червня — саме напередодні саміту в Кишиневі. Паралельно поширюються й інші вигадки: про «терористичну загрозу» на саміті, на яку начебто вказує румунська розвідка (відео підроблено під Euronews), або про те, що ЄС готується усунути Санду з посади за «невдачі на євроінтеграційному шляху» (ця фейкова інформація нібито від Le Point).

Також Matryoshka-боти звинувачують уряд Санду в корупції, у витрачанні грошей на проведення саміту та у створенні «мертвих душ» для виборів — мовляв, Молдова нібито штучно затягує реєстрацію смертей, щоб збільшити кількість виборців.

Що таке мережа Matryoshka? Це довготривала дезінформаційна кампанія, яка стартувала у вересні 2023 року. Вона має двофазну структуру: спочатку фальшивий контент — підроблені новини, сфабриковані відео, змонтовані зображення — публікує невелика група акаунтів, а потім інші користувачі («цитувальники») масово поширюють цей контент у коментарях під постами журналістів, політиків, медіа, імітуючи «запит на перевірку».

Особливість мережі Matryoshka — копіювання стилю та брендів відомих західних медіа: логотипи, графіка, навіть голос закадру. Усе це створює враження, що інформація походить з надійного джерела. У минулому ця мережа вже використовувалася для дискредитації України, очорнення проєвропейських політиків, поширення антизахідних меседжів.

Мета кампанії — створити хаос, посіяти недовіру та підірвати демократичні інститути. Через кожне фальшиве відео, через кожну підробку Matryoshka намагається зірвати євроінтеграційний курс Молдови. Особливо це активізується напередодні виборів. Кремль знову показує готовність фабрикувати будь-який наратив, щоб підірвати довіру до демократичних процесів у країнах, які обрали шлях до ЄС.

Фейк: Україна інсценувала відео з пораненими внаслідок російської атаки

Мережею шириться відеорепортаж, де нібито показано кількість загиблих та постраждалих внаслідок російського нападу на Україну. Увагу аудиторії привернув один із «трупів», який почав рухатися. Цей факт начебто свідчить, що відео було інсценоване. Однак дане відео є маніпуляцією. Чому — пояснює німецька команда фактчекерів Correctiv.

Публікацію Абеля на X було позначено так званою приміткою спільноти, яка вказувала на неправильний контекст. Джерело: Correctiv

«Коли актори-трупи в пропагандистських роликах хочуть прикритися в невідповідний момент у прямому ефірі... Справжня приманка для очей!» — з таким коментарем поширив відео, зокрема, і невдалий кандидат від німецької політичної партії «АдН» Крістіан Абель. Станом на 4 липня 2025 року, тобто протягом місяця з моменту публікації, його допис переглянуло понад 300 000 користувачів X. Нагадаємо, що раніше цього року партія «Альтернатива для Німеччини» також відмовилася засудити вторгнення Росії в Україну.

Насправді аналізований відеорепортаж був знятий 4 лютого 2022 року, до початку повномасштабного вторгнення Росії в Україну. Його метою було привернути увагу аудиторії до кліматичного протесту у Відні, отож він ніяк не пов’язаний з Україною. Це вже не перше намагання використати ці відеоматеріали з метою дискредитації України — схожа спроба відбулася і в 2022 році.

Про те, як російська пропаганда просувала партію «Альтернатива для Німеччини» на виборах у лютому 2025 року, можна прочитати тут

Матеріал підготувала Анастасія Сизоненко

Росіяни сфальсифікували відеозвернення Ольги Стефанішиної стосовно виїзду жінок за кордон

Російські телеграм-канали поширюють відео з логотипом телеканалу Freedom, у якому нібито звучить аудіокоментар віцепрем’єрки з питань європейської та євроатлантичної інтеграції України, а також міністерки юстиції Ольги Стефанішиної. У записі вона начебто заявляє про намір запровадити законодавчу заборону на виїзд за кордон для жінок і дівчат віком від 18 до 27 років, мотивуючи це потребою зберегти генофонд країни.

Скриншот пропагандистського телеграм-каналу, що поширив відеофейк

Фейк розвінчала команда Укрінформ. У ході розслідування було з’ясовано, що аудіо, присутнє в ролику, було згенероване за допомогою штучного інтелекту, на що вказує, зокрема, погана якість звуку та нечітка вимова слів.

Крім того, телеканал Freedom є російськомовним каналом державного українського іномовлення, який орієнтується на російськомовну аудиторію за кордоном. Спікери ж у підробленому ролику ведуть трансляцію українською мовою. Відповідно, ролик не може мати нічого спільного з телеканалом Freedom.

Сриншот фейсбуку Катерини Федотенко

Ба більше, ведучі, які нібито беруть коментар у Ольги Стефанішиної, насправді є журналістами телеканалу «Рада» — Назар Довгий та Катерина Федотенко — які беруть участь у телемарафоні «Єдині новини». Сама ж Катерина Федотенко припинила роботу на каналі ще у 2024 році. Водночас на телеканалі Freedom працює інша команда ведучих, і цей медіаресурс не бере участі у телемарафоні.

Даний фейк має намір підірвати довіру до української влади та посіяти паніку в суспільстві. 

Матеріал підготувала Анастасія Сизоненко