«Звільнення могил через три роки»: росіяни вигадали фейк про поховання військових
У соціальних мережах поширюють відео з твердженням, що українська влада нібито офіційно дозволила «звільняти» могили на кладовищах, якщо родичі не відвідували їх понад три роки. Автори публікацій стверджують, що звільнені місця буцімто використовуватимуть для поховання загиблих військовослужбовців. Однак ця інформація не відповідає дійсності.
На відео показано процес ексгумації, а закадровий голос говорить: «Звільняєм могилу. Три роки ніхто родича не відвідував, значить могила без хазяїна. Треба ж де-небудь захисників ховати».
Насправді в Україні не існує жодного закону чи нормативного акта, який дозволяв би перепоховання через відсутність відвідувань могили протягом трьох років. Ані Верховна Рада, ані профільні міністерства не ухвалювали подібних рішень.
Натомість Закон України «Про поховання та похоронну справу» прямо забороняє здійснювати підпоховання без згоди користувача місця поховання. Крім того, державні санітарні норми передбачають, що повторне використання місця поховання можливе лише щонайменше через 20 років і залежить від низки умов, зокрема типу ґрунту та особливостей поховання. Таким чином, згаданий у відео «трирічний термін» не має жодного стосунку до українського законодавства.
Окрему увагу привертає закадровий коментар. У ньому помітні неправильні наголоси, російський акцент та неприродна інтонація, що свідчить про спробу імітації української мови. Це вказує на те, що аудіодоріжку могли створити спеціально для надання відео більшої правдоподібності.
Також вдалося встановити походження самого ролика. За допомогою зворотного пошуку з’ясувалося, що відео було опубліковане в TikTok-акаунті ритуальної служби. В оригінальній версії жодних згадок про «звільнення могил» чи поховання військових немає. Ролик використовували як рекламу послуг ексгумації — законної процедури, яка може проводитися, наприклад, для перепоховання в іншому місті або країні.
Отже, поширене відео є черговим прикладом маніпуляції. Пропагандисти взяли нейтральний рекламний ролик, додали до нього сфабрикований аудіосупровід і вигадану інформацію про неіснуючий закон. Мета таких повідомлень — дискредитація українських державних інституцій, створення образу деградації суспільства та маніпулювання темою втрат війни.
Відео про іммігрантів, які перуть речі в річці в Івано-Франківську, зняли в Індії
У соціальних мережах і телеграм-каналах поширюють відео, автори яких стверджують, нібито в Івано-Франківську «індійські та бангладеські мігранти» перуть одяг просто в річці Бистриця. У дописах це подають як доказ того, що Україна нібито масово завозить трудових мігрантів із країн Азії, які «приносять свої традиції» та перетворюють «центр Європи на середньовіччя». Фейк викрили StopFake.
Насправді відеоролики, які використовують у таких публікаціях, не мають жодного стосунку до нинішньої ситуації в Івано-Франківську чи до мігрантів в Україні. Автори маніпуляцій змонтували два окремі відео, вирвавши їх із контексту та додавши неправдиві пояснення.
Приклад дезінформаційного повідомлення. Джерело: StopFake
Перша частина ролика показує групу молодих людей біля річки. Через низьку якість відео неможливо встановити їхню національність чи походження. На кадрах видно, що люди просто відпочивають біля водойми та спілкуються між собою. Закадровий голос стверджує, що події відбуваються на Івано-Франківщині, однак це відео не є новим — його опублікували ще два роки тому в тіктоку, а тепер повторно використали для створення маніпулятивного контенту.
Одне з оригінальних відео. Джерело: StopFake
Друга частина відео демонструє двох людей, які перуть одяг на березі річки та сушать речі просто неба. Саме ці кадри пропагандисти видають за «доказ» того, що в Україні нібито з’явилися мігранти з Індії та Бангладеш. Однак оригінальне відео, опубліковане в тіктоку користувачкою Viktoria Tkach126, містить чітке зазначення локації — Нью-Делі, Індія. У підписі до ролика також вказано: «Подорож до Індії: культура, враження, аюрведа».
Коментарі до одного з оригінальних відео. Джерело: StopFake
Крім того, авторка відео окремо відповідала в коментарях користувачам, які запитували, чи справді кадри зняті в Україні. Вона пояснила, що зйомка відбувалася в Індії, біля річки Періяр неподалік міста Кумілі у штаті Керала.
Таким чином, поширюване відео є черговою маніпуляцією, побудованою на використанні старих та чужих кадрів для створення негативного образу мігрантів і поширення ксенофобських настроїв. Автори фейку навмисно поєднали непов’язані між собою відео та додали неправдиві коментарі, щоб створити ілюзію «масового завезення мігрантів» в Україну.
Відеофейки під світові медіа, що українські біженці ввозять кокаїн, крадуть тварин і розчаровують європейців
У соцмережі Х масово поширюють відео, які мають вигляд сюжетів авторитетних європейських медіа та просувають наративи про нібито «загрозу українців» для країн Європи. Для цього автори фейків використовують логотипи відомих міжнародних видань, зокрема DW та EuroNews. Ролики оформлюють у стилі новинних відеонарізок із субтитрами, графікою та фірмовим оформленням медіа. Поширення таких підробок фіксує Центр досліджень «Детектора медіа».
У фейковjму ролику із логотипом DW поширюєть тезе, що «українські біженці, які нібито активно займаються наркоторгівлею, становлять серйозну проблему для Європи».
Твіт із відео із логотипом DW. Джерело: Детектор медіа
Водночас у відео, оформлених під EuroNews, просувають маніпулятивні повідомлення про «надзвичайно високий рівень злочинності серед українських біженців у Європі», заявляють, що українці нібито «викрадають домашніх тварин і вимагають викуп», а також поширюють фейкову статистику про те, що «понад 73% молоді до 25 років вважають помилкою прийняття мільйонів українських біженців до ЄС».
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Для більшого охоплення та створення ілюзії достовірності автори таких публікацій додають до дописів хештеги інших відомих міжнародних медіа та суспільно-політичних тем, зокрема #EU, а також назви популярних видань. Це допомагає просувати контент у рекомендаціях соцмереж і створює враження, ніби йдеться про справжні журналістські матеріали.
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Перевірка офіційних сторінок DW та EuroNews у соцмережах Х і Facebook засвідчила, що ці медіа не публікували відео з такими твердженнями. Відповідних сюжетів також немає на офіційних сайтах видань. Це свідчить про те, що виробники дезінформації використали логотипи медіа без їхнього відома, щоб надати фейкам більшої переконливості.
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Подібні відео є частиною ширшої інформаційної кампанії, спрямованої на дискредитацію українських біженців у країнах Європи та посилення антиукраїнських настроїв серед європейської аудиторії. Для цього пропагандисти систематично експлуатують теми злочинності, міграції та соціальної напруги, намагаючись створити образ українців як джерела небезпеки та дестабілізації.
Маніпуляція: у сфальсифікованому сюжеті DW засудженого китайського студента замінили на вигаданого «українського біженця»
Три рівні маніпуляції
В мережі Х поширюється відео, що тримує сотні тисяч переглядів, і яке імітує репортаж Deutsche Welle (DW) про судовий вирок у справі про зґвалтування в Мюнхені. У ролику стверджується, що засудженим є «Тарас Мельник» — 28-річний українець-біженець, якого нібито засуджено до 11 років і 3 місяців ув'язнення за зґвалтування сусідки з використанням медичних анестетиків. Окрім цього, у відео стверджується, що у месенджері WhatsApp існують групи «з тисячами учасників — українських біженців», які обмінюються порадами щодо вчинення подібних злочинів, а «зґвалтування німецьких жінок українськими мігрантами стало значною проблемою для Німеччини», яку «німецька влада не бажає вирішувати».
Аналітики "Детектора Медіа" розібрали цю фальсифікацію. Перевірку здійснено на підставі порівняльного аналізу транскрипту оригінального репортажу Deutsche Welle та транскрипту сфальсифікованого відео.
Зліва оригінал DW з «Zhongyi J.», справа — сфальсифікований твіт з «Taras Melnyk».
Перевірка. Що насправді
Рівень 1: Підміна особи засудженого
Оригінальний репортаж та стаття DW присвячені реальній кримінальній справі — у ній фігурує Zhongyi J., 28-річний студент із Китаю, який визнав свою вину в мюнхенському суді. Саме він застосовував великі дози медичних анестетиків, щоб ґвалтувати жертву, і саме він отримав 11 років і 3 місяці ув'язнення за дві спроби вбивства та сім епізодів кваліфікованого зґвалтування.
У сфальсифікованому відео цю реальну людину замінено на вигаданого «Тараса Мельника» — неіснуючого українського біженця. Ім'я, національність і статус — повністю вигадані. Вирок, хронологія справи та деталі злочину взяті з оригінального матеріалу DW і механічно «прикріплені» до фіктивного персонажа.
Рівень 2: Підробка під авторитетне ЗМІ
Для надання фейку видимості достовірності зловмисники використали реальні кадри та транскрипт репортажу DW — одного з найавторитетніших міжнародних медіа з потужною репутацією у сфері журналістських розслідувань. Логотип і формат оригінального матеріалу залишені без змін — щоб глядач сприйняв підробку як справжній журналістський матеріал.
Крім того, оригінальний сюжет DW помітно довший. Зловмисники цілеспрямовано обрізали його, видаливши весь контекст щодо системних проблем і способів протидії насильству над жінками — онлайн і офлайн, — а також роздуми експертів і представників влади про законодавчі прогалини. Залишили лише фрагменти, які можна було використати для маніпуляції.
Дискредитаційні наративи проти біженців у підробному ролику. Зліва: «The rape of German women by Ukrainian refugees has become a major problem for Germany», справа — «some with thousands of Ukrainian refugees as members» про нібито спільноти у WhatsApp
Рівень 3: Дискредитація українських біженців і нагнітання ксенофобії
Ключові вставки, яких немає в оригінальному репортажі DW:
Твердження про те, що у WhatsApp існують групи «з тисячами учасників — українських біженців», які обговорюють злочини. В оригіналі DW йдеться про групи в Telegram — і жодного слова про українців.
Пряме твердження: «зґвалтування німецьких жінок українцями-мігрантами стало значною проблемою для Німеччини» — у матеріалі DW цього речення немає взагалі.
Твердження про те, що засудження вигаданого «Тараса Мельника» є одним із «небагатьох випадків, коли злочинці з середовища українських біженців отримують реальні вироки», і що «німецька влада не бажає цим займатися» — у DW нічого подібного немає.
Ці вставки є не журналістикою, а цілеспрямованою дезінформаційною рамкою: вони формують образ українських чоловіків-біженців у Німеччині як колективної загрози та натякають на змову влади щодо приховування злочинів.
Висновок
Ця маніпуляція є типовим прикладом наративної зброї: реальна кримінальна справа використовується як «упаковка» для вигаданих тверджень, спрямованих на формування негативного ставлення до українських біженців у Німеччині та підрив суспільної довіри до них. Використання бренду Deutsche Welle надає фейку псевдолегітимності, розраховуючи на те, що глядач не буде перевіряти першоджерело.
Оригінальний репортаж Deutsche Welle присвячений системній проблемі насильства над жінками і не має жодного стосунку до українських біженців.
«Le Point повідомляє», «Wired розслідував», «Bellingcat підтвердив» — як фабрикуються фейки про рак Пашиняна
У соціальній мережі X (Twitter) поширюється серія фейкових відео та публікацій, які стверджують, що прем'єр-міністр Вірменії Нікол Пашинян нібито хворий на рак. Для надання публікаціям правдоподібності їхні автори використовують логотипи та назви авторитетних світових медіа: Le Point, Le Figaro, Wired, Politico, Bellingcat, Libération. Жодне з цих видань нічого подібного не публікувало. Аналітики «Детектора медіа» розвінчали потік сфабрикованих фейків про Пашиняна.
Колаж постів в іксі, що поширюють фейки про хворобу Пашиняна
Кампанія є частиною масштабних скоординованих операцій впливу, спрямованих на дискредитацію Пашиняна напередодні парламентських виборів у Вірменії 7 червня 2026 року.
Що поширюється
Упродовж першого тижня травня 2026 року в іксі з'явилася низка публікацій з відеозаставками, які імітують оформлення відомих західних медіа. Ось наративи і твердження, що поширюються безапеляційно:
Le Point нібито повідомив, що діагноз «рак» став причиною розлучення Пашиняна з дружиною Анною Акоп'ян.
Wired нібито розслідував, як Meta та Alphabet видаляють інформацію про онкологічне захворювання прем'єра.
Politico нібито процитував прессекретаря Пашиняна, який нібито підтвердив, що «стан здоров'я прем'єра — особиста справа».
Le Figaro нібито повідомив про «відомого французького онколога», який проживає в Єревані вже понад два місяці для спостереження за здоров'ям прем'єра.
Libération нібито написала, що помічник Пашиняна регулярно їздить до Франції купувати онкологічні препарати.
Bellingcat нібито підтвердив на основі «медичних документів» діагноз раку.
Публікації виходять від облікових записів з малою кількістю підписників і непов'язаним контентом — типова ознака бот-мережі. У дописах масово тегуються справжні редакції цих видань (@LePoint, @bellingcat, @WIRED, @politico, @Le_Figaro, @libe), щоб імітувати поширення новини.
Перевірка
Аналітики «Детектора медіа» перевірили сайти Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération — жодного матеріалу про онкологічне захворювання Пашиняна чи будь-що пов'язане з темою раку в контексті вірменського прем'єра знайдено не було.
Офіційна реакція влади Вірменії також спростовує будь-яку змістовну основу для таких тверджень. Пресслужба прем'єр-міністра не підтвердила жодних проблем зі здоров'ям.
Контекст
Ця кампанія не є ізольованим інцидентом. Вона вписується в масштабну скоординовану операцію інформаційного впливу, яка фіксується дослідниками з початку 2025 року.
7 червня 2026 року у Вірменії відбудуться парламентські вибори. Партія Пашиняна «Громадянський договір» веде передвиборчу кампанію в умовах низьких рейтингів після втрати Нагірного Карабаху. Для захисту Вірменії від кібератак Брюссель не тільки виділяє кошти, а й надає кадрову підтримку. Верховна представниця ЄС із закордонних справ Кая Каллас 16 березня оголосила, що до Вірменії буде направлено європейську групу швидкого реагування на гібридні загрози. Експерти ЄС допоможуть апарату прем'єр-міністра, Центрвиборчкому, МВС та іншим відомствам розробити механізми антикризового управління на випадок кібератак та іноземного інформаційного маніпулювання.
Вірменська фактчекінгова організація CivilnetCheck задокументувала щонайменше сім наративів пропаганди проти Пашиняна, що поширюються через фейкові відео під логотипами CNN, Reuters, Bloomberg, Euronews, Le Point та інших. Вірменська медіаплатформа FIP.am встановила, що відео з логотипом Le Point про «70% членів "Громадянського договору" з французьким громадянством» є фабрикацією — такої публікації у Le Point не існує.
Дослідники ідентифікують у кампаніях проти Пашиняна операційні стратегії Storm-1516, Doppelgänger і «Матрьошка» — ті самі, що використовуються проти України та країн ЄС.
Ідентична тактика вже спрацьовувала раніше: у лютому–березні 2026 року через телеграм-канали, пов'язані з проросійськими мережами, поширювалися сфабриковані перші шпальти Liberation і Le Parisien із заголовками про те, що Макрон нібито «підштовхує Пашиняна до війни проти Росії». Перевірка оригінальних сайтів видань показала: Liberation за вказаною датою вийшла з матеріалом про Трампа, Le Parisien — про ціни на паливо.
Чому це важливо
Тактика «авторитетного джерела» розрахована на рефлекторну довіру: читач бачить логотип Le Figaro чи Bellingcat і не перевіряє оригінал. Коли фейк доповнюється конкретними деталями — «онколог у Єревані вже два місяці», «помічник купує ліки у Франції» — він стає ще переконливішим.
Для українських читачів це не абстрактна тема. Ті самі технології і ті самі мережі, що атакують Пашиняна, діють і проти України.
Висновок
Твердження про онкологічне захворювання Нікола Пашиняна є фейком. Жодне з посилань у публікаціях не підтверджується: Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération нічого подібного не публікували.
Кампанія є частиною задокументованої координованої операції впливу напередодні виборів у Вірменії, що використовує добре відомі методи дезінформації — маніпулятивне «клонування» авторитетних медіа та масоване поширення через фіктивні облікові записи.
Тактики
Штучний інтелект і мова ненависті: побожний мусульманин генерує фейки про мусульман, заробляє і збагачує розробників ШІ
Після початку війни між США та Іраном у соцмережах стало стрімко поширюватися відео, створене за допомогою штучного інтелекту, на якому прем’єр-міністр Великої Британії Кір Стармер нібито виступає в мусульманському одязі та виголошує расистські й провокаційні заяви. Ролик набрав сотні тисяч переглядів у фейсбуку та інстаграмі і став черговим прикладом того, як штучний інтелект використовують для поширення ісламофобії та дезінформації. Про дезінформаційну тактику розповіли у The Bureau Of Investigative Journalism.
Журналісти з’ясували, що за створенням і поширенням такого контенту стоїть побожний мусульманин із Пакистану, який веде кілька сторінок у соцмережах. Частина його акаунтів присвячена релігійному контенту — цитатам з Корану та ісламським настановам, однак паралельно він адміністрував сторінки, де масово поширювали антимусульманські фейки та ксенофобські матеріали для британської аудиторії.
Один з його фейсбук-акаунтів під назвою Britain Today мав майже 200 тисяч підписників, а контент із нього збирав мільйони переглядів. Сам автор визнав, що заробляв на таких публікаціях близько 1500 доларів щомісяця завдяки монетизації Meta. Після звернення журналістів компанія Meta видалила ці сторінки через порушення правил щодо мови ненависті та дезінформації.
Чоловік розповів, що створював контент за допомогою інструментів штучного інтелекту, зокрема Grok, Gemini, CapCut і ChatGPT. За його словами, він часто просто копіював відео протестів чи інших подій з тіктоку або іксі, а потім додавав до них згенеровані ШІ підписи, озвучення та провокативні зображення.
Журналісти наголошують, що сучасні інструменти штучного інтелекту істотно спростили виробництво маніпулятивного контенту. Тепер авторам навіть не потрібно добре знати англійську мову чи розуміти зміст повідомлень — достатньо ввести короткий запит у програму, яка автоматично створить відео, озвучення та обкладинку.
Багато публікацій Britain Today просували типові ультраправі конспірологічні наративи — зокрема теорію «великого заміщення», згідно з якою біле населення Європи нібито навмисно «замінюють» мігрантами. На сторінках також закликали депортувати мусульман з Великої Британії та називали публічні мусульманські молитви «завоюванням Заходу».
Окремою мішенню став мер Лондона Садік Хан, якого регулярно згадували у фейкових роликах. У деяких випадках автори брали справжні відео за участю політика, але додавали до них образливі та маніпулятивні підписи. Наприклад, кадри з громадського іфтару на Трафальгарській площі подавали як нібито «колонізацію Британії мусульманами».
Сам автор сторінок сказав, що нібито не усвідомлював змісту багатьох публікацій через погане знання англійської мови, та пообіцяв видалити частину матеріалів. Водночас журналісти зауважують, що навіть після цього частина образливих роликів ще тривалий час залишалася доступною в інстаграмі.
Розслідування також показало, що подібна діяльність уже перетворилася на окремий бізнес. Автор з Пакистану розповів, що навчає інших користувачів заробляти на монетизації у фейсбуку, а інструкції щодо створення «вірусного» контенту масово поширюються через ютуб та онлайн-курси.
В соцмережах поширюють фейкове відео знущань над працівником ТЦК
Російські пропагандистські ресурси та пов’язані з ними акаунти у соцмережах поширили відео, на якому нібито зафіксовано «помсту» чоловіка працівнику територіального центру комплектування (ТЦК) за мобілізацію брата. У ролику людину у військовій формі прив’язують до автомобіля та тягнуть полем. Як з’ясувалося, це відео є фейковим і має ознаки постановки.
Ролик активно поширювався 28–29 квітня в Telegram та соцмережі X із логотипом одного з російських каналів, які маскуються під українські. У дописах також містилися заклики підписуватися на російські платформи, зокрема МАХ і «Дзен».
Першоджерелом відео став маловідомий проросійський Telegram-канал, де його опублікували ще 26 квітня. У повідомленні стверджувалося, що подія нібито сталася в Кіровоградській області.
Втім, у Кіровоградському обласному ТЦК та СП цю інформацію спростували. Начальниця групи комунікацій установи, майор Поліна Кравченко, у коментарі заявила, що жодних подібних інцидентів у регіоні не зафіксовано.
За її словами, відео містить явні ознаки постановки: у ньому відсутні будь-які ідентифікаційні ознаки місцевості, а також немає підтверджень з боку офіційних джерел. Встановлено, що ролик не має жодного стосунку до Кіровоградської області та поширюється через мережу анонімних телеграм-ресурсів.
У ТЦК наголошують, що подібні вкиди є частиною російських інформаційно-психологічних операцій (ІПСО). Їхня мета — дискредитація військовослужбовців, зрив мобілізаційних заходів, а також провокування недовіри та напруги в суспільстві.
Додатково аналіз відео свідчить про використання технологій штучного інтелекту. Зокрема, за даними інструменту DeepFake-O-Meter, імовірність застосування генеративного ШІ під час створення ролика становить 99%.
Такі фейки є частиною системної дезінформаційної кампанії Росії, спрямованої на підрив довіри до державних інституцій України та штучне загострення суспільних настроїв.
Відеофейк під Al Jazeera, що держави Заходу передають Ірану розвіддані
У мережі поширюється відео з логотипом Al Jazeera, у якому стверджується, що Велика Британія, Франція та Німеччина нібито передали Ірану розвідувальні дані про переміщення американських військ в обмін на економічні преференції для енергетичних компаній. Ролик подається як журналістське розслідування, що викриває «таємну угоду» між західними країнами і Тегераном. Про дезінформаційні повідомлення розповіли у StopFake.
Фактчекери встановили, що відео є підробкою. Al Jazeera не публікувало жодних матеріалів з такими твердженнями, а пошук на офіційному сайті не дає жодних підтверджень. Озвучення в ролику створене за допомогою штучного інтелекту, а логотип медіа використано для імітації достовірного джерела. Першоджерелом поширення став акаунт, пов’язаний з мережею дезінформації, що вже неодноразово фігурувала в подібних інформаційних вкидах.
Приклад поширення відеофейку в іксі
Ключовою темою дезінформації є спроба посіяти недовіру між союзниками, зобразивши країни Європи як таких, що таємно співпрацюють з Іраном проти США. У фейку також використано економічний компонент — згадку про великі енергетичні компанії, щоб надати історії більшої правдоподібності та підсилити уявлення про «закулісні домовленості».
Насправді реальні події мають протилежний зміст. Велика Британія, Франція та Німеччина не співпрацюють з Іраном у військовій сфері, а навпаки — очолили міжнародні зусилля з протидії загрозам судноплавству в Ормузькій протоці. Йдеться про створення оборонної коаліції, яка має забезпечити безпеку торговельних маршрутів після ескалації конфлікту в регіоні та відновити свободу морської навігації.
Отже, фейк спотворює реальність, підміняючи оборонні ініціативи Заходу вигаданими змовами. Викриття базується на перевірці джерел, відсутності підтверджень в авторитетних медіа та аналізі технічних ознак підробки, зокрема використання штучно згенерованого аудіо. Це ще один приклад інформаційної операції, спрямованої на дискредитацію міжнародної співпраці та підрив довіри до західних партнерів.
Фейкороби «знайшли» у кабінеті Зеленського украдену картину Сезанна
У мережі поширюється підроблений відеосюжет з логотипом BBC News, у якому стверджується, що викрадена з італійського музею картина Поля Сезанна «Натюрморт з вишнями» нібито опинилася в кабінеті Володимира Зеленського. У ролику заявляють, що президент сам випадково «засвітив» полотно у своєму відеозверненні, а згодом видалив запис. Про дезінформаційні повідомлення розповіли StopFake.
Фактчекери встановили, що цей сюжет є фейком: BBC News не публікувало такого матеріалу, що підтвердили і представники медіа. Насправді пропагандисти використали справжнє відеозвернення Володимира Зеленського, опубліковане на його офіційному ютуб-каналі, але відредагували зображення. В оригіналі за спиною президента висить не викрадений шедевр, а картина сучасного українського художника Андрія Чеботару з кримським пейзажем.
Приклад поширення дезінформаційного повідомлення
Фейк базується на реальному інциденті — пограбуванні італійської вілли фонду Маньяні Рокка поблизу Парми, де були викрадені роботи П’єра-Огюста Ренуара, Анрі Матісса та Поля Сезанна. Саме цей факт пропагандисти використали як основу для маніпуляції, штучно «перенісши» одну з викрадених картин у кабінет українського президента.
Основні теми дезінформації в цьому випадку — дискредитація українського керівництва та просування наративу про «аморальні» або надмірні витрати влади під час війни. Для цього використано типовий набір прийомів: створення підробленого відео від імені авторитетного медіа, монтаж реального звернення з підміною деталей і прив’язка до резонансної міжнародної події, що додає історії правдоподібності.
Фактчекери наголошують, що подібні вкиди є частиною системної інформаційної кампанії. Її мета — підірвати довіру до українського керівництва як всередині країни, так і за кордоном, використовуючи емоційні теми корупції, розкоші та нібито зловживань владою.
Російські пропагандисти поширили фейкове відео з «американською найманкою» з Краматорська
Проросійські телеграм-канали та акаунти в соцмережах поширюють відео зі зверненням «американської найманки-медика» Ейпріл Хаггет, яка служить у 93-ій окремій механізованій бригаді ЗСУ. У ролику жінка нібито стверджує, що поранених військових не евакуюють місяцями, а командування ігнорує критичну ситуацію на фронті. Втім, поширене відео є сфальсифікованим.
Відео створене на основі справжнього звернення Хаггет, у якому вона закликала підтримати збір коштів на антидронові рушниці для батальйону «Алькатрас». Російські пропагандисти використали технології штучного інтелекту, щоб змінити аудіо, міміку та вимову волонтерки, підставивши вигаданий текст.
Насправді Ейпріл Хаггет є канадською волонтеркою, яка служить бойовою медикинею в батальйоні «Алькатрас» 93-ї бригади «Холодний Яр». Вона також виконує обов’язки піар-менеджерки підрозділу та регулярно організовує збори на його потреби. В оригінальному відео йшлося про необхідність закупівлі антидронових засобів для захисту Краматорська та українських військових від атак російських FPV-дронів.
Скриншот справжнього звернення Ейпріл Хаггет. Джерело: Х
Фейкове відео з'явилося на тлі регулярних атак Росії на цивільну інфраструктуру Краматорська. Зокрема, у березні та квітні місто неодноразово зазнавало ударів авіабомбами ФАБ-250, внаслідок яких гинули та отримували поранення мирні жителі, включно з дітьми, а також зазнавала руйнувань житлова забудова.
Експерти зазначають, що подібні інформаційні вкиди є частиною системної кампанії з деморалізації українського суспільства. Мета таких повідомлень — створити враження, що військове командування нібито залишає своїх бійців без підтримки, а подальший опір не має сенсу. Це типовий інструмент російської пропаганди, спрямований на підрив довіри між суспільством і Збройними силами України та нав’язування наративу про «безвихідь».
Відеофейк про українських шахраїв, які обікрали на авіаквитках десятки тисяч європейців
У мережі поширюють нібито сюжет видання Euronews, у якому стверджують, що компанія Microsoft зафіксувала різке зростання випадків шахрайства, пов’язаного з бронюванням авіаквитків. Зокрема, йдеться про те, що українські злочинні угруповання нібито створюють підроблені сайти, які імітують популярні сервіси бронювання, та викрадають кошти користувачів, а французька поліція буцімто вже отримала понад 50 тисяч звернень від постраждалих. Фактчекери з проєкту VoxCheck довели, що це неправдива інформація.
Euronews не публікувало подібного сюжету, а сам ролик змонтований з використанням справжнього фрагмента відео медіа. Пропагандисти поєднали його з іншими фото- та відеоматеріалами з відкритих джерел, щоб надати вигаданій історії правдоподібності.
Приклад поширення відеофейку
Оригінальне відео Euronews, оприлюднене на початку квітня 2026 року, справді містить вступ про бронювання квитків для літнього відпочинку. Проте далі в сюжеті йдеться зовсім про інше — зростання цін на авіаквитки та скорочення кількості рейсів через конфлікт на Близькому Сході. Жодних згадок про шахрайські схеми, українських кіберзлочинців чи будь-яку причетність України у відео немає.
Крім того, компанія Microsoft не повідомляла про подібні випадки шахрайства на своїх офіційних ресурсах, зокрема в соціальних мережах. Так само відсутні будь-які підтвердження від французьких медіа чи правоохоронних органів щодо нібито десятків тисяч звернень постраждалих користувачів сервісів онлайн-бронювання.
Отже, поширений ролик є підробкою, створеною для дискредитації України через приписування їй кіберзлочинної діяльності, яка не має жодного підтвердження в реальності.
Фейк: українці брали участь в організації теракту в Парижі
У соціальних мережах поширюється публікація, в якій стверджується, що французьке видання Le Figaro нібито повідомило про участь українських біженців в організації теракту в штаб-квартирі Bank of America в Парижі. Повідомлення супроводжується відеороликом, стилізованим під новинний сюжет з логотипом медіа, що має створити враження достовірності. Насправді ця інформація є неправдивою.
Відео, яке активно розповсюджують у мережі, ймовірно, було створене за допомогою інструментів штучного інтелекту та не має жодного стосунку до реального контенту видання.
На офіційних ресурсах Le Figaro, зокрема на сайті та у верифікованих акаунтах у соцмережах (іксі, інстаграмі, фейсбуку і тіктоку), немає жодних згадок про подібний інцидент. Сам ролик лише імітує стиль новин, але не відповідає стандартам оформлення матеріалів медіа.
Зокрема, у відео не вказані типові для журналістських сюжетів елементи — дата, місце події та рубрика. Викликає сумнів і мова: ролик поширюється англійською, тоді як основний контент Le Figaro публікується французькою.
Жодне авторитетне міжнародне медіа, французькі державні органи чи офіційні особи також не повідомляли про причетність громадян України до підготовки цього злочину. Відсутність підтверджень із надійних джерел є ключовою ознакою дезінформації.
Натомість французька прокуратура з боротьби з тероризмом заявила, що четверо підозрюваних у справі про спробу теракту пов’язані з проіранським угрупованням HAYI.
Відомо, що 28 березня французька поліція затримала чоловіка, який встановив саморобний вибуховий пристрій біля будівлі американського банку в Парижі. Справу розслідують як спробу теракту. За інформацією агентства AFP, затриманий повідомив, що був завербований через соціальну мережу Snapchat і мав отримати 600 євро за організацію вибуху. Разом із ним на місці перебував ще один чоловік, якому вдалося втекти до прибуття правоохоронців.
Подібні інформаційні вкиди є частиною системної кампанії з дискредитації українських біженців за кордоном. Пропагандистські ресурси регулярно поширюють неправдиві звинувачення, формуючи образ українців як загрози для європейських суспільств. Мета таких вкидів — сприяти зростанню соціальної напруги, ксенофобських настроїв та підірвати підтримку України з боку міжнародних партнерів.
Тактики
«Вован» і «Лексус». Або як росіяни використовують пранкерів для поширення своєї пропаганди
Російські пранкери Володимир Кузнєцов, відомий як «Вован», і Олексій Столяров, який використовує псевдонім «Лексус», здобули популярність завдяки телефонним розіграшам світових лідерів і знаменитостей. Вони телефонують від імені вигаданих осіб — нібито російських, українських або західних політиків — і публікують у соцмережах вибіркові фрагменти розмов. Хоча такі дії подаються як розвага, насправді вони мають виразний політичний характер і системно просувають наративи, вигідні Кремлю. Про тактику російської пропаганди розповіли EUvsDisinfo.
Спочатку пранкери орієнтувалися на місцевих знаменитостей, однак після незаконної анексії Криму у 2014 році змінили фокус і почали цілеспрямовано атакувати Україну та її союзників. Їхніми цілями ставали, зокрема, тодішній президент України Петро Порошенко та мер Києва Віталій Кличко. Згодом вони вийшли на міжнародний рівень: у 2015 році ввели в оману Елтона Джона, переконавши його, що він спілкується з Володимиром Путіним щодо прав ЛГБТ, а пізніше почали регулярно контактувати із західними політиками та журналістами.
Попри публічні заперечення зв’язків зі спецслужбами, характер їхніх дій свідчить про системність: мішенями стають переважно опоненти Кремля, а змонтовані записи поширюються через мережі, пов’язані з російськими інформаційними операціями. З часом пранкери зосередилися на дискредитації опозиційних рухів у пострадянських країнах, просуваючи тезу про їхню нібито залежність від Заходу. Наприклад, під час протестів у Білорусі у 2020 році вони видали себе за Світлану Тихановську в розмові з представниками американської організації National Endowment for Democracy, а вирвані з контексту фрази використали для маніпуляцій щодо «зовнішнього впливу».
Подібні методи застосовувалися і в інших країнах. У 2025 році окремі фрагменти розмови з президенткою Грузії Саломе Зурабішвілі було подано як «доказ» зовнішнього керування протестами. У Європі пранкери також регулярно атакують політиків і посадовців, просуваючи вигідні Москві меседжі. Зокрема, у 2023 році вони, видаючи себе за Володимира Зеленського, спілкувалися з президенткою Європейського центрального банку Крістін Лагард та іншими лідерами, після чого публікували змонтовані уривки, що нібито свідчили про «контроль» з боку України.
Такі розіграші використовують і для просування наративу про «втому від України» на Заході. Наприклад, у розмові з прем’єр-міністеркою Італії Джорджією Мелоні її слова були подані як підтвердження зниження підтримки України. У березні 2026 року пранкери також телефонували міністерці закордонних справ Гренландії Вівіан Моцфельдт, просуваючи тезу про відсутність загрози з боку Росії. У той самий період вони намагалися дискредитувати іранського опозиціонера Резу Пахлаві, видаючи себе за представників уряду Німеччини.
EUvsDisinfo стверджують, що діяльність «Вована» і «Лексуса» дедалі більше інтегрується у ширші інформаційні операції Кремля. Їхній контент поширюється прокремлівськими медіа, а з 2016 року вони мають власне шоу на телеканалі НТВ. Після повномасштабного вторгнення Росії в Україну їх почав транслювати державний «Перший канал». Крім того, їхній телеграм-канал, який має сотні тисяч підписників, використовується для збору коштів на потреби російської армії. У 2024 році вони отримали державну нагороду Росії «Орден дружби».
Отже, попри образ «коміків», діяльність цих пранкерів є частиною скоординованих інформаційних операцій. Їхні «розіграші» — це інструмент впливу, спрямований на дискредитацію опонентів Кремля, маніпуляцію громадською думкою та просування геополітичних наративів Росії.
Пропагандисти вигадали кількість українських військових, які втекли під час лікування у Франції
У мережі поширюється відео з логотипом французького тижневика Le Point, у якому англомовний закадровий голос стверджує, що «кожен третій військовослужбовець ЗСУ, який проходив лікування у Франції у 2025 році, не повернувся до України», а загальна кількість тих, хто нібито «залишився», перевищує 20 000 осіб. У ролику також заявляють, що французька поліція буцімто фіксує масове залучення українських військових до кримінальних угруповань, а представниця партії «Lutte Ouvrière» Наталі Арто нібито попереджала про загрозу через «20 000 солдатів із ПТСР». Авторство матеріалу приписують Борису Ганзелю та відеографу П’єру Ле Муелліку. Дезінформаційні повідомлення проаналізували у фактчекінговому проєкті StopFake.
Насправді це відео є фабрикацією. Видання Le Point не публікувало подібних матеріалів, ані французькою, ані будь-якою іншою мовою. Ба більше, цей тижневик працює виключно французькою і не створює відеоконтенту англійською мовою у форматі, який поширюється в мережі. Жодної публікації про «20 000 українських дезертирів у Франції» не існує ні у відкритому доступі, ні в архівах видання.
Особа, зазначена як автор, — Борис Ганзель — насправді є професором медицини Університету Париж Сіте, а не політичним журналістом. Він співпрацює з Le Point лише як автор матеріалів про здоров’я та науку. Пропагандисти використали фрагменти з його реальних відео та додали їх до вигаданого політичного сюжету, створивши ілюзію достовірності.
Також неправдивими є твердження про нібито заяви французької поліції. Жодних офіційних повідомлень про масове залучення українських військових до кримінальних угруповань не існує. Навпаки, французькі правоохоронці співпрацюють з Україною, зокрема в межах міжнародних розслідувань і протидії злочинності за участі Europol.
Не відповідає дійсності й інформація про заяви Наталі Арто. Представниця «Lutte Ouvrière» не робила подібних заяв, а жодних підтверджень цього немає ні в медіа, ні в офіційних джерелах.
Окремо варто наголосити, що наведені у відео цифри є математично неможливими. За даними Міністерства охорони здоров’я України, загальна кількість медичних евакуацій українців за весь час повномасштабної війни становить 6273 особи у всіх країнах разом. При цьому Франція не є серед країн, що прийняли найбільшу кількість пацієнтів. Тобто, твердження про «20 000 військових, які залишилися у Франції», не має жодного підґрунтя.
Отже, відео є черговою інформаційною маніпуляцією, створеною з використанням айдентики авторитетного медіа для поширення неправдивих і дискредитаційних наративів про Україну.
Арсеній Яценюк із «цифрових Мальдів» підняв за Україну чарку на паску
Увечері 12 квітня 2026 року українські телеграм-канали поширили відео, де колишній прем’єр-міністр України Арсеній Яценюк у трусах-боксерках вітає українців з Великоднем. На задньому плані – пісок, море і пальми.
Зображення з відео, яке поширювали в телеграмі
На використання генеративного інтелекту вказує статичність фону, різноспрямовані рухи листя пальм на вітрі та відсутність руху тіні від руху листя. Також доріжка із голосом Арсенія Яценюка містить «булькання» і шуми, не властиві тому, як слова вимовляють люди.
Інструмент виявлення слідів роботи генеративного штучного інтелекту Deepware вказує, що відео з політиком є «підозрілим».
Інструмент Hive Moderation надає ролику 99,9% шансу, що відеоряд був створений з використанням штучного інтелекту. А також 7,3%, що згенерували аудіо.
Судячи зі сторінки Арсенія Яценюка на фейсбуці, у цей час він, найімовірніше, перебував в Україні.
Відеофейк про трьох українців, які кібератакували Єврокомісію
У мережі поширюється інформація, нібито троє громадян України здійснили кібератаку на Європейську комісію: буцімто вони влаштувалися туди на роботу, заразили комп’ютери шкідливим програмним забезпеченням і зникли. Стверджується також, що правоохоронці не змогли їх затримати, а самі підозрювані переховуються в Єгипті та перебувають у міжнародному розшуку Інтерполу. Дезінформаційні повідомлення проаналізували у фактчекінговому проєкті StopFake.
Першоджерелом цієї історії став відеоролик з логотипом видання Wired, у якому також наводиться нібито коментар фахівця з кібербезпеки Лоренса-Яна Клоппенбурга. У ньому стверджується, що українці, які вчиняють кіберзлочини в Європі, уникають відповідальності через поблажливе ставлення до них як до жертв війни, а також що вони нібито формують злочинні мережі на території ЄС.
Насправді видання Wired, яке спеціалізується на темах технологій, політики та міжнародної безпеки, не публікувало такого відео і не використовує подібний формат подачі матеріалів. Сам ролик є сфальшованим і створений для імітації авторитетного джерела.
Крім того, жодних підтверджень цієї історії немає в офіційних повідомленнях Європейської комісії чи інших авторитетних міжнародних інституцій. Перевірка бази Інтерполу також не підтверджує ці повідомлення: станом на зараз громадяни України не перебувають у міжнародному розшуку в Бельгії за кіберзлочини, як це стверджується у фейковому сюжеті.
Особа, яку цитують у ролику, також використана маніпулятивно. Лоренс-Ян Клоппенбург не є публічним експертом чи коментатором з політичних питань. Він працює в приватному секторі в нідерландській організації Cyber Campus, що займається розвитком цифрової стійкості малого та середнього бізнесу. Його фото було взяте з відкритих джерел, а приписані йому слова — вигадані. Жодних коментарів щодо цієї історії він не робив.
Варто зазначити, що використання айдентики відомих медіа, зокрема Wired, є типовим прийомом пропаганди для створення ілюзії достовірності. Про що розповідають «Хроніки дезінформації».
Новий фейк про втручання України у вибори в інших державах
У соціальних мережах і прокремлівських телеграм-каналах поширюється відеоролик з логотипом аналітичної компанії NewsGuard, у якому стверджується, що Україна з 2023 року нібито «активно втручається у вибори суверенних держав», зокрема у США, Німеччині, Франції, Румунії, Молдові та Вірменії. Як «докази» наводяться твердження про використання українськими спецслужбами ботоферм і DDoS-атак для підтримки «антиросійських сил». Як спростовувати це і схожі дезінформаційні повідомлення, показали у фактчекінговому проєкті StopFake.
Відео від нібито NewsGuard є підробкою. Компанія NewsGuard не публікувала жодних матеріалів чи звітів про «втручання України у вибори суверенних держав». Ба більше, формат поширеного ролика не відповідає діяльності компанії: вона спеціалізується на аналітичних дослідженнях та оцінюванні надійності медіа, а не на створенні коротких відео для соціальних мереж. NewsGuard також не має офіційних акаунтів для публікації подібного контенту у форматі відеороликів.
Проте твердження, озвучені у фейковому відео, є прикладом типової пропагандистської тактики — приписування опоненту власних дій. Описані методи, зокрема використання бот-мереж, DDoS-атак і створення підроблених відео з імітацією авторитетних медіа, добре задокументовані як інструменти російських інформаційних операцій. Зокрема, відома операція «Матрьошка», що координує мережі ботів на соціальних платформах для поширення фейкового контенту, а також проєкт «Допельгенгер», у межах якого створювалися копії сайтів провідних західних медіа для розміщення дезінформації. Саме подібні механізми використали і для створення цього ролика з логотипом NewsGuard.
Поява такого фейку збігається в часі з важливими політичними подіями. Зокрема, триває підготовка до парламентських виборів у Вірменії та Угорщині, що супроводжується активізацією інформаційних кампаній. У цих умовах поширення наративів про «українське втручання» є частиною ширшої стратегії дискредитації України та просування вигідних Кремлю політичних сил.
Отже, відео з логотипом NewsGuard є сфальсифікованим, а його зміст — маніпулятивним. Його мета — створити хибне уявлення про нібито українські операції впливу та відвернути увагу від реальних випадків втручання Росії в інформаційний простір інших держав.
Відеофейк про «український флешмоб у тіктоку» зі спалювання прапорів Угорщини
У соціальних мережах поширюють відео з логотипом видання WIRED, у якому стверджується, нібито українці запустили в TikTok флешмоб зі спалювання прапорів Угорщини. Відео подають як матеріал авторитетного західного медіа, щоб створити ілюзію достовірності. Насправді ця інформація не відповідає дійсності — дезінформаційні повідомлення проаналізували VoxCheck.
Жодних підтверджень існування такого флешмобу немає. WIRED не публікував подібного відео ні на своєму офіційному сайті, ні в соціальних мережах — зокрема в Instagram, Facebook, YouTube, TikTok чи X. Відсутність будь-яких згадок у надійних джерелах свідчить про те, що відео є вигаданим.
Аналіз ролика показує, що пропагандисти намагалися відтворити стиль відео WIRED, однак допустили характерні помилки. У справжніх відео журналу на початку обов’язково зазначають ім’я людини, яка озвучує текст, а також тему ролика на чорному тлі. Крім того, усі матеріали озвучуються реальними дикторами, тоді як формат із музикою та субтитрами без голосу для цього медіа не характерний.
Отже, поширюване відео є підробкою, створеною для маніпуляції аудиторією та дискредитації українців. Використання логотипів відомих міжнародних медіа — типовий прийом дезінформації, покликаний надати фейковому контенту вигляду достовірності.
В Росії сфальсифікували переклад інтерв’ю Лаврова з французькою журналісткою
Міністерство закордонних справ Росії спотворило зміст інтерв’ю глави відомства Сергія Лаврова французькій журналістці Лії Саламе. У російській версії перекладу запитання журналістки було змінено таким чином, щоб вони відповідали наративам кремлівської пропаганди.
Зокрема, у перекладі було змінено формулювання запитань журналістки. Оригінальну репліку про те, що «не чути, щоб Росія захищала Іран», у російській версії подали як твердження: «ви багато захищали свого союзника — Іран».
Також було викривлено інформацію про втрати серед цивільного населення України. Якщо в оригіналі йшлося про «десятки тисяч загиблих мирних жителів», то в перекладі цю цифру зменшили до «сотень».
Крім того, у перекладі з’явилася фраза «розумію вас», яку журналістка насправді не озвучувала. Така вставка створює хибне враження про нібито підтримку нею позиції російського міністра.
Таким чином, російська сторона не лише переклала інтерв’ю з неточностями, а й фактично змінила зміст запитань, приписавши журналістці вигідні для Кремля формулювання. Це є прикладом маніпуляції інформацією з метою просування пропагандистських наративів.
Згенеровані ШІ інфлюенсери із соцмереж допомагають шахраям виманювати гроші. Як не попастися?
У сучасному цифровому просторі набирає обертів новий вид шахрайства, де замість реальних людей аудиторію обманюють віртуальні інфлюенсери, створені за допомогою штучного інтелекту. Зловмисники вибудовують цілі цифрові особистості з бездоганною зовнішністю, професійними відео та підробною соціальною активністю. Ці Deepfake-персони імітують повсякденне життя, реагують на тренди та поступово втираються в довіру до підписників, щоб згодом просувати сумнівні інвестиції, криптосхеми або неякісні товари через фейкові магазини. Про дезінформаційні повідомлення розповів Том Ванненмахер із проєкту Mimikama.
Викриття таких схем базується на розумінні того, що високе охоплення та тисячі лайків у соцмережах більше не є гарантією автентичності. Шахраї використовують "соціальні рутини" — повторювані публікації, куплені коментарі та імітацію особистого спілкування в директі — для створення ілюзії надійності. Аналітики наголошують, що такі платформи, як Meta, видаляють мільйони підозрілих акаунтів, проте технологічний бар'єр постійно знижується. Тепер для створення переконливого образу не потрібні великі кошти, що дозволяє злочинцям масштабувати обман, запускаючи цілі мережі штучних профілів, які підтримують один одного.
Для того, щоб не стати жертвою маніпуляції, фахівці радять звертати увагу на специфічні ознаки підробки. Це може бути візуальна "надто ідеальна" картинка, яка при цьому не збігається зі стилістикою різних відео на одному каналі, або розмитість деталей навколо обличчя та неприродні рухи. Також варто насторожитися, якщо популярний блогер має розмиту біографію, уникає прямих відповідей про походження товарів, які рекламує, або агресивно підштовхує до швидких фінансових рішень у закритих месенджерах. У разі підозри на шахрайство експерти закликають негайно фіксувати всі докази, повідомляти платформу про підробний профіль та у жодному разі не передавати дані своїх криптогаманців чи банківських карток.
ВІдеофейк із логотипом DW і вимогою не допускати Україну на Олімпійські ігри
У соціальних мережах розпочалося поширення сфальсифікованого відеоролика з логотипом авторитетного німецького видання Deutsche Welle, у якому стверджується про масові протести в Італії. Згідно з фейковим сюжетом, мешканці Мілана напередодні Олімпійських ігор нібито вимагали відсторонити збірну України від змагань через підтримку українською владою продовження війни. Насправді це відео є технічною підробкою, де реальні кадри змонтовані з вигаданими субтитрами та закадровим текстом для створення хибного наративу про міжнародну ізоляцію України. Про дезінформаційні повідомлення розповіли VoxCheck.
Зразок повідоомлення із поширенням фейку із логотипом DW. Джерело: VoxCheck
Викрити маніпуляцію вдалося завдяки інструментам зворотного пошуку відео, які дозволили знайти оригінальний матеріал Deutsche Welle. Справжній сюжет справді описував протести в Мілані після церемонії відкриття Ігор, проте їхні причини не мали жодного стосунку до України. Мітингувальники висловлювали занепокоєння екологічними наслідками Олімпіади, навантаженням на державний бюджет Італії, а також критикували присутність американських спецслужб, що супроводжували команду США. Закликів щодо недопуску українських атлетів під час цих акцій не звучало.
Технологія створення цього фейку полягала у використанні перших трьох кадрів справжнього репортажу для введення глядача в оману щодо автентичності джерела. Після цього автори підробки змінили зміст ролика, додавши кадри з відкритих джерел, які супроводжувалися субтитрами з абсолютно вигаданими тезами. Використання впізнаваного бренду міжнародного медіа є класичним прийомом дезінформації, що має на меті підвищити рівень довіри до неправдивого контенту та спровокувати внутрішні конфлікти в українському суспільстві.
Фейкові матеріали від Reuters і BBC про українців, які гріються біля мобільних крематоріїв
У мережі поширюють відео, яке нібито є сюжетом міжнародного агентства Reuters. У ролику стверджується, що британський мовник BBC начебто показав матеріал про українців, які під час відключень електроенергії змушені грітися біля мобільних крематоріїв. Автори відео намагаються представити це як доказ гуманітарної катастрофи в Україні та як підтвердження нібито цинічного ставлення української влади до громадян.
Насправді це фейк. Жодне з авторитетних міжнародних медіа не публікувало таких матеріалів. Ні Reuters, ні BBC не випускали відео або новин про українців, які нібито змушені грітися біля мобільних крематоріїв. Подібні сюжети відсутні як на офіційних сайтах медіа, так і на їхніх сторінках у соціальних мережах. Аналіз відео показує, що його автори намагалися імітувати стиль інформаційних роликів Reuters (що вже систематично зʼявляється в інформаційному просторі).
Нещодавно також поширювали ще один подібний фейк з таким ж використанням логотипу та стилю Reuters.
Фейк про українську зброю, якою нібито атакували Ізраїль
У мережі шириться сюжет, нібито опублікований USA Today, про те, що серед уламків ракет, якими атакували Ізраїль та американські військові бази на Близькому Сході, було знайдено фрагменти зброї, переданої Україні як військова допомога. З посиланням на Паркера Гампела, експерта з Інституту вивчення війни, припускають, що зброя могла потрапити до Ірану через чорний ринок. Однак, за даними «Вокс Україна», цей матеріал є фейком.
Скриншот допису
По-перше, оформлення сюжету відрізняється від стандартного оформлення матеріалів USA Today. У справжніх сюжетах за вимогами авторського права завжди вказується автор матеріалу, взятого з відкритого джерела. Також медіа завжди зазначає локацію і дату події в кадрі. Проте в цьому відео такої інформації немає.
По-друге, схожої інформації немає ані на офіційному сайті медіа, ані на його сторінках у фейсбуці, іксі, інстаграмі, тіктоці та ютубі. Водночас жодна офіційна структура США або Ізраїлю не публікувала інформації про знайдення зброї, що була передана Україні, серед знайдених у регіоні уламків ракет.
Щодо Паркера Гампела, то він також не робив заяв про надходження зброї з України через чорний ринок.
Фейк: У Дубаї поліція затримала 19 українців за пограбування ювелірних магазинів
У польськомовних соціальних мережах (зокрема, фейсбуку) масово шириться відео, стилізоване під новинний сюжет відомого європейського телеканалу Euronews. У ньому стверджується, нібито українські банди скористалися хаосом після атак іранських безпілотників та масово грабують ювелірні магазини в Дубаї. У сюжеті також додають, що місцева поліція вже затримала 19 злодіїв українського походження. Втім, сюжет виявився сфальшованим. Виявили фейк експерти Demagog.
Скриншот допису на фейсбуці, що поширював дезінформацію
Відео Euronews було сфальсифіковано
Пропагандисти справді використали реальні кадри з ефіру Euronews, щоб надати своєму фейку правдоподібності. Фактчекери знайшли оригінальний запис на офіційній сторінці редакції у фейсбуку за 28 лютого. На ньому дійсно присутня та сама репортерка (Джейн Візерспун), однак текст її репортажу кардинально відрізняється. В оригінальному відео журналістка розповідає виключно про атаку іранських дронів на один із готелів у Дубаї і зазначає, що місцеві мешканці залишаються пильними. Жодного слова про українців, банди чи пограбування ювелірних крамниць в оригінальному сюжеті немає.
Центр протидії дезінформації при РНБО України неодноразово фіксував подібні інформаційні вкиди. Мімікрія під авторитетні світові медіа (використання їхніх логотипів, графіки та реальних кадрів із накладанням фейкових титрів чи озвучення) — це один з найпоширеніших методів російської пропаганди. Мета таких дій прозора: дискредитувати українських біженців та громадян за кордоном, зобразивши їх злочинцями, і посіяти недовіру до них з боку міжнародної спільноти.
Історія про «українські банди в Дубаї» є фейком. Зловмисники просто вкрали сюжет Euronews про атаку безпілотників і додали до нього вигаданий текст.
Кадри вечірки у Дніпрі виявились відео з вечірки у Дрездені
Користувачі соціальних мереж обурювались відео, на якому нібито зафіксовано розважальну вечірку в одному з нічних клубів Дніпра під час комендантської години. На кадрах чітко чутно російськомовну музику та видно назву закладу — «Імперія», що змусило багатьох користувачів повірити в моральний занепад та порушення закону в прифронтовому місті. Однак перевірка встановила, що поширені матеріали не мають жодного стосунку до реального стану справ у Дніпрі, а є типовим прикладом інформаційної атаки. Про дезінформаційні повідомлення розповіло «Суспільне Дніпро».
Журналісти відвідали адресу, за якою раніше в місті функціонував однойменний клуб, і з'ясували, що заклад закритий ще з 2018 року, а зараз у цьому приміщенні розташована квест-кімната. Поліція Дніпра також офіційно спростувала інформацію про діяльність клубу, підтвердивши результати перевірки. Насправді відео було зняте за кордоном — у дрезденському нічному клубі «Imperia Russian Night», який спеціалізується на російськомовних вечірках для емігрантів. Це підтверджується ідентичним інтер'єром та неоновою вивіскою, яку можна знайти на офіційних сторінках німецького закладу.
Експерт із протидії дезінформації «Детектор медіа» Роман Дерезенко пояснив механіку поширення цього фейку:
«Також фейки можуть створюватися навмисно для маніпуляцій або інформаційних атак. У контексті війни Росії проти України такі відео часто мають на меті створити враження хаосу, морального занепаду або внутрішніх конфліктів у країні. Для цього використовують реальні назви міст чи закладів, щоб інформація виглядала правдоподібною. У цьому випадку використали назву клубу "Імперія", який колись дійсно існував у Дніпрі, але давно не працює».
Скриншоти відео, яке поширили в соцмережах Дніпра. Джерело: Суспільне Дніпро
Роман Дерезенко сказав, що саме емоційний контент, який викликає миттєве обурення, найшвидше поширюється мережею без жодної верифікації з боку користувачів.
Викриття фейку стало можливим завдяки увазі до деталей, зокрема до логотипа клубу на відео. Як зазначив Роман Дерезенко, порівняння кольору підсвітки та елементів сцени з фотографіями в інтернеті чітко вказує на Дрезден. Експерт закликає громадян бути критичними до анонімних повідомлень у тіктоці чи телеграмі та використовувати інструменти зворотного пошуку зображень, адже здатність фільтрувати інформацію сьогодні є не просто корисною навичкою, а елементом громадянської безпеки.