Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

08 Квітня станом на 1504 день повномасштабної війни наша редакція зафіксувала:

2734
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк: Об’єднані Арабські Емірати нібито відмовилися від допомоги українських спеціалістів у перехопленні іранських «шахедів»

Анонімні телеграм-канали та російські медіа активно розповсюджують чергову вигадку: мовляв, уряд ОАЕ відхилив пропозицію України щодо допомоги в боротьбі з іранськими ударними дронами. За їхніми словами, про це нібито повідомило авторитетне агентство Al Jazeera. Розвінчали фейк, що використовує підроблений сюжет катарського телеканалу, експерти «Стоп Фейк».

Скриншот — телеграм

Насправді ця «новина» спочатку з’явилася в проросійських і проіранських телеграм-каналах, а потім її підхопили ботоферми та новинні агрегатори. Для верифікації фактчекери використовували інструменти Osavul. На сайті Al Jazeera немає жодної публікації про розрив чи відмову від співпраці з Україною. Російські пропагандисти вже не вперше зловживають брендами відомих медіа, щоб надати фейкам правдоподібності.

Реальність зовсім інакша. З середини березня 2026 року на Близькому Сході працюють 228 українських фахівців, які допомагають місцевим силам протиповітряної оборони протистояти іранським БпЛА. За даними BBC, в одній з країн регіону українські експерти вже брали безпосередню участь в успішному збитті іранських безпілотників.

Президент Володимир Зеленський повідомив, що Україна отримала 11 офіційних запитів від держав, які межують з Іраном, а також від європейських країн і Сполучених Штатів щодо підтримки в захисті від іранських «шахедів» та подібних загроз.

Крім того, українські виробники та представники оборонної галузі отримали десятки комерційних пропозицій від країн Перської затоки та Близького Сходу. Йдеться про потенційні контракти на постачання десятків тисяч дронів-перехоплювачів, причому іноземні партнери готові платити значно більше, ніж на внутрішньому українському ринку.

У березні 2026 року Володимир Зеленський відвідав Саудівську Аравію, де підписав угоду про оборонне співробітництво. Подібні домовленості активно готуються або реалізуються і з іншими державами регіону. Усе це прямо спростовує пропагандистські вкиди та демонструє, що інтерес до українського досвіду протидії дронам лише зростає.

Раніше Центр досліджень «Детектора медіа» вже розбирав основні наративи російської пропаганди щодо постачання експертизи та ППО в держави Перської затоки. Детальніше читайте в статті: «Зеленський продає ППО шейхам»: російська пропаганда — про турне українського президента в країни Перської затоки

Арабський вектор дезінформації: Кремль намагається купити лояльність Близького Сходу, — SPRAVDI

Поки Україна активно зміцнює дипломатичні та економічні зв’язки з країнами Перської затоки, російська машина пропаганди шукає нові шляхи для дискредитації нашої держави. Цього разу в центрі уваги Москви опинилися арабомовні телеграм-канали, через які Кремль намагається поширювати вигідні йому наративи, видаючи їх за «думку місцевої аудиторії».

Центр стратегічних комунікацій та інформаційної безпеки (SPRAVDI) зафіксував масовану спробу російських спецслужб підкупити власників арабомовних телеграм-каналів, що працюють на арабську аудиторію. З метою протидіяти українській дипломатії в регіоні та посіяти недовіру між партнерами.

Скриншот - телеграм, джерело: SPRAVDI

Схема «Цукерок»: як працює підкуп блогерів

За даними моніторингу, власники арабських ресурсів почали масово отримувати пропозиції про співпрацю від анонімних замовників. Зокрема, зафіксовано активність користувача під ніком «Ксенія» з акаунту з іронічною назвою «Цукерок» (Cukerok).

Алгоритм дій досить простий:

  1. Пошук майданчика: обираються впливові арабські блогери або новинні канали.
  2. Пропозиція: адміністраторам пропонують гроші за розміщення «ексклюзивного» відеоконтенту.
  3. Готовий продукт: замовники надають уже змонтовані ролики з готовими тезами. Від блогера вимагається лише опублікувати матеріал як власну новину або «аналітичний погляд».

Які фейки просуває Росія?

Основна тема, яку наразі намагаються «продати» арабському світу, — це нібито «недотримання Україною угод з арабськими країнами».

Пропагандисти використовують абсурдну маніпуляцію: вони намагаються звинуватити Україну в проблемах країн, які самі ж потерпають від ударів іранських дронів типу «Шахед». Головне завдання таких вкидів — створити ілюзію, що Україна є ненадійним партнером, а її дії нібито шкодять інтересам арабського світу.

Навіщо це Кремлю?

Фахівці пояснюють, що Росія вдається до тактики «астротурфінгу» — створення видимості масової підтримки певної думки знизу. Коли антиукраїнський фейк з’являється на арабському каналі, він виглядає як органічна позиція місцевої спільноти, а не як пряма трансляція з Москви.

Ключові цілі цієї кампанії:

  • Підрив довіри: зруйнувати позитивне сприйняття України, яке вибудовувалося протягом останніх років через активний діалог з лідерами країн Перської затоки.
  • Інформаційна ізоляція: створити навколо України токсичний фон у регіоні, який є стратегічно важливим для енергетичної та політичної стабільності світу.
  • Відвернення уваги: змістити акценти з агресивних дій самої Росії та її співпраці з постачальниками терористичних технологій.

Висновок

Російська дезінформація стає дедалі витонченішою, мімікруючи під голоси іноземних журналістів та блогерів. Успіхи української дипломатії на Близькому Сході стали для Кремля «болючою точкою», на яку вони намагаються тиснути за допомогою підкупів та брехні.

Раніше Центр досліджень «Детектора медіа» вже розбирав основні наративи російської пропаганди щодо постачання експертизи та ППО у держави Перської затоки. Детальніше читайте в статті:  «Зеленський продає ППО шейхам»: російська пропаганда — про турне українського президента в країни Перської затоки

Фейк: файли Епштейна нібито доводять, що Леонардо ДіКапріо з’їв понад 70 фунтів «дитячого м’яса»

У документах, оприлюднених Мін’юстом США 30 січня 2026 року у справі Джеффрі Епштейна, немає жодних доказів того, що актор Леонардо ДіКапріо займався канібалізмом, їв «дитяче м’ясо» чи листувався про «канібальську дієту» з режисером Вуді Алленом. Це чергова вигадка конспірологів, яка не підтверджується жодним документом і яку розібрали журналісти Snopes 

Приклад публікації в інстаграмі, що поширює фейк 

Що саме поширюють у соцмережах?

З березня 2026 року в інстаграмі, іксі (твіттері) та інших платформах активно розганяють дописи на кшталт: «Нові файли Епштейна розкривають: Леонардо ДіКапріо з’їв понад 70 фунтів “child meat” у межах канібальської дієти. Файли показують, як він листувався з Вуді Алленом і хвалився, що є повноцінним канібалом».

Деякі пости додають «історичний контекст»: «Канібалізм — не новинка, він сягає часів ханаанців з Біблії». Зображення з таким текстом набирають тисячі поширень.

Скриншот публікації в іксі, яка поширює фейк і набрала понад 13 млн переглядів 

Звідки взявся фейк?

Першоджерелом став сайт The People’s Voice (колишній NewsPunch), відомий поширенням дезінформації. 20 лютого 2026 року вони опублікували статтю із заголовком: «Файли Епштейна розкривають: Леонардо ДіКапріо з’їв 70 фунтів дитячого м’яса на “канібальській дієті”».

Автори статті стверджували, що в документах є «закодованою мовою» згадки про «jerky», «cream cheese baby» та інші нібито кодові слова, які вказують на «канібальську операцію» за участю ДіКапріо. Також ішлося про листи між актором і Вуді Алленом. Жодних конкретних посилань на номери документів, сторінки чи файли стаття не містила — лише емоційні інтерпретації уривків, які не стосуються справи.

Дезінформацію підхопив і конспіролог Алекс Джонс у відео на Infowars, де він говорив про «величезний список листів» про «людське м’ясо», але жодних доказів чи скриншотів не показав.

Що насправді є в документах?

Ім’я Леонардо ДіКапріо у файлах справді згадується кілька разів, але виключно в контексті третьої сторони:

  • Один email пропонує організувати вечерю з ДіКапріо та Вуді Алленом (лист написаний не ними, а пов’язаний з колом Епштейна).
  • Інші згадки — це name-dropping самим Епштейном, посилання на медіаподії чи запрошення на перегляд фільму.
  • Жоден документ не написаний ДіКапріо, не містить його відповідей і тим більше не стосується злочинів чи канібалізму.

У файлах є окремі згадки про канібалізм і ритуальні жертвоприношення, але вони не пов’язані з ДіКапріо чи Алленом. Попередні перевірки (зокрема Snopes) уже спростували тлумачення «jerky», «cream cheese baby» чи закупівлі сірчаної кислоти як доказів «трубопроводу дитячого м’яса».

Висновок

Немає жодних доказів, що ДіКапріо «допомагав Епштейну з’їсти 70 фунтів дитячого м’яса за два тижні» чи хвалився канібалізмом. Це класичний приклад, коли конспірологічні сайти беруть реальну згадку імені знаменитості в документах і «пришивають» до неї приголомшливу вигадку, не надаючи жодних посилань.

Такі фейки працюють на емоціях і сенсаціях, щоб набирати перегляди. Завжди перевіряйте першоджерела: офіційні документи Мін’юсту США доступні онлайн.

«Детектор медіа» вже розвінчував фейки, які поширює конспірологічний сайт The People’s Voice, також пов’язані з так званими файлами Епштейна. 

Три способи, якими штучний інтелект змінює інформаційний простір, і чому фактчекери необхідні

Попри безпрецедентний доступ до інформації, скласти цілісне уявлення про події у світі стає дедалі складніше. У соціальних мережах новини поширюються через непрозорі алгоритми, а користувачі все частіше споживають інформацію у вигляді безперервних стрічок, не шукаючи її свідомо. Це суттєво впливає на те, як люди залишаються поінформованими, і робить самі факти більш вразливими. Водночас економічна криза в журналістиці призвела до появи «інформаційних пустель», де бракує професійних медіа для висвітлення місцевих подій. За даними дослідження Fundación Gabo, щонайменше 30% територій у країнах Латинської Америки підпадають під цю категорію. У поєднанні з розвитком штучного інтелекту це значно ускладнює здатність громадян орієнтуватися в подіях — наприклад, розуміти, що відбувається в Ірані чи Венесуелі. Як штучний інтелект впливає на доступ до надійної інформації розповіли Олівія Сор і Франко Піккато із Poynter.

Експерти виділяють три ключові способи, якими штучний інтелект змінює інформаційний простір. Найпомітніший із них — використання ШІ для створення дезінформації, як з політичних, так і з комерційних мотивів. Наприклад, під час інформаційної хвилі довкола нібито затримання президента Венесуели Ніколаса Мадуро мережею поширювалися згенеровані зображення політика в кайданках ще до появи перевірених матеріалів. Подібні технології дедалі активніше використовують і кримінальні угруповання: під час операції в Мексиці, у якій було ліквідовано наркобарона Немесіо «Ель Менчо» Осегеру, створювалися відео для перебільшення масштабу хаосу. Окрім цього, зросла кількість шахрайських схем із використанням фейкових відео відомих осіб, що рекламують неіснуючі інвестиції.

Другий напрям впливу — використання генеративних чат-ботів як джерела новин. Хоча це може розширити доступ до інформації та адаптувати її під потреби користувачів, такі системи здатні генерувати неправдиві відповіді, які важко виявити. Навіть невеликий відсоток помилок стає проблемою, якщо користувач не може визначити, де саме інформація є хибною.

Третій і найглибший вплив полягає в розмиванні самого поняття доказу. Сучасні технології значно спростили створення переконливих підробок, через що стає дедалі важче довіряти зображенням і відео. Це призводить до явища «дивіденду брехуна», коли навіть справжні докази можна дискредитувати, заявивши, що вони створені штучним інтелектом. Політики вже використовують цей підхід, заперечуючи автентичність витоків аудіозаписів.

Олівія СОр і Франко Піккато наголошують, що простих рішень у цій ситуації не існує. Соціальні мережі, попри позитивний вплив на розширення публічної дискусії, потребують відповідального регулювання, адже їхні рішення суттєво впливають на інформаційні потоки та демократичні процеси. Водночас залишаються відкритими ключові питання — як забезпечити відстежуваність синтетичного контенту, які запобіжники використовують компанії під час навчання моделей ШІ та як протидіяти їх застосуванню в координованих інформаційних кампаніях.

Важливу роль у протидії дезінформації відіграє розвиток медіаграмотності. Йдеться не лише про здатність розпізнавати фейки, а й про вміння знаходити надійні джерела інформації. Фактчекінг залишається ключовим інструментом, і попри розвиток технологій, він досі значною мірою залежить від людської експертизи. Саме люди здатні враховувати контекст, іронію та нюанси, які машини не можуть повністю відтворити.

Хоча перевірити всю інформацію неможливо, фактчекери зосереджуються на найбільш впливових або потенційно небезпечних випадках дезінформації. Їхня мета — не лише спростування неправдивих тверджень, а й пояснення механізмів поширення фейків і формування критичного мислення в аудиторії. У підсумку це допомагає людям самостійно робити обґрунтовані висновки, спираючись на факти.

Фейки про «паливну кризу» на Заході: розбір заяв білоруських медіа

На тлі підвищення цін на паливо в Білорусі державні телеканали поширювали сюжети про нібито стрімке зростання вартості бензину в Європі та США. У цих матеріалах стверджувалося, що ціни за кордоном зростають значно швидше й досягають критичних рівнів. Втім, перевірка показала, що такі твердження є перебільшеними або вирваними з контексту — дезінформаційні повідомлення проаналізували Беларускі расследавальніцкі цэнтр.

Контекстом для цих повідомлень стало подорожчання пального в самій Білорусі: з 28 березня ціни зросли на 4 копійки, а згодом планувалося ще одне підвищення. Концерн «Белнафтохім» пояснив це глобальним зростанням цін на нафту й нафтопродукти. Попри це, паливо в країні залишається дешевшим, ніж у Європейському Союзі, зокрема через постачання російської нафти на пільгових умовах. Водночас у Росії з 1 квітня запровадили повну заборону на експорт бензину для виробників, щоб стабілізувати внутрішній ринок.

На цьому тлі білоруські телеканали почали розказувати про різке подорожчання пального на Заході. Зокрема, у сюжеті одного з телеканалів заявляли, що в Німеччині ціни на бензин і дизель перевищили 2,5 євро за літр, а зростання становить «30–50 центів на день». Однак ці дані не відповідають реальності. На момент початку військової операції США проти Ірану наприкінці лютого ціни в Німеччині становили близько 1,8 євро за літр. Якби вони справді зростали на 30–50 центів щодня, то вже за кілька тижнів ціна мала б сягнути 9–14 євро за літр. Насправді ж приблизно через місяць бензин коштував близько 2,10 євро, а дизель — близько 2,30 євро. Тобто зростання на 30–50 центів відбулося за місяць, а не за один день.

Подібне перебільшення зафіксували і в сюжетах про США. В одному з ефірів стверджувалося, що ціна бензину нібито перевищила 7,5 долара за галон, що начебто призводить до додаткових витрат у 450 доларів на місяць для середньої родини. Хоча такі ціни дійсно фіксувалися, йшлося лише про окремі заправки в Каліфорнії, де вартість могла сягати 7–8 доларів, а подекуди й майже 9. Це не відображає загальної ситуації в країні.

У середньому по США на той момент бензин коштував близько 4 доларів за галон, тоді як до загострення на Близькому Сході — приблизно 3 долари. Отже, реальне зростання становило близько 1 долара за галон. Відповідно, додаткові витрати для середньої американської родини, яка споживає близько 87 галонів пального на місяць, складають приблизно 80 доларів, а не 450, як стверджували у телесюжетах.

Таким чином, у матеріалах білоруського телебачення використано маніпулятивні прийоми: у випадку з Німеччиною місячне зростання цін подали як щоденне, а у випадку зі США — поодинокі високі ціни представили як середній показник по країні. Це створює викривлене уявлення про ситуацію на паливному ринку за кордоном і штучно підсилює драматизм новин.

Конспірологічні теорії Американська конспірологія: «темні гроші» мільярдерів Сороса та інших, якими фінансують протести «No Kings»

У березні 2026 року в мережі поширилася інформація про те, що інвестори Джордж Сорос та Невілл Рой Сінгхем нібито фінансували організації, які стояли за протестами «No Kings» проти адміністрації президента США Дональд Трамп. Ці акції відбулися 28 березня у багатьох містах США, а самі твердження базувалися, зокрема, на матеріалі Fox News. Втім, значна частина цих заяв є маніпулятивною або вирваною з контексту — дезінформаційні повідомлення проаналізували Snopes.

Насправді протести «No Kings» координувала мережа громадських і активістських організацій у різних містах США, однак немає доказів прямого фінансового зв’язку між цими протестами та згаданими інвесторами. Участь у протестах взяли мільйони людей, більшість із яких не пов’язані з організаторами або будь-якими структурами.

Водночас відомо, що благодійна організація Open Society Foundations, заснована Джорджем Соросом, протягом кількох років надавала фінансування громадській організації Indivisible, яка справді брала участь в організації протестів. Згідно з відкритими даними, йдеться про приблизно 3 мільйони доларів, виділених на загальну діяльність у 2023–2024 роках. Представники фонду наголосили, що ці кошти не призначалися для конкретних акцій, зокрема протестів «No Kings».

Щодо Невілла Роя Сінгхема, то зв’язок між його фінансами та протестами ще менш очевидний. Організація The People's Forum, яка раніше повідомляла про отримання фінансування від Сінгхема у 2021 році, справді закликала до участі в протестах і публікувала матеріали з них. Проте немає доказів, що вона відігравала ключову роль в організації акцій або що кошти Сінгхема були безпосередньо використані для їх проведення.

Твердження про «темні гроші», які нібито фінансували протести, також не підтверджуються. Дані про фінансування багатьох організацій є відкритими, що суперечить самій ідеї прихованих донорів. Крім того, оцінки про «500 організацій» і мільярдні бюджети, які нібито стояли за протестами, не мають незалежного підтвердження.

Таким чином, хоча окремі організації, пов’язані з протестами, раніше отримували фінансування від великих донорів, немає доказів того, що Джордж Сорос або Невілл Рой Сінгхем безпосередньо фінансували чи координували протести «No Kings». Поширені твердження є прикладом маніпуляції, що поєднує реальні факти з непідтвердженими висновками.

Відеофейк про «український флешмоб у тіктоку» зі спалювання прапорів Угорщини

У соціальних мережах поширюють відео з логотипом видання WIRED, у якому стверджується, нібито українці запустили в TikTok флешмоб зі спалювання прапорів Угорщини. Відео подають як матеріал авторитетного західного медіа, щоб створити ілюзію достовірності. Насправді ця інформація не відповідає дійсності — дезінформаційні повідомлення проаналізували VoxCheck.

Приклад поширення фейку. Джерело: VoxCheck

Жодних підтверджень існування такого флешмобу немає. WIRED не публікував подібного відео ні на своєму офіційному сайті, ні в соціальних мережах — зокрема в Instagram, Facebook, YouTube, TikTok чи X. Відсутність будь-яких згадок у надійних джерелах свідчить про те, що відео є вигаданим.

Аналіз ролика показує, що пропагандисти намагалися відтворити стиль відео WIRED, однак допустили характерні помилки. У справжніх відео журналу на початку обов’язково зазначають ім’я людини, яка озвучує текст, а також тему ролика на чорному тлі. Крім того, усі матеріали озвучуються реальними дикторами, тоді як формат із музикою та субтитрами без голосу для цього медіа не характерний.

Отже, поширюване відео є підробкою, створеною для маніпуляції аудиторією та дискредитації українців. Використання логотипів відомих міжнародних медіа — типовий прийом дезінформації, покликаний надати фейковому контенту вигляду достовірності.

В Росії сфальсифікували переклад інтерв’ю Лаврова з французькою журналісткою

Міністерство закордонних справ Росії спотворило зміст інтерв’ю глави відомства Сергія Лаврова французькій журналістці Лії Саламе. У російській версії перекладу запитання журналістки було змінено таким чином, щоб вони відповідали наративам кремлівської пропаганди.

Про це з посиланням на FranceInfo повідомляє Центр стратегічних комунікацій.

Зокрема, у перекладі було змінено формулювання запитань журналістки. Оригінальну репліку про те, що «не чути, щоб Росія захищала Іран», у російській версії подали як твердження: «ви багато захищали свого союзника — Іран».

Також було викривлено інформацію про втрати серед цивільного населення України. Якщо в оригіналі йшлося про «десятки тисяч загиблих мирних жителів», то в перекладі цю цифру зменшили до «сотень».

Крім того, у перекладі з’явилася фраза «розумію вас», яку журналістка насправді не озвучувала. Така вставка створює хибне враження про нібито підтримку нею позиції російського міністра.

Таким чином, російська сторона не лише переклала інтерв’ю з неточностями, а й фактично змінила зміст запитань, приписавши журналістці вигідні для Кремля формулювання. Це є прикладом маніпуляції інформацією з метою просування пропагандистських наративів.

Пропагандисти поширюють фейк про «знищення половецьких баб» українськими військовими

У проросійських телеграм-каналах поширюється інформація про те, що військовослужбовці 425-го полку ЗСУ нібито «знищили половецькі статуї під приводом дерусифікації». Публікації супроводжуються відредагованим скриншотом новини та емоційними коментарями про буцімто «знищення власної історії» в Україні. Ця інформація не відповідає дійсності.

Про це повідомляє StopFake.

Пропагандисти використали змінене зображення реального матеріалу українського медіа, суттєво спотворивши його зміст.

Йдеться про публікацію, оприлюднену 13 березня на радіо «Накипіло» під заголовком: «Бабу розкололо навпіл: військові евакуювали кам’яні статуї з прифронтової Дніпропетровщини». У матеріалі йдеться про евакуацію кількох половецьких статуй та однієї енеолітичної пам’ятки з небезпечної території. Про це розповідає історик і військовослужбовець 25-ї окремої повітряно-десантної Січеславської бригади.

Фейкова назва новини
Справжній скриншот «Накипіло»

У тексті зазначено, що один із пам’ятників уже був пошкоджений унаслідок російських обстрілів. Саме тому військові разом із музейними фахівцями здійснюють їх транспортування до безпечніших місць. Жодних згадок про «знищення», «дерусифікацію» чи подібні дії в оригінальному матеріалі немає. Натомість у фейковій версії змінено заголовок, текст і додано вигадані цитати.

Водночас реальна ситуація з половецькими бабами в Україні дійсно викликає занепокоєння — однак через інші причини. Ці пам’ятки регулярно зазнають пошкоджень унаслідок російської агресії. Зокрема, у 2022 році поблизу Ізюма на горі Кременець російські війська пошкодили кілька статуй: одну з них було розколото обстрілом, інші отримали серйозні ушкодження.

Також фіксуються випадки вандалізму. Після окупації Ізюма на кам’яних статуях виявляли сторонні позначки та символіку, зокрема радянські прапори, що свідчить про зневагу до культурної спадщини.

Окремою проблемою є пошкодження пам’яток під час дій окупаційних адміністрацій. На тимчасово окупованих територіях Луганської області повідомлялося про випадки переміщення половецьких баб із порушенням умов транспортування, що призводило до їхнього руйнування.

Саме через ці ризики українські військові, історики та музейні працівники евакуюють культурні об’єкти з прифронтових зон. Така практика є стандартною у воєнний час і спрямована на збереження спадщини, яка інакше може бути втрачена.

Загалом від початку повномасштабного вторгнення в Україні пошкоджено або знищено сотні об’єктів культурної спадщини. Половецькі баби залишаються особливо вразливими, адже часто розташовані просто неба і не мають фізичного захисту.

Таким чином, поширюване повідомлення є фейком і прикладом маніпуляції, яка спотворює реальні події: дії зі збереження культурної спадщини подаються як її знищення, тоді як справжня загроза для пам’яток походить від війни та дій російських військ.

Фейк Фейк про «304 українські дрони» над Балтією та Фінляндією: мережа «Матрьошка» підробляє відео під матеріали міжнародних медіа

Російські інформаційні ресурси поширюють твердження, що за три місяці на території країн Балтії та Фінляндії впало 304 українські безпілотники, а місцева влада приховує інциденти, руйнування й постраждалих. Матеріали супроводжує відео, стилізоване під сюжет одного з відомих європейських медіа, і посилання нібито на Інститут вивчення війни (ISW).

Про це повідомляє Центр протидії дезінформації при РНБО України (ЦПД).

Відео відсутнє на офіційних ресурсах видання, логотип якого використано. ISW не публікував ані відповідних заяв, ані досліджень із такими даними.

ЦПД кваліфікує матеріал як повністю сфабрикований.

Використання підроблених сюжетів із логотипами міжнародних медіа та аналітичних інституцій — характерний інструмент російської дезінформаційної мережі «Матрьошка».

Мета вкиду — перекласти відповідальність за провали російської протиповітряної оборони на треті держави та створити інформаційне підґрунтя для виправдання гібридних атак і агресивної риторики проти країн Північної Європи.

Контекст. Міністр закордонних справ України Андрій Сибіга заявив, що Україна володіє розвідданими: Росія цілеспрямовано відхиляє власні дрони у бік країн Балтії та Фінляндії для подальших інформаційних провокацій. 29 березня на південному сході Фінляндії впали два безпілотники — походження одного не встановлено, другий підтверджено як український.

МЗС України передало фінській стороні всю необхідну інформацію, принісши вибачення за інцидент, і наголосило, що жоден український дрон не був спрямований у бік Фінляндії. Раніше Оперативне командування Збройних сил Польщі офіційно спростувало твердження про надання польського повітряного простору для дронових атак по Росії.

Над хронікою працюють Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.