«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.
15 Травня станом на 1541 день повномасштабної війни наша редакція зафіксувала:
2738
Фейк
823
Маніпуляція
776
Меседж
559
Викриття
Відео про іммігрантів, які перуть речі в річці в Івано-Франківську, зняли в Індії
У соціальних мережах і телеграм-каналах поширюють відео, автори яких стверджують, нібито в Івано-Франківську «індійські та бангладеські мігранти» перуть одяг просто в річці Бистриця. У дописах це подають як доказ того, що Україна нібито масово завозить трудових мігрантів із країн Азії, які «приносять свої традиції» та перетворюють «центр Європи на середньовіччя». Фейк викрили StopFake.
Насправді відеоролики, які використовують у таких публікаціях, не мають жодного стосунку до нинішньої ситуації в Івано-Франківську чи до мігрантів в Україні. Автори маніпуляцій змонтували два окремі відео, вирвавши їх із контексту та додавши неправдиві пояснення.
Приклад дезінформаційного повідомлення. Джерело: StopFake
Перша частина ролика показує групу молодих людей біля річки. Через низьку якість відео неможливо встановити їхню національність чи походження. На кадрах видно, що люди просто відпочивають біля водойми та спілкуються між собою. Закадровий голос стверджує, що події відбуваються на Івано-Франківщині, однак це відео не є новим — його опублікували ще два роки тому в тіктоку, а тепер повторно використали для створення маніпулятивного контенту.
Одне з оригінальних відео. Джерело: StopFake
Друга частина відео демонструє двох людей, які перуть одяг на березі річки та сушать речі просто неба. Саме ці кадри пропагандисти видають за «доказ» того, що в Україні нібито з’явилися мігранти з Індії та Бангладеш. Однак оригінальне відео, опубліковане в тіктоку користувачкою Viktoria Tkach126, містить чітке зазначення локації — Нью-Делі, Індія. У підписі до ролика також вказано: «Подорож до Індії: культура, враження, аюрведа».
Коментарі до одного з оригінальних відео. Джерело: StopFake
Крім того, авторка відео окремо відповідала в коментарях користувачам, які запитували, чи справді кадри зняті в Україні. Вона пояснила, що зйомка відбувалася в Індії, біля річки Періяр неподалік міста Кумілі у штаті Керала.
Таким чином, поширюване відео є черговою маніпуляцією, побудованою на використанні старих та чужих кадрів для створення негативного образу мігрантів і поширення ксенофобських настроїв. Автори фейку навмисно поєднали непов’язані між собою відео та додали неправдиві коментарі, щоб створити ілюзію «масового завезення мігрантів» в Україну.
Відеофейки під світові медіа, що українські біженці ввозять кокаїн, крадуть тварин і розчаровують європейців
У соцмережі Х масово поширюють відео, які мають вигляд сюжетів авторитетних європейських медіа та просувають наративи про нібито «загрозу українців» для країн Європи. Для цього автори фейків використовують логотипи відомих міжнародних видань, зокрема DW та EuroNews. Ролики оформлюють у стилі новинних відеонарізок із субтитрами, графікою та фірмовим оформленням медіа. Поширення таких підробок фіксує Центр досліджень «Детектора медіа».
У фейковjму ролику із логотипом DW поширюєть тезе, що «українські біженці, які нібито активно займаються наркоторгівлею, становлять серйозну проблему для Європи».
Твіт із відео із логотипом DW. Джерело: Детектор медіа
Водночас у відео, оформлених під EuroNews, просувають маніпулятивні повідомлення про «надзвичайно високий рівень злочинності серед українських біженців у Європі», заявляють, що українці нібито «викрадають домашніх тварин і вимагають викуп», а також поширюють фейкову статистику про те, що «понад 73% молоді до 25 років вважають помилкою прийняття мільйонів українських біженців до ЄС».
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Для більшого охоплення та створення ілюзії достовірності автори таких публікацій додають до дописів хештеги інших відомих міжнародних медіа та суспільно-політичних тем, зокрема #EU, а також назви популярних видань. Це допомагає просувати контент у рекомендаціях соцмереж і створює враження, ніби йдеться про справжні журналістські матеріали.
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Перевірка офіційних сторінок DW та EuroNews у соцмережах Х і Facebook засвідчила, що ці медіа не публікували відео з такими твердженнями. Відповідних сюжетів також немає на офіційних сайтах видань. Це свідчить про те, що виробники дезінформації використали логотипи медіа без їхнього відома, щоб надати фейкам більшої переконливості.
Твіт із відео із лого EuroNews. Джерело: Детектор медіа
Подібні відео є частиною ширшої інформаційної кампанії, спрямованої на дискредитацію українських біженців у країнах Європи та посилення антиукраїнських настроїв серед європейської аудиторії. Для цього пропагандисти систематично експлуатують теми злочинності, міграції та соціальної напруги, намагаючись створити образ українців як джерела небезпеки та дестабілізації.
Маніпуляція
Маніпуляція: старі відео з нелегальними мігрантами в Іспанії видають за свіжі кадри «вторгнення»
Протягом квітня–травня 2026 року в соцмережі Х масово поширювалися відео, на яких люди висаджуються з човнів на іспанське узбережжя. Дописи супроводжувалися риторикою про «вторгнення» нелегальних мігрантів і нападками на прем'єра Педро Санчеса. Перевірили ці відео фактчекери Ґвара Медіа.
Що поширювалося
Із кінця квітня в Х, Facebook, Instagram, YouTube та російських пропагандистських телеграм-каналах розлетілося відео: десятки людей вистрибують із швидкісних човнів і виходять на берег. Підписи варіювалися від «Іспанії кінець!» до «вторгнення з суші, моря та повітря».
Відео поширені в пропагандистських телеграм-каналах та на інших платформах. Джерело: Ґвара Медіа
Імовірним першоджерелом стала сторінка Radio Genoa (1,5 млн підписників у Х): 20 квітня там з'явився допис «Це Іспанія. Ось як виглядає вторгнення», який за кілька днів набрав сотні тисяч переглядів. 1 травня той самий акаунт опублікував ще одне схоже відео, що також широко розійшлося мережею.
Що з'ясував аналіз
Зворотній пошук за зображенням роведений фактчекерами Ґвара Медіа показав: обидва відео були опубліковані ще взимку 2024 року — тобто понад два роки тому.
Перше відео датується січнем 2024-го: понад 80 нелегальних мігрантів прибули на човнах до узбережжя міста Адра в провінції Альмерія.
Друге відео було опубліковане 3 лютого 2024 року і фіксує висадку мігрантів поблизу містечка Ла-Рабіта в провінції Гранада.
Акаунт Radio Genoa систематично поширює антимігрантський контент
Обидва випадки справді пов'язані з незаконним перевезенням мігрантів наркоторговцями на швидкісних човнах — але відбулися задовго до квітня 2026 року. Radio Genoa повторно поширив ці кадри, подаючи їх як актуальні події.
Навіщо і чому зараз
Тригером для нової хвилі поширення стало рішення іспанського уряду: у квітні 2026 року кабінет Санчеса затвердив спрощену процедуру легалізації для близько 500 000 мігрантів, які вже перебувають в Іспанії. Санчес охарактеризував це як «економічну необхідність», посилаючись на старіння населення та дефіцит робочої сили.
Саме цей контекст використали для нової подачі старих відео — щоб сформувати враження міграційного хаосу «просто зараз».
Хто такий Radio Genoa
Згідно з дослідженням швейцарського видання Neue Zürcher Zeitung (2023), Radio Genoa — італійська пропагандистська платформа, що систематично поширює антиміграційний контент, просуває наратив про «колапс Європи» та підтримує ультраправі рухи. Нідерландський журналістський проєкт Pointer (KRO-NCRV) зафіксував, що платформа зображує біженців, мусульман і темношкірих людей як «загрозу» для європейської культури й суспільства.
Висновок
Це маніпуляція. Відео не мають жодного стосунку до подій квітня–травня 2026 року. Кадри зняті щонайменше два роки тому й повторно поширені з метою дискредитації міграційної політики іспанського уряду та розпалювання ксенофобських настроїв.
Маніпуляція: у сфальсифікованому сюжеті DW засудженого китайського студента замінили на вигаданого «українського біженця»
Три рівні маніпуляції
В мережі Х поширюється відео, що тримує сотні тисяч переглядів, і яке імітує репортаж Deutsche Welle (DW) про судовий вирок у справі про зґвалтування в Мюнхені. У ролику стверджується, що засудженим є «Тарас Мельник» — 28-річний українець-біженець, якого нібито засуджено до 11 років і 3 місяців ув'язнення за зґвалтування сусідки з використанням медичних анестетиків. Окрім цього, у відео стверджується, що у месенджері WhatsApp існують групи «з тисячами учасників — українських біженців», які обмінюються порадами щодо вчинення подібних злочинів, а «зґвалтування німецьких жінок українськими мігрантами стало значною проблемою для Німеччини», яку «німецька влада не бажає вирішувати».
Аналітики "Детектора Медіа" розібрали цю фальсифікацію. Перевірку здійснено на підставі порівняльного аналізу транскрипту оригінального репортажу Deutsche Welle та транскрипту сфальсифікованого відео.
Зліва оригінал DW з «Zhongyi J.», справа — сфальсифікований твіт з «Taras Melnyk».
Перевірка. Що насправді
Рівень 1: Підміна особи засудженого
Оригінальний репортаж та стаття DW присвячені реальній кримінальній справі — у ній фігурує Zhongyi J., 28-річний студент із Китаю, який визнав свою вину в мюнхенському суді. Саме він застосовував великі дози медичних анестетиків, щоб ґвалтувати жертву, і саме він отримав 11 років і 3 місяці ув'язнення за дві спроби вбивства та сім епізодів кваліфікованого зґвалтування.
У сфальсифікованому відео цю реальну людину замінено на вигаданого «Тараса Мельника» — неіснуючого українського біженця. Ім'я, національність і статус — повністю вигадані. Вирок, хронологія справи та деталі злочину взяті з оригінального матеріалу DW і механічно «прикріплені» до фіктивного персонажа.
Рівень 2: Підробка під авторитетне ЗМІ
Для надання фейку видимості достовірності зловмисники використали реальні кадри та транскрипт репортажу DW — одного з найавторитетніших міжнародних медіа з потужною репутацією у сфері журналістських розслідувань. Логотип і формат оригінального матеріалу залишені без змін — щоб глядач сприйняв підробку як справжній журналістський матеріал.
Крім того, оригінальний сюжет DW помітно довший. Зловмисники цілеспрямовано обрізали його, видаливши весь контекст щодо системних проблем і способів протидії насильству над жінками — онлайн і офлайн, — а також роздуми експертів і представників влади про законодавчі прогалини. Залишили лише фрагменти, які можна було використати для маніпуляції.
Дискредитаційні наративи проти біженців у підробному ролику. Зліва: «The rape of German women by Ukrainian refugees has become a major problem for Germany», справа — «some with thousands of Ukrainian refugees as members» про нібито спільноти у WhatsApp
Рівень 3: Дискредитація українських біженців і нагнітання ксенофобії
Ключові вставки, яких немає в оригінальному репортажі DW:
Твердження про те, що у WhatsApp існують групи «з тисячами учасників — українських біженців», які обговорюють злочини. В оригіналі DW йдеться про групи в Telegram — і жодного слова про українців.
Пряме твердження: «зґвалтування німецьких жінок українцями-мігрантами стало значною проблемою для Німеччини» — у матеріалі DW цього речення немає взагалі.
Твердження про те, що засудження вигаданого «Тараса Мельника» є одним із «небагатьох випадків, коли злочинці з середовища українських біженців отримують реальні вироки», і що «німецька влада не бажає цим займатися» — у DW нічого подібного немає.
Ці вставки є не журналістикою, а цілеспрямованою дезінформаційною рамкою: вони формують образ українських чоловіків-біженців у Німеччині як колективної загрози та натякають на змову влади щодо приховування злочинів.
Висновок
Ця маніпуляція є типовим прикладом наративної зброї: реальна кримінальна справа використовується як «упаковка» для вигаданих тверджень, спрямованих на формування негативного ставлення до українських біженців у Німеччині та підрив суспільної довіри до них. Використання бренду Deutsche Welle надає фейку псевдолегітимності, розраховуючи на те, що глядач не буде перевіряти першоджерело.
Оригінальний репортаж Deutsche Welle присвячений системній проблемі насильства над жінками і не має жодного стосунку до українських біженців.
Фейк
Не менше п'яти латвійців загинули від українських дронів поблизу Резекне? Це брехня
У проросійських телеграм-каналах (@new_militarycolumnist, Приграничье, Nina VATT, Морская пехота России та інших) одночасно з'явилися однотипні дописи: «Не менше п'яти громадян Латвії загинули в результаті сьогоднішнього падіння українських дронів поблизу Резекне». Деякі канали додавали: «НАТО помститься». Аналітики «Детектора медіа» розібрали цей синхронний вкид.
Що сталося насправді
7 травня 2025 року два безпілотники, що залетіли на територію Латвії з боку Росії, порушили повітряний простір країни. Один із них упав на нафтобазі Резекне й влучив у порожній резервуар, як повідомляє «Мілітарний». Пожежу оперативно загасили. Жодних жертв серед цивільного населення не було — ні латвійська поліція, ні пожежна служба, ні уряд цього не підтверджували.
Публікація містить три елементи координованої дезінформації:
Фейкові жертви для ескалації. Цифра «п'ять загиблих» вигадана — жодне офіційне латвійське джерело її не називало. Такі деталі розраховані на максимальний емоційний ефект і провокацію.
Росія як «жертва» та «захисник». Фраза «НАТО помститься» є частиною системного пропагандистського наративу: Москва позиціює себе жертвою «агресії НАТО» і стверджує, що діє «у відповідь». Насправді саме Росія веде загарбницьку війну та цілеспрямовано перенаправляє українські дрони у бік інших держав.
Замовчування ролі російських РЕБ. Міністр закордонних справ України Андрій Сибіга публічно заявив: якщо підтвердиться, що дрони відхилилися від курсу внаслідок дії російських систем радіоелектронної боротьби (РЕБ), Україна принесе вибачення латвійській стороні. Про практику цілеспрямованого перенаправлення дронів за допомогою РЕБ він попереджав ще у березні 2025 року
Висновок
У проросійських телеграм-каналах відбулася скоординована дезінформаційна кампанія з метою посіяти розкол між Україною та союзниками по НАТО й відновити наратив про «Росію-жертву».
«Le Point повідомляє», «Wired розслідував», «Bellingcat підтвердив» — як фабрикуються фейки про рак Пашиняна
У соціальній мережі X (Twitter) поширюється серія фейкових відео та публікацій, які стверджують, що прем'єр-міністр Вірменії Нікол Пашинян нібито хворий на рак. Для надання публікаціям правдоподібності їхні автори використовують логотипи та назви авторитетних світових медіа: Le Point, Le Figaro, Wired, Politico, Bellingcat, Libération. Жодне з цих видань нічого подібного не публікувало. Аналітики «Детектора медіа» розвінчали потік сфабрикованих фейків про Пашиняна.
Колаж постів в іксі, що поширюють фейки про хворобу Пашиняна
Кампанія є частиною масштабних скоординованих операцій впливу, спрямованих на дискредитацію Пашиняна напередодні парламентських виборів у Вірменії 7 червня 2026 року.
Що поширюється
Упродовж першого тижня травня 2026 року в іксі з'явилася низка публікацій з відеозаставками, які імітують оформлення відомих західних медіа. Ось наративи і твердження, що поширюються безапеляційно:
Le Point нібито повідомив, що діагноз «рак» став причиною розлучення Пашиняна з дружиною Анною Акоп'ян.
Wired нібито розслідував, як Meta та Alphabet видаляють інформацію про онкологічне захворювання прем'єра.
Politico нібито процитував прессекретаря Пашиняна, який нібито підтвердив, що «стан здоров'я прем'єра — особиста справа».
Le Figaro нібито повідомив про «відомого французького онколога», який проживає в Єревані вже понад два місяці для спостереження за здоров'ям прем'єра.
Libération нібито написала, що помічник Пашиняна регулярно їздить до Франції купувати онкологічні препарати.
Bellingcat нібито підтвердив на основі «медичних документів» діагноз раку.
Публікації виходять від облікових записів з малою кількістю підписників і непов'язаним контентом — типова ознака бот-мережі. У дописах масово тегуються справжні редакції цих видань (@LePoint, @bellingcat, @WIRED, @politico, @Le_Figaro, @libe), щоб імітувати поширення новини.
Перевірка
Аналітики «Детектора медіа» перевірили сайти Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération — жодного матеріалу про онкологічне захворювання Пашиняна чи будь-що пов'язане з темою раку в контексті вірменського прем'єра знайдено не було.
Офіційна реакція влади Вірменії також спростовує будь-яку змістовну основу для таких тверджень. Пресслужба прем'єр-міністра не підтвердила жодних проблем зі здоров'ям.
Контекст
Ця кампанія не є ізольованим інцидентом. Вона вписується в масштабну скоординовану операцію інформаційного впливу, яка фіксується дослідниками з початку 2025 року.
7 червня 2026 року у Вірменії відбудуться парламентські вибори. Партія Пашиняна «Громадянський договір» веде передвиборчу кампанію в умовах низьких рейтингів після втрати Нагірного Карабаху. Для захисту Вірменії від кібератак Брюссель не тільки виділяє кошти, а й надає кадрову підтримку. Верховна представниця ЄС із закордонних справ Кая Каллас 16 березня оголосила, що до Вірменії буде направлено європейську групу швидкого реагування на гібридні загрози. Експерти ЄС допоможуть апарату прем'єр-міністра, Центрвиборчкому, МВС та іншим відомствам розробити механізми антикризового управління на випадок кібератак та іноземного інформаційного маніпулювання.
Вірменська фактчекінгова організація CivilnetCheck задокументувала щонайменше сім наративів пропаганди проти Пашиняна, що поширюються через фейкові відео під логотипами CNN, Reuters, Bloomberg, Euronews, Le Point та інших. Вірменська медіаплатформа FIP.am встановила, що відео з логотипом Le Point про «70% членів "Громадянського договору" з французьким громадянством» є фабрикацією — такої публікації у Le Point не існує.
Дослідники ідентифікують у кампаніях проти Пашиняна операційні стратегії Storm-1516, Doppelgänger і «Матрьошка» — ті самі, що використовуються проти України та країн ЄС.
Ідентична тактика вже спрацьовувала раніше: у лютому–березні 2026 року через телеграм-канали, пов'язані з проросійськими мережами, поширювалися сфабриковані перші шпальти Liberation і Le Parisien із заголовками про те, що Макрон нібито «підштовхує Пашиняна до війни проти Росії». Перевірка оригінальних сайтів видань показала: Liberation за вказаною датою вийшла з матеріалом про Трампа, Le Parisien — про ціни на паливо.
Чому це важливо
Тактика «авторитетного джерела» розрахована на рефлекторну довіру: читач бачить логотип Le Figaro чи Bellingcat і не перевіряє оригінал. Коли фейк доповнюється конкретними деталями — «онколог у Єревані вже два місяці», «помічник купує ліки у Франції» — він стає ще переконливішим.
Для українських читачів це не абстрактна тема. Ті самі технології і ті самі мережі, що атакують Пашиняна, діють і проти України.
Висновок
Твердження про онкологічне захворювання Нікола Пашиняна є фейком. Жодне з посилань у публікаціях не підтверджується: Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération нічого подібного не публікували.
Кампанія є частиною задокументованої координованої операції впливу напередодні виборів у Вірменії, що використовує добре відомі методи дезінформації — маніпулятивне «клонування» авторитетних медіа та масоване поширення через фіктивні облікові записи.
Маніпуляції на дефіциті кадрів: як російська пропаганда розпалює антимігрантські настрої в Україні
Центр протидії дезінформації фіксує нову масштабну дезінформаційну кампанію: через соцмережі масово поширюються відеоролики, які під виглядом гумору чи «прогнозів» намагаються спровокувати хвилю ксенофобії та підсилити внутрішній розбрат в Україні.
Штучний інтелект на службі хаосу
За даними моніторингу ЦПД, для поширення контенту використовується мережа новостворених акаунтів, які спеціалізуються винятково на цій темі. Ключовою особливістю є використання генеративного штучного інтелекту (ШІ) для створення відеоряду, що дає змогу швидко та масово продукувати дезінформацію.
Джерело: ЦПД
Основні наративи кампанії:
«Втрата національної ідентичності» через залучення іноземних працівників;
«Заміщення населення»;
Теза про «марність боротьби» з агресором на тлі демографічних змін.
Хто просуває дезінформацію?
У кампанії задіяні як системні пропагандисти, так і одіозні політики.
Юрій Лісовський, чиї акаунти неодноразово блокувалися за дезінформацію, випускає сатиричні пісні та ШІ-відео про мігрантів. Його метою є системна дискредитація державних інституцій через висміювання міграційної політики.
Артем Дмитрук — підсанкційний народний депутат, який долучився до поширення фейків, опублікувавши кадри з нібито індійськими мігрантами в українських річках. Насправді це виявилися архівні відео дворічної давнини, зняті безпосередньо в Індії.
Механіка поширення: Від ботів до реальних користувачів
Російська пропаганда вдало використовує психологію соцмереж. Завдяки «хайповому» та напівгумористичному формату деструктивний контент підхоплюють реальні користувачі, які репостять відео, чим допомагають масштабувати антимігрантську істерію.
Росія намагається перенести в Україну модель конфліктів, що вже були випробувані в країнах ЄС. Мета — змістити фокус із зовнішньої агресії на внутрішні чвари. Питання міграції є складним і потребує фахової дискусії, а не емоційних маніпуляцій чи ШІ-фейків.
Закликаємо читачів критично ставитися до «жартівливих» відео на гострі соціальні теми та перевіряти першоджерела візуального контенту.
Фейк: фотографія «мародерства» ізраїльських військових у Лівані виявилася витвором штучного інтелекту
У соцмережах поширюють зображення, на якому особи у військовій формі нібито завантажують награбоване майно ліванців у вантажівку. Пік поширення у грузиновомовному секторі фейсбуку припав на кінець квітня, паралельно такі ж фото поширювалися в різних соцмережах російською мовою. Аналіз фактчекерів Мythdetector свідчить про те, що фотографія не є документальною, а була згенерована за допомогою нейромереж.
Скриншоти публікацій грузинською та російською, що поширювали ШІ-фейк у різних соцмережах
Наприкінці квітня 2024 року в грузинському та російському сегментах соцмереж (Facebook, VK, Telegram, X) став віральним знімок, що супроводжувався підписом про «мародерство ЦАХАЛу на півдні Лівану». На фото зафіксовано «солдатів», які завантажують у кузов вантажівки килими та побутову техніку.
Ознаки ШІ: довжина та відображення телевізора, бампер вантажівки, нога солдата, поверхня землі
Аналіз візуальних аномалій
При детальному вивченні кадру фахівці Мythdetector виявили низку дефектів, характерних для роботи ШІ-генераторів, які зазвичай «недопрацьовують» дрібні деталі та перспективу:
1. Геометрія об'єктів: «Плазмовий телевізор» у руках солдатів має неприродні пропорції та дивне відображення на екрані, що не відповідає оточенню.
2. Цифрові артефакти: Бампер вантажівки, поверхня землі та частини кінцівок військових сильно пікселізовані та мають ефект розмиття (blur), що не властиво реальній оптиці камери.
3. Анатомічні та формені помилки: Обличчя фігур на фото нечіткі та буквально «зливаються» з фоном. Шеврони на формі перетворені на нечитабельні плями, а написи на спорядженні — на хаотичний набір пікселів.
4. Проблеми з реквізитом: Один із солдатів тримає предмет із цифрою «9», розташування якої грубо порушує закони фізики та перспективи.
Ознаки ШІ: обличчя солдатів, шеврон військової форми, килим, шпалери, цифра 9, зображена на предметі
Фактчекери ресурсу Myth Detector протестували зображення за допомогою спеціалізованого інструменту Hive Moderation. Результати підтвердили підозри: з імовірністю 99,1% фотографія була створена штучним інтелектом.
Важливий контекст
Поширення цього фейку відбулося на тлі реальних дискусій у медіапросторі. 23 квітня ізраїльське видання Haaretz опублікувало статтю про свідчення щодо можливих випадків мародерства на півдні Лівану, що пізніше підхопила турецька агенція Anadolu Agency, а згодом видання The Times of Israel написало про розслідування інцидентів мародерства військовою поліцією Ізраїлю.
Висновок
Автори фейку використали реальний інформаційний привід (дискусію про дисципліну в армії та розслідування військової поліції щодо інцидентів мародерства), щоб підкріпити його сфабрикованим «візуальним доказом». Це класичний прийом дезінформації: змішування правдивого контексту з фейковим контентом для посилення емоційного впливу на аудиторію.
Нагадуємо, що навіть за наявності гострих політичних чи військових дискусій використання згенерованих зображень як «документальних фактів» є неприпустимим і слугує виключно для маніпуляції суспільною думкою.
Фейк
RT вигадав «автобуси з провокаторами»: берлінська поліція зафіксувала 9 травня без інцидентів
Російські медіа поширили повідомлення про те, що берлінська поліція нібито розігнала «проукраїнських провокаторів» біля радянського меморіалу 9 травня. Насправді берлінська поліція зафіксувала вшанування без жодних інцидентів. Прапори України та НАТО, на відміну від російської символіки, до меморіалів приносити не забороняли, пояснює StopFake.
Що поширюють
Російські медіа розповсюдили повідомлення про те, що в Берліні українці нібито організовано приїхали автобусами до одного з радянських меморіалів, щоб влаштувати провокацію 9 травня, — із прапорами України та НАТО, — але поліція їх розігнала під схвальні вигуки натовпу. RT, який першим запустив цю «новину», не вказав жодного джерела й не надав ані фото, ані відеодоказів: публікацію проілюстрували стоковими знімками і згенерованими штучним інтелектом зображеннями.
Що відбулося насправді
Жодне німецьке медіа не підтвердило цієї історії. Видання Berliner Zeitung, яке опублікувало детальний репортаж про вшанування пам'яті жертв Другої світової, зазначає: за словами берлінської поліції, яка охороняла заходи силами 380 офіцерів, до полудня все проходило мирно і без жодних ексцесів.
Головними місцями збору стали три радянські меморіали: у Трептов-парку, Тіргартені та Шонгольцер Гайде. Поліція заздалегідь видала спеціальне заборонне постановою: з 6:00 8 травня до 22:00 9 травня на їхній території були заборонені російська символіка, георгіївські стрічки, літери V і Z, військова форма та російські маршові пісні.
Прапори України — дозволені
Водночас прапори України не забороняли — і багато учасників ними скористалися. Серед них була 54-річна українка Людмила Зелке, яка мешкає в Берліні вже 20 років: вона прийшла вшанувати загиблих і водночас висловити протест проти російського вторгнення. У Трептов-парку, де зібралося найбільше людей, панувала спокійна атмосфера — квіти, вінки, тихе вшанування.
Певне напруження виникло біля меморіалу в Тіргартені, коли один з учасників розгорнув прапор НАТО поруч з українським. Поліціянти попросили його відійти вбік, щоб не перешкоджати іншим покласти квіти, — ситуацію вирішили швидко. Жодних «автобусів з провокаторами», яких нібито розганяла поліція, не було.
Меседж
«Гуманітарне утримання»: Міноборони РФ заявило, що не бомбило центр Києва начебто з поваги до мирних жителів
4 травня 2026 року Міністерство оборони Росії поширило заяву про те, що раніше нібито «утримувалося від ударів по центру Києва з гуманітарних міркувань». Це твердження є маніпуляцією: російські збройні сили систематично обстрілювали Київ, зокрема його центральні райони, ракетами та дронами впродовж усіх років повномасштабної війни, йдеться в матеріалі StopFake.
Що поширюють
4 травня 2026 року Міністерство оборони Росії опублікувало заяву, яку масово розповсюдили російські телеграм-канали та державні медіа: відомство стверджувало, що Росія нібито «утримувалася від ракетних ударів по центру української столиці з гуманітарних міркувань». У тій самій заяві мирним жителям і співробітникам дипломатичних місій пропонувалося «своєчасно залишити місто».
Чому це маніпуляція
Росія бомбила центр Києва з перших місяців повномасштабного вторгнення. 10 жовтня 2022 року ракети влучили безпосередньо в центральні квартали столиці — у Шевченківський район та прилеглі вулиці — в годину пік. Загинули 7 людей, майже 50 отримали поранення. Удари мали неприцільний характер: цілями були житлові будинки та об'єкти цивільної інфраструктури.
8 липня 2024 року Росія завдала одного з найбільших ударів по Києву за весь час війни: ракети вразили кілька районів міста, зокрема дитячу лікарню «Охматдит» у Шевченківському районі. Одну з будівель лікарні зруйновано, загинули 32 людини, 121 — поранено. Саме тоді Кремль публічно заявляв про «готовність до мирних переговорів».
У ніч з 23 на 24 квітня 2025 року, за даними моніторингової місії ООН з прав людини в Україні, Росія вдарила по Києву ракетами: загинули щонайменше 11 мирних жителів, 81 отримав поранення, пошкоджено житлові будинки, школу та дитячий садок. Загалом квітень 2025 року став найкривавішим для цивільного населення з вересня 2024-го — 209 загиблих і 1 146 поранених. За даними ООН, за перші десять місяців 2025 року кількість жертв серед цивільних у великих містах України, включно з Києвом, зросла майже вчетверо порівняно з аналогічним періодом 2024 року.
Лютий 2026-го: рекорд обстрілів
Лютий 2026 року встановив новий максимум: Росія випустила по Україні 288 ракет — найвищий місячний показник з початку 2023 року, — а також понад 5 000 ударних безпілотників дальньої дії. 16 березня 2026 року уламки збитого російського «Шахеда» впали за кілька метрів від монумента Незалежності на майдані Незалежності — у самому серці столиці.
Погроза як «гуманітарний жест»
Сам зміст заяви Міноборони РФ спростовує власну риторику: заклик до цивільного населення та дипломатів «своєчасно залишити місто» є прямою погрозою, що суперечить нормам міжнародного гуманітарного права. Твердження про «гуманітарне утримання» — цинічна маніпуляція: замість припинення ударів Росія щороку нарощувала їхню інтенсивність, послідовно вражаючи житлові будинки, лікарні та цивільну інфраструктуру в центрі Києва.
Над хронікою працюють Маріанна Присяжнюк, Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.