Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

12 Травня станом на 1538 день повномасштабної війни наша редакція зафіксувала:

2738
Фейк
822
Маніпуляція
776
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк Не менше п'яти латвійців загинули від українських дронів поблизу Резекне? Це брехня

У проросійських телеграм-каналах (@new_militarycolumnist, Прикордоння, Nina VATT, Морська пехота Росії, та інших) одночасно з'явилися однотипні дописи: «Не менше п'яти громадян Латвії загинули в результаті сьогоднішнього падіння українських дронів поблизу Резекне». Деякі канали додавали: «НАТО відімстить». Аналітики "Детектора медіа" розібрали цей синхронний вкид. 

Що сталося насправді 

7 травня 2025 р. два безпілотники, що залетіли на територію Латвії з боку Росії, порушили повітряний простір країни. Один із них впав на нафтобазі Резекне й влучив у порожній резервуар, як повідомляє "Мілітарний". Пожежу оперативно загасили. Жодних жертв серед цивільного населення не було — ні латвійська поліція, ні пожежна служба, ні уряд цього не підтверджували.

Естонія водночас закликала Україну посилити контроль над дронами на тлі інцидентів з порушенням повітряного простору держав Балтії. Втім, право Києва завдавати ударів по російських цілях Естонія підтримує — заявив міністр оборони Естонії Ханно Певкур. 

Наративи та маніпуляції

Публікація містить три елементи координованої дезінформації:

  1. Фейкові жертви для ескалації. Цифра «п'ятеро загиблих» вигадана — жодне офіційне латвійське джерело її не називало. Такі деталі розраховані на максимальний емоційний ефект і провокацію.
  2. Росія як «жертва» та «захисник». Фраза «НАТО помститься» є частиною системного пропагандистського наративу: Москва позиціонує себе жертвою «агресії НАТО» і стверджує, що діє «у відповідь». Насправді саме Росія веде загарбницьку війну та цілеспрямовано перенаправляє українські дрони у бік інших держав.
  3. Замовчування ролі російських РЕБ. Міністр закордонних справ України Андрій Сибіга публічно заявив: якщо підтвердиться, що дрони відхилилися від курсу внаслідок дії російських систем радіоелектронної боротьби (РЕБ), Україна принесе вибачення латвійській стороні. Про практику цілеспрямованого перенаправлення дронів за допомогою РЕБ він попереджав ще у березні 2025 року

Висновок

У проросійських телеграм-каналх відбулася скоординована дезінформаційна кампанія з метою посіяти розкол між Україною та союзниками по НАТО та відновити наратив про «Росію-жертву».

«Le Point повідомляє», «Wired розслідував», «Bellingcat підтвердив» — як фабрикуються фейки про рак Пашиняна

У соціальній мережі X (Twitter) поширюється серія фейкових відео та публікацій, які стверджують, що прем'єр-міністр Вірменії Нікола Пашинян нібито хворий на рак. Для надання публікаціям вигляду достовірності їхні автори використовують логотипи та назви авторитетних світових медіа — Le Point, Le Figaro, Wired, Politico, Bellingcat, Libération. Жодне з цих видань нічого подібного не публікувало. Аналітики "Детектора медіа" розвінчали потік сфабрикованих фейків про Пашиняна. 

Колаж постів у Х, що поширюють фейки про хворобу Пашиняна

Кампанія є частиною масштабних скоординованих операцій впливу, спрямованих на дискредитацію Пашиняна напередодні парламентських виборів у Вірменії 7 червня 2026 року.

Що поширюється

Упродовж першого тижня травня 2026 року в X з'явилася низка публікацій із відеозаставками, які імітують оформлення відомих західних медіа. Ось наративи та твердження, що поширюються безапеляційно:

  • Le Point нібито повідомив, що діагноз «рак» став причиною розлучення Пашиняна з дружиною Анною Акоп'ян.
  • Wired нібито розслідував, як Meta та Alphabet видаляють інформацію про онкологічне захворювання прем'єра.
  • Politico нібито процитував прес-секретаря Пашиняна, який нібито підтвердив, що «стан здоров'я прем'єра — особиста справа».
  • Le Figaro нібито повідомив про «відомого французького онколога», який проживає в Єревані вже понад два місяці для спостереження за здоров'ям прем'єра.
  • Libération нібито написала, що помічник Пашиняна регулярно їздить до Франції купувати онкологічні препарати.
  • Bellingcat нібито підтвердив на основі «медичних документів» діагноз раку.

Публікації виходять від облікових записів із малою кількістю підписників і непов'язаним контентом — типова ознака бот-мережі. У дописах масово тегуються справжні редакції цих видань (@LePoint, @bellingcat, @WIRED, @politico, @Le_Figaro, @libe), щоб імітувати поширення новини.

Перевірка

Аналітики "Детектора Медіа" перевірили сайти Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération — жодного матеріалу про онкологічне захворювання Пашиняна чи будь-що пов'язане з темою раку в контексті вірменського прем'єра знайдено не було.

Офіційна реакція влади Вірменії також спростовує будь-яку змістовну основу для таких тверджень. Прес-служба прем'єр-міністра не підтвердила жодних проблем зі здоров'ям.

Контекст

Ця кампанія не є ізольованим інцидентом. Вона вписується в масштабну скоординовану операцію інформаційного впливу, яка фіксується дослідниками з початку 2025 року.

7 червня 2026 року у Вірменії відбудуться парламентські вибори. Партія Пашиняна «Громадянський договір» веде передвиборчу кампанію в умовах низьких рейтингів після втрати Нагірного Карабаху. Для захисту Вірменії від кібератак Брюссель не тільки виділяє кошти, а й надає кадрову підтримку. Верховний представник ЄС із закордонних справ Кая Каллас 16 березня оголосила, що до Вірменії буде направлено європейську групу швидкого реагування на гібридні загрози. Експерти ЄС допоможуть апарату прем'єр-міністра, Центрвиборчкому, МВС та іншим відомствам розробити механізми антикризового управління на випадок кібератак та іноземного інформаційного маніпулювання.

Вірменська фактчекінгова організація CivilnetCheck задокументувала щонайменше сім наративів пропаганди проти Пашиняна, що поширюються через фейкові відео під логотипами CNN, Reuters, Bloomberg, Euronews, Le Point та інших. Вірменська медіаплатформа FIP.am встановила, що відео з логотипом Le Point про «70% членів «Громадянського договору» з французьким громадянством» є фабрикацією — такої публікації у Le Point не існує.

Дослідники ідентифікують у кампаніях проти Пашиняна операційні стратегії Storm-1516, Doppelgänger і «Матрьошка» — ті самі, що використовуються проти України та країн ЄС. 

Ідентична тактика вже спрацьовувала раніше: у лютому–березні 2026 року через Telegram-канали, пов'язані з проросійськими мережами, поширювалися сфабриковані перші шпальти Liberation і Le Parisien із заголовками про те, що Макрон нібито «підштовхує Пашиняна до війни проти Росії». Перевірка оригінальних сайтів видань показала: Liberation за вказаною датою вийшла з матеріалом про Трампа, Le Parisien — про ціни на паливо.

Чому це важливо

Тактика «авторитетного джерела» розрахована на рефлекторну довіру: читач бачить логотип Le Figaro чи Bellingcat і не перевіряє оригінал. Коли фейк доповнюється конкретними деталями — «онколог у Єревані вже два місяці», «помічник купує ліки у Франції» — він стає ще переконливішим.

Для українських читачів це не абстрактна тема. Ті самі технології і ті самі мережі, що атакують Пашиняна, діють і проти України. 

Висновок

Твердження про онкологічне захворювання Нікола Пашиняна є фейком. Жодне з посилань у публікаціях не підтверджується: Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération нічого подібного не публікували.

Кампанія є частиною задокументованої координованої операції впливу напередодні виборів у Вірменії, що використовує добре відомі методи дезінформації — маніпулятивне «клонування» авторитетних медіа та масоване поширення через фіктивні облікові записи.

Маніпуляції на дефіциті кадрів: як російська пропаганда розпалює антимігрантські настрої в Україні

Центр протидії дезінформації фіксує нову масштабну дезінформаційну кампанію: через соцмережі масово поширюються відеоролики, які під виглядом гумору чи «прогнозів» намагаються спровокувати хвилю ксенофобії та та підсилити внутрішній розбрат в Україні.

Штучний інтелект на службі хаосу

За даними моніторингу ЦПД, для поширення контенту використовується мережу новостворених акаунтів, які спеціалізуються винятково на цій темі. Ключовою особливістю є використання генеративного штучного інтелекту (ШІ) для створення відеоряду, що дозволяє швидко та масово продукувати дезінформацію.

Джерело: ЦПД

Основні наративи кампанії:

  • «Втрата національної ідентичності» через залучення іноземних працівників;
  • «Заміщення населення»;
  • Теза про «марність боротьби» з агресором на тлі демографічних змін.

Хто просуває дезінформацію?

У кампанії задіяні як системні пропагандисти, так і одіозні політики.

  • Юрій Лісовський: чиї акаунти неодноразово блокувалися за дезінформацію, випускає сатиричні пісні та ШІ-відео про мігрантів. Його метою є системна дискредитація державних інституцій через висміювання міграційної політики.
  • Артем Дмитрук: Підсанкційний народний депутат долучився до поширення фейків, опублікувавши кадри з нібито індійськими мігрантами в українських річках. Насправді це виявилися архівні відео дворічної давнини, зняті безпосередньо в Індії.

Механіка поширення: Від ботів до реальних користувачів

Російська пропаганда вдало використовує психологію соцмереж. Завдяки «хайповому» та напівгумористичному формату, деструктивний контент підхоплюють реальні користувачі, які репостять відео, чим допомагають масштабувати антимігрантську істерію.

Росія намагається перенести в Україну модель конфліктів, що вже були випробувані в країнах ЄС. Мета — змістити фокус із зовнішньої агресії на внутрішні чвари. Питання міграції є складним і потребує фахової дискусії, а не емоційних маніпуляцій чи ШІ-фейків.

Закликаємо читачів критично ставитися до «жартівливих» відео на гострі соціальні теми та перевіряти першоджерела візуального контенту.

Фейк: фотографія «мародерства» ізраїльських військових у Лівані виявилася витвором штучного інтелекту

У соцмережах мереж поширюють зображення, на якому особи у військовій формі нібито завантажують награбоване майно ліванців у вантажівку. Пік поширення у грузиновомовному секторі Фейсбуку прийшовся на кінець квітня, паралельно такі ж фото поширювалися у різних соцмережах російською мовою. Аналіз факт чекерів mythdetector свідчить про те, що фотографія не є документальною, а була згенерована за допомогою нейромереж.

Скриншоти публікацій грузинською та російською, що пошрювали ШІ-фейк у різних соцмережах

Наприкінці квітня 2024 року в грузинському та російському сегментах соцмереж (Facebook, VK, Telegram, X) став віральним знімок, що супроводжувався підписом про «мародерство ЦАХАЛу на півдні Лівану». На фото зафіксовано «солдатів», які завантажують у кузов вантажівки килими та побутову техніку. 

  Ознаки ШІ: довжина та відображення телевізора, бампер вантажівки, нога солдата, поверхня землі

Аналіз візуальних аномалій

При детальному вивченні кадру фахівці mythdetector виявили низку дефектів, характерних для роботи ШІ-генераторів, які зазвичай «недопрацьовують» дрібні деталі та перспективу:

1. Геометрія об'єктів: «Плазмовий телевізор» у руках солдатів має неприродні пропорції та дивне відображення на екрані, що не відповідає навколишньому середовищу.

2. Цифрові артефакти: Бампер вантажівки, поверхня землі та частини кінцівок військових сильно пікселізовані та мають ефект розмиття (blur), що не властиво реальній оптиці камери.

3. Анатомічні та формені помилки: Обличчя фігур на фото нечіткі та буквально «зливаються» з фоном. Шеврони на формі перетворені на нечитабельні плями, а написи на спорядженні — на хаотичний набір пікселів.

4. Проблеми з реквізитом: Один із солдатів тримає предмет із цифрою «9», розташування якої грубо порушує закони фізики та перспективи.

  Ознаки ШІ: обличчя солдатів, шеврон військової форми, килим, шпалери, цифра 9, зображена на предметі

Фактчекери ресурсу Myth Detector протестували зображення за допомогою спеціалізованого інструменту Hive Moderation. Результати підтвердили підозри: з імовірністю 99,1% фотографія була створена штучним інтелектом.

Важливий контекст 

Поширення цього фейку відбулося на тлі реальних дискусій у медіапросторі. 23 квітня ізраїльське видання Haaretz опублікувало статтю про свідчення щодо про можливі випадки мародерства на півдні Лівану, що пізніше підхопили турецька агенція Anadolu Agency, а згодом видання The Times of Israel написало про розслідування інцидентів мародерства військовою поліцією Ізраїлю.

Висновок

Автори фейку використали реальний інформаційний привід (дискусію про дисципліну в армії та розслідування військової поліції щодо інцидентів мародерства), щоб підкріпити його сфабрикованим «візуальним доказом». Це класичний прийом дезінформації: змішування правдивого контексту з фейковим контентом для посилення емоційного впливу на аудиторію.

Нагадуємо, що навіть за наявності гострих політичних чи військових дискусій, використання згенерованих зображень як «документальних фактів» є неприпустимим і слугує виключно для маніпуляції суспільною думкою.

Над хронікою працюють Маріанна Присяжнюк, Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.