Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

14 Квітня станом на 1510 день повномасштабної війни наша редакція зафіксувала:

2735
Фейк
817
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Кремль використовує Pogled.info та Faktibg.com для поширення дезінформації в Болгарії

Розслідування Светослава Малінова, Center for the Study of Democracy (CSD), поширене мережею A4E Counter Disinformation Network (CDN) показує, як кремлівська пропагандистська інфраструктура системно поширює проросійську дезінформацію через болгарський інформаційний простір. У центрі цієї схеми — сайт Pogled.info, який з лютого 2022 року регулярно передруковував матеріали з пов’язаних із Кремлем і підсанкційних медіа, зокрема RIA Novosti, Sputnik та інші.

Спочатку матеріали ще містили сліди першоджерел, але наприкінці 2025 року тактика змінилася: Pogled.info перейшов до моделі, де публікації подаються як власна аналітика без прозорого посилання на джерело. Це важливо, бо така зміна не лише ускладнює виявлення походження контенту, а й допомагає приховати зв’язок із підсанкційними медіа. Зокрема, це порушує Директиву ЄС 2022/350 від 1 березня 2022 року, яка забороняє трансляцію контенту з російських державних медіа, а саме RT («Russia Today») та «Спутник», на території ЄС або спрямованого на аудиторію в ЄС.

Як працює схема

Поширення пропагандистських матеріалів відбувається за двоступеневою схемою. На першому етапі Pogled.info перекладає та подає пропагандистські матеріали як локальний контент. Далі ці тексти підхоплює faktibg.com — анонімний сайт, який у березні 2026 року передрукував щонайменше 99 статей із Pogled.info.

На другому етапі контент ще ширше розганяється через дві пов’язані фейсбук-сторінки — «Истинските новини в България» (приблизно 14 тисяч підписників) і «Новини от последния час» (приблизно 50 тисяч підписників). Разом ця мережа створює канал, через який російські наративи поширюються як нібито звичайні болгарські новини.

Які наративи просувають

У звіті йдеться, що ця інфраструктура підсилює одразу кілька небезпечних наративних кластерів: делегітимізацію ЄС, антинатовські меседжі та геополітичні конспірологічні схеми. Зокрема, матеріали просувають уявлення про «ворожий Захід», «морально зіпсований ЄС» і «зовнішню змову», яка нібито визначає політику в Європі.

Новина на російському сайті 
Новина на болгарському сайті https://www.faktibg.com/, що повністю копіює стилістику, але не вказує російське джерело 

Окремо слід наголосити, що така риторика під час виборчого періоду має підвищений ризик, оскільки здатна посилювати поляризацію та впливати на політичні настрої виборців. Адже вже 19 квітня 2026 року пройдуть чергові парламентські вибори, які стануть уже восьмими за п’ять років.

Чому це важливо

Часті вибори в Болгарії створюють особливо вразливе середовище для дезінформації, бо суспільство перебуває в постійному політичному напруженні. У таких умовах навіть добре замаскований пропагандистський контент може швидко поширюватися та впливати на порядок денний, підриваючи довіру до ЄС, НАТО та демократичних інституцій.

Ця мережа працює не випадково, а як стабільний канал для швидкого перенесення російських наративів у болгарськомовне середовище. Саме тому автори закликають до моніторингу, скарг через механізми DSA та до реагування з боку платформ і національного регулятора.

Пропагандистська публікація на сайті мережі Sputnik
Публікація на Pogled.info, що повторює пропагандистські тези

Що показує звіт

Розслідування фіксує, що Pogled.info має значний трафік і широку мережу зворотних посилань, що підсилює видимість його матеріалів в інтернеті. Потенційні зв’язки власників таких сайтів з болгарським політичним середовищем свідчать про глибшу вбудованість цієї інформаційної інфраструктури у внутрішні мережі впливу. Власником компанії, що управляє сайтом Pogled.info, за даними Center for the Study of Democracy, є Румен Петков, колишній член Болгарської соціалістичної партії та кандидат на виборах 2023–2024 років від коаліції «Levitzata!» («Лівиця!»).

Отже, мова йде не просто про окремий проросійський сайт, а про цілу систему перенесення, маскування та розповсюдження контенту, яка дає змогу кремлівській дезінформації обходити обмеження й виходити на широку аудиторію.

«Український дипломат втікає зі злитками золота»: як пропагандисти зманіпулювали новиною 5-річної давнини

На кількох платформах, зокрема фейсбуці, іксі, телеграмі та польськомовних російських пропагандистських сайтах поширили новину 2021 року, яку знову подали як нібито свіжий скандал. Насправді йдеться не про «недавнє затримання українського дипломата на кордоні», а про матеріали з тодішнього розслідування українських правоохоронців і повідомлення Reuters від березня 2021 року. Розвінчали маніпуляції фактчекери Demagog.

Допис, що поширює маніпуляцію на основі старої новини на фейсбуці

Що поширюють

У соцмережах розганяють дописи про те, що на польському кордоні нібито затримали консульського аташе посольства України, який намагався вивезти 140 000 доларів, 68 000 євро, 12 кг золота і 13,8 кг ювелірних виробів. Такі пости подають історію як актуальну й прив’язують її до нинішньої ситуації в Україні.

У коментарях польські користувачі залишали обурливі реакції: «Зараз корупція, як ніколи раніше. Ті, хто біля корита, багатшають, а бідні вмирають. Так було, є і буде!». Інший користувач написав [переклад оригінального варіанту написання польською]: «Якщо ідіоти дають, вони беруть, то чому ми повинні дивуватися? Давайте більше, навіть не усвідомлюючи, що руйнуєте власну націю».

Фейкова новина на проросійському ресурсі poland.news-pravda 

Що не так

Проблема в тому, що це не новина. За даними Reuters, інцидент стався ще в лютому 2021 року на українсько-польському кордоні, коли в мікроавтобусі виявили золото, готівку та сигарети, а українські органи повідомили про викриту схему.

Маніпуляцію також було опубліковано на платформі X, серед інших, профілем під назвою Coolfon, який відомий анонімним поширенням неправдивої інформації.

Приклад маніпулятивного допису на платформі Х

Звідки фото

Зображення, які додають до цих дописів, також не нові. Вони походять із публікацій українських правоохоронних органів, зокрема ДБР, про стару справу, а не з матеріалів про «свіже затримання» дипломата, як це подають проросійські акаунти та пропагандисти. 

Чому це маніпуляція

Маніпуляція будується на змішуванні старого інциденту з теперішнім інформаційним контекстом. До цього додають емоційну подачу, щоб створити враження, ніби йдеться про новий доказ корупції чи втечі «з корабля», хоча першоджерела вказують на події 2021 року.

Фейк про «ожирілих українських офіцерів» — зображення створені штучним інтелектом

У польському сегменті фейсбуку поширюються фотографії нібито українських офіцерів із зайвою вагою. Користувачі додають до них саркастичні тексти на кшталт: «Це люди, які присвятили себе мобілізації в Україні». Проте ці кадри — не реальні. Як з’ясували польські фактчекери з Demagog, зображення створені за допомогою штучного інтелекту.

Приклад посту на фейсбуці, що поширює фейкові чи редаговані фото

Що поширюють у мережі

Фото, які набули популярності, супроводжуються закликами «допомогти українцям їжею» та образливими коментарями про зовнішність українських військових і чиновників. Один із постів набрав понад 6000 реакцій та 2500 коментарів — частина коментаторів переконана, що бачить справжні фотографії. У коментарях звучать типові тези: «Огидне ожиріння — це все через бідність та війну в Україні», «Їхні голови ледь поміщаються на фото».

Як виявили фейк

Експерти Demagog перевірили зображення за допомогою інструменту Hive AI, який визначає, чи є фото створеним штучним інтелектом. Результат — понад 90% імовірності генерації ШІ. Це означає, що всі поширювані «знімки українських офіцерів» є не автентичними, а штучно створеними комп’ютерною системою з метою маніпуляції.

Результат перевірки інструментом Hive AI — фото згенеровані ШІ

Чому це небезпечно

Такі маніпуляції є частиною ширшої інформаційної кампанії, яку поширює прокремлівська пропаганда. Використання ШІ для створення зневажливих чи абсурдних образів українців має чіткий пропагандистський ефект — викликати сміх, зневагу або сумнів щодо потреби підтримки України Заходом.

Фейки, що апелюють до емоцій і стереотипів, швидко стають вірусними. Їхня мета — не просто поширити брехню, а сформувати негативний образ України як «комічної» або «непрофесійної» держави.

Отже, фотографії «ожирілих українських офіцерів», що ширяться польським фейсбуком, не є реальними знімками. Це продукт штучного інтелекту, використаний для дезінформації та поширення антиукраїнських наративів. Варто перевіряти джерела подібних зображень і не поширювати контент, що може бути частиною пропагандистської кампанії.

Над хронікою працюють Маріанна Присяжнюк, Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.