Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

13 Травня станом на 1539 день повномасштабної війни наша редакція зафіксувала:

2738
Фейк
822
Маніпуляція
776
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк Не менше п'яти латвійців загинули від українських дронів поблизу Резекне? Це брехня

У проросійських телеграм-каналах (@new_militarycolumnist, Прикордоння, Nina VATT, Морська пехота Росії, та інших) одночасно з'явилися однотипні дописи: «Не менше п'яти громадян Латвії загинули в результаті сьогоднішнього падіння українських дронів поблизу Резекне». Деякі канали додавали: «НАТО відімстить». Аналітики "Детектора медіа" розібрали цей синхронний вкид. 

Що сталося насправді 

7 травня 2025 р. два безпілотники, що залетіли на територію Латвії з боку Росії, порушили повітряний простір країни. Один із них впав на нафтобазі Резекне й влучив у порожній резервуар, як повідомляє "Мілітарний". Пожежу оперативно загасили. Жодних жертв серед цивільного населення не було — ні латвійська поліція, ні пожежна служба, ні уряд цього не підтверджували.

Естонія водночас закликала Україну посилити контроль над дронами на тлі інцидентів з порушенням повітряного простору держав Балтії. Втім, право Києва завдавати ударів по російських цілях Естонія підтримує — заявив міністр оборони Естонії Ханно Певкур. 

Наративи та маніпуляції

Публікація містить три елементи координованої дезінформації:

  1. Фейкові жертви для ескалації. Цифра «п'ятеро загиблих» вигадана — жодне офіційне латвійське джерело її не називало. Такі деталі розраховані на максимальний емоційний ефект і провокацію.
  2. Росія як «жертва» та «захисник». Фраза «НАТО помститься» є частиною системного пропагандистського наративу: Москва позиціонує себе жертвою «агресії НАТО» і стверджує, що діє «у відповідь». Насправді саме Росія веде загарбницьку війну та цілеспрямовано перенаправляє українські дрони у бік інших держав.
  3. Замовчування ролі російських РЕБ. Міністр закордонних справ України Андрій Сибіга публічно заявив: якщо підтвердиться, що дрони відхилилися від курсу внаслідок дії російських систем радіоелектронної боротьби (РЕБ), Україна принесе вибачення латвійській стороні. Про практику цілеспрямованого перенаправлення дронів за допомогою РЕБ він попереджав ще у березні 2025 року

Висновок

У проросійських телеграм-каналх відбулася скоординована дезінформаційна кампанія з метою посіяти розкол між Україною та союзниками по НАТО та відновити наратив про «Росію-жертву».

«Le Point повідомляє», «Wired розслідував», «Bellingcat підтвердив» — як фабрикуються фейки про рак Пашиняна

У соціальній мережі X (Twitter) поширюється серія фейкових відео та публікацій, які стверджують, що прем'єр-міністр Вірменії Нікола Пашинян нібито хворий на рак. Для надання публікаціям вигляду достовірності їхні автори використовують логотипи та назви авторитетних світових медіа — Le Point, Le Figaro, Wired, Politico, Bellingcat, Libération. Жодне з цих видань нічого подібного не публікувало. Аналітики "Детектора медіа" розвінчали потік сфабрикованих фейків про Пашиняна. 

Колаж постів у Х, що поширюють фейки про хворобу Пашиняна

Кампанія є частиною масштабних скоординованих операцій впливу, спрямованих на дискредитацію Пашиняна напередодні парламентських виборів у Вірменії 7 червня 2026 року.

Що поширюється

Упродовж першого тижня травня 2026 року в X з'явилася низка публікацій із відеозаставками, які імітують оформлення відомих західних медіа. Ось наративи та твердження, що поширюються безапеляційно:

  • Le Point нібито повідомив, що діагноз «рак» став причиною розлучення Пашиняна з дружиною Анною Акоп'ян.
  • Wired нібито розслідував, як Meta та Alphabet видаляють інформацію про онкологічне захворювання прем'єра.
  • Politico нібито процитував прес-секретаря Пашиняна, який нібито підтвердив, що «стан здоров'я прем'єра — особиста справа».
  • Le Figaro нібито повідомив про «відомого французького онколога», який проживає в Єревані вже понад два місяці для спостереження за здоров'ям прем'єра.
  • Libération нібито написала, що помічник Пашиняна регулярно їздить до Франції купувати онкологічні препарати.
  • Bellingcat нібито підтвердив на основі «медичних документів» діагноз раку.

Публікації виходять від облікових записів із малою кількістю підписників і непов'язаним контентом — типова ознака бот-мережі. У дописах масово тегуються справжні редакції цих видань (@LePoint, @bellingcat, @WIRED, @politico, @Le_Figaro, @libe), щоб імітувати поширення новини.

Перевірка

Аналітики "Детектора Медіа" перевірили сайти Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération — жодного матеріалу про онкологічне захворювання Пашиняна чи будь-що пов'язане з темою раку в контексті вірменського прем'єра знайдено не було.

Офіційна реакція влади Вірменії також спростовує будь-яку змістовну основу для таких тверджень. Прес-служба прем'єр-міністра не підтвердила жодних проблем зі здоров'ям.

Контекст

Ця кампанія не є ізольованим інцидентом. Вона вписується в масштабну скоординовану операцію інформаційного впливу, яка фіксується дослідниками з початку 2025 року.

7 червня 2026 року у Вірменії відбудуться парламентські вибори. Партія Пашиняна «Громадянський договір» веде передвиборчу кампанію в умовах низьких рейтингів після втрати Нагірного Карабаху. Для захисту Вірменії від кібератак Брюссель не тільки виділяє кошти, а й надає кадрову підтримку. Верховний представник ЄС із закордонних справ Кая Каллас 16 березня оголосила, що до Вірменії буде направлено європейську групу швидкого реагування на гібридні загрози. Експерти ЄС допоможуть апарату прем'єр-міністра, Центрвиборчкому, МВС та іншим відомствам розробити механізми антикризового управління на випадок кібератак та іноземного інформаційного маніпулювання.

Вірменська фактчекінгова організація CivilnetCheck задокументувала щонайменше сім наративів пропаганди проти Пашиняна, що поширюються через фейкові відео під логотипами CNN, Reuters, Bloomberg, Euronews, Le Point та інших. Вірменська медіаплатформа FIP.am встановила, що відео з логотипом Le Point про «70% членів «Громадянського договору» з французьким громадянством» є фабрикацією — такої публікації у Le Point не існує.

Дослідники ідентифікують у кампаніях проти Пашиняна операційні стратегії Storm-1516, Doppelgänger і «Матрьошка» — ті самі, що використовуються проти України та країн ЄС. 

Ідентична тактика вже спрацьовувала раніше: у лютому–березні 2026 року через Telegram-канали, пов'язані з проросійськими мережами, поширювалися сфабриковані перші шпальти Liberation і Le Parisien із заголовками про те, що Макрон нібито «підштовхує Пашиняна до війни проти Росії». Перевірка оригінальних сайтів видань показала: Liberation за вказаною датою вийшла з матеріалом про Трампа, Le Parisien — про ціни на паливо.

Чому це важливо

Тактика «авторитетного джерела» розрахована на рефлекторну довіру: читач бачить логотип Le Figaro чи Bellingcat і не перевіряє оригінал. Коли фейк доповнюється конкретними деталями — «онколог у Єревані вже два місяці», «помічник купує ліки у Франції» — він стає ще переконливішим.

Для українських читачів це не абстрактна тема. Ті самі технології і ті самі мережі, що атакують Пашиняна, діють і проти України. 

Висновок

Твердження про онкологічне захворювання Нікола Пашиняна є фейком. Жодне з посилань у публікаціях не підтверджується: Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération нічого подібного не публікували.

Кампанія є частиною задокументованої координованої операції впливу напередодні виборів у Вірменії, що використовує добре відомі методи дезінформації — маніпулятивне «клонування» авторитетних медіа та масоване поширення через фіктивні облікові записи.

Маніпуляції на дефіциті кадрів: як російська пропаганда розпалює антимігрантські настрої в Україні

Центр протидії дезінформації фіксує нову масштабну дезінформаційну кампанію: через соцмережі масово поширюються відеоролики, які під виглядом гумору чи «прогнозів» намагаються спровокувати хвилю ксенофобії та та підсилити внутрішній розбрат в Україні.

Штучний інтелект на службі хаосу

За даними моніторингу ЦПД, для поширення контенту використовується мережу новостворених акаунтів, які спеціалізуються винятково на цій темі. Ключовою особливістю є використання генеративного штучного інтелекту (ШІ) для створення відеоряду, що дозволяє швидко та масово продукувати дезінформацію.

Джерело: ЦПД

Основні наративи кампанії:

  • «Втрата національної ідентичності» через залучення іноземних працівників;
  • «Заміщення населення»;
  • Теза про «марність боротьби» з агресором на тлі демографічних змін.

Хто просуває дезінформацію?

У кампанії задіяні як системні пропагандисти, так і одіозні політики.

  • Юрій Лісовський: чиї акаунти неодноразово блокувалися за дезінформацію, випускає сатиричні пісні та ШІ-відео про мігрантів. Його метою є системна дискредитація державних інституцій через висміювання міграційної політики.
  • Артем Дмитрук: Підсанкційний народний депутат долучився до поширення фейків, опублікувавши кадри з нібито індійськими мігрантами в українських річках. Насправді це виявилися архівні відео дворічної давнини, зняті безпосередньо в Індії.

Механіка поширення: Від ботів до реальних користувачів

Російська пропаганда вдало використовує психологію соцмереж. Завдяки «хайповому» та напівгумористичному формату, деструктивний контент підхоплюють реальні користувачі, які репостять відео, чим допомагають масштабувати антимігрантську істерію.

Росія намагається перенести в Україну модель конфліктів, що вже були випробувані в країнах ЄС. Мета — змістити фокус із зовнішньої агресії на внутрішні чвари. Питання міграції є складним і потребує фахової дискусії, а не емоційних маніпуляцій чи ШІ-фейків.

Закликаємо читачів критично ставитися до «жартівливих» відео на гострі соціальні теми та перевіряти першоджерела візуального контенту.

Фейк: фотографія «мародерства» ізраїльських військових у Лівані виявилася витвором штучного інтелекту

У соцмережах мереж поширюють зображення, на якому особи у військовій формі нібито завантажують награбоване майно ліванців у вантажівку. Пік поширення у грузиновомовному секторі Фейсбуку прийшовся на кінець квітня, паралельно такі ж фото поширювалися у різних соцмережах російською мовою. Аналіз факт чекерів mythdetector свідчить про те, що фотографія не є документальною, а була згенерована за допомогою нейромереж.

Скриншоти публікацій грузинською та російською, що пошрювали ШІ-фейк у різних соцмережах

Наприкінці квітня 2024 року в грузинському та російському сегментах соцмереж (Facebook, VK, Telegram, X) став віральним знімок, що супроводжувався підписом про «мародерство ЦАХАЛу на півдні Лівану». На фото зафіксовано «солдатів», які завантажують у кузов вантажівки килими та побутову техніку. 

  Ознаки ШІ: довжина та відображення телевізора, бампер вантажівки, нога солдата, поверхня землі

Аналіз візуальних аномалій

При детальному вивченні кадру фахівці mythdetector виявили низку дефектів, характерних для роботи ШІ-генераторів, які зазвичай «недопрацьовують» дрібні деталі та перспективу:

1. Геометрія об'єктів: «Плазмовий телевізор» у руках солдатів має неприродні пропорції та дивне відображення на екрані, що не відповідає навколишньому середовищу.

2. Цифрові артефакти: Бампер вантажівки, поверхня землі та частини кінцівок військових сильно пікселізовані та мають ефект розмиття (blur), що не властиво реальній оптиці камери.

3. Анатомічні та формені помилки: Обличчя фігур на фото нечіткі та буквально «зливаються» з фоном. Шеврони на формі перетворені на нечитабельні плями, а написи на спорядженні — на хаотичний набір пікселів.

4. Проблеми з реквізитом: Один із солдатів тримає предмет із цифрою «9», розташування якої грубо порушує закони фізики та перспективи.

  Ознаки ШІ: обличчя солдатів, шеврон військової форми, килим, шпалери, цифра 9, зображена на предметі

Фактчекери ресурсу Myth Detector протестували зображення за допомогою спеціалізованого інструменту Hive Moderation. Результати підтвердили підозри: з імовірністю 99,1% фотографія була створена штучним інтелектом.

Важливий контекст 

Поширення цього фейку відбулося на тлі реальних дискусій у медіапросторі. 23 квітня ізраїльське видання Haaretz опублікувало статтю про свідчення щодо про можливі випадки мародерства на півдні Лівану, що пізніше підхопили турецька агенція Anadolu Agency, а згодом видання The Times of Israel написало про розслідування інцидентів мародерства військовою поліцією Ізраїлю.

Висновок

Автори фейку використали реальний інформаційний привід (дискусію про дисципліну в армії та розслідування військової поліції щодо інцидентів мародерства), щоб підкріпити його сфабрикованим «візуальним доказом». Це класичний прийом дезінформації: змішування правдивого контексту з фейковим контентом для посилення емоційного впливу на аудиторію.

Нагадуємо, що навіть за наявності гострих політичних чи військових дискусій, використання згенерованих зображень як «документальних фактів» є неприпустимим і слугує виключно для маніпуляції суспільною думкою.

Фейк RT вигадав «автобуси з провокаторами»: берлінська поліція зафіксувала 9 травня без інцидентів

Російські медіа поширили повідомлення про те, що берлінська поліція нібито розігнала «проукраїнських провокаторів» біля радянського меморіалу 9 травня. Насправді берлінська поліція зафіксувала вшанування без жодних інцидентів. Прапори України та НАТО, на відміну від російської символіки, до меморіалів приносити не забороняли, пояснює StopFake.

Що поширюють

Російські медіа розповсюдили повідомлення про те, що в Берліні українці нібито організовано приїхали автобусами до одного з радянських меморіалів, щоб влаштувати провокацію 9 травня, — із прапорами України та НАТО, — але поліція їх розігнала під схвальні вигуки натовпу. RT, який першим запустив цю «новину», не вказав жодного джерела й не надав ані фото, ані відеодоказів: публікацію проілюстрували стоковими знімками і згенерованими штучним інтелектом зображеннями.

Що відбулося насправді

Жодне німецьке медіа не підтвердило цієї історії. Видання Berliner Zeitung, яке опублікувало детальний репортаж про вшанування пам'яті жертв Другої світової, зазначає: за словами берлінської поліції, яка охороняла заходи силами 380 офіцерів, до полудня все проходило мирно і без жодних ексцесів.

Головними місцями збору стали три радянські меморіали: у Трептов-парку, Тіргартені та Шонгольцер Гайде. Поліція заздалегідь видала спеціальне заборонне постановою: з 6:00 8 травня до 22:00 9 травня на їхній території були заборонені російська символіка, георгіївські стрічки, літери V і Z, військова форма та російські маршові пісні.

Прапори України — дозволені

Водночас прапори України не забороняли — і багато учасників ними скористалися. Серед них була 54-річна українка Людмила Зелке, яка мешкає в Берліні вже 20 років: вона прийшла вшанувати загиблих і водночас висловити протест проти російського вторгнення. У Трептов-парку, де зібралося найбільше людей, панувала спокійна атмосфера — квіти, вінки, тихе вшанування.

Певне напруження виникло біля меморіалу в Тіргартені, коли один з учасників розгорнув прапор НАТО поруч з українським. Поліціянти попросили його відійти вбік, щоб не перешкоджати іншим покласти квіти, — ситуацію вирішили швидко. Жодних «автобусів з провокаторами», яких нібито розганяла поліція, не було.

9 травня як щорічний привід для фейків

Щороку 9 травня Росія використовує як масштабний привід для дезінформаційних кампаній. Зокрема, торік «Детектор медіа» спростовував фейки про те, що на білбордах у Берліні з'явилася реклама акції «Безсмертний полк», що «День перемоги» став найпопулярнішим запитом в українському сегменті Google Trends і що Фрідріх Мерц нібито приїде до Росії на парад.

Меседж «Гуманітарне утримання»: Міноборони РФ заявило, що не бомбило центр Києва начебто з поваги до мирних жителів

4 травня 2026 року Міністерство оборони Росії поширило заяву про те, що раніше нібито «утримувалося від ударів по центру Києва з гуманітарних міркувань». Це твердження є маніпуляцією: російські збройні сили систематично обстрілювали Київ, зокрема його центральні райони, ракетами та дронами впродовж усіх років повномасштабної війни, йдеться в матеріалі StopFake.

Що поширюють

4 травня 2026 року Міністерство оборони Росії опублікувало заяву, яку масово розповсюдили російські телеграм-канали та державні медіа: відомство стверджувало, що Росія нібито «утримувалася від ракетних ударів по центру української столиці з гуманітарних міркувань». У тій самій заяві мирним жителям і співробітникам дипломатичних місій пропонувалося «своєчасно залишити місто».

Чому це маніпуляція

Росія бомбила центр Києва з перших місяців повномасштабного вторгнення. 10 жовтня 2022 року ракети влучили безпосередньо в центральні квартали столиці — у Шевченківський район та прилеглі вулиці — в годину пік. Загинули 7 людей, майже 50 отримали поранення. Удари мали неприцільний характер: цілями були житлові будинки та об'єкти цивільної інфраструктури.

8 липня 2024 року Росія завдала одного з найбільших ударів по Києву за весь час війни: ракети вразили кілька районів міста, зокрема дитячу лікарню «Охматдит» у Шевченківському районі. Одну з будівель лікарні зруйновано, загинули 32 людини, 121 — поранено. Саме тоді Кремль публічно заявляв про «готовність до мирних переговорів».

У ніч з 23 на 24 квітня 2025 року, за даними моніторингової місії ООН з прав людини в Україні, Росія вдарила по Києву ракетами: загинули щонайменше 11 мирних жителів, 81 отримав поранення, пошкоджено житлові будинки, школу та дитячий садок. Загалом квітень 2025 року став найкривавішим для цивільного населення з вересня 2024-го — 209 загиблих і 1 146 поранених. За даними ООН, за перші десять місяців 2025 року кількість жертв серед цивільних у великих містах України, включно з Києвом, зросла майже вчетверо порівняно з аналогічним періодом 2024 року.

Лютий 2026-го: рекорд обстрілів

Лютий 2026 року встановив новий максимум: Росія випустила по Україні 288 ракет — найвищий місячний показник з початку 2023 року, — а також понад 5 000 ударних безпілотників дальньої дії. 16 березня 2026 року уламки збитого російського «Шахеда» впали за кілька метрів від монумента Незалежності на майдані Незалежності — у самому серці столиці.

Погроза як «гуманітарний жест»

Сам зміст заяви Міноборони РФ спростовує власну риторику: заклик до цивільного населення та дипломатів «своєчасно залишити місто» є прямою погрозою, що суперечить нормам міжнародного гуманітарного права. Твердження про «гуманітарне утримання» — цинічна маніпуляція: замість припинення ударів Росія щороку нарощувала їхню інтенсивність, послідовно вражаючи житлові будинки, лікарні та цивільну інфраструктуру в центрі Києва.

«Парта для трусів»: росіяни поширюють фото з фейковим рекрутинговим банером ЗСУ

Російські телеграм-канали поширюють фото нібито рекламного банера Міністерства оборони України, розміщеного в Києві. На зображенні видно сітілайт з військовослужбовцем та чоловіком, який ховається під партою. Насправді це фейк. Зображення було створене за допомогою штучного інтелекту.

Про це повідомляє Укрінформ.

Аналіз сервісу Hive Moderation показав, що ймовірність ШІ-генерації картинки становить 99,4%. Це свідчить про те, що банер не є реальною рекламною продукцією Міністерства оборони України.

На російське походження фейку також вказує помилка в тексті банера. Банер супроводжується написами: «Парта — це укриття для трусів» та «Підпиши контракт із ЗСУ — будь справжнім героєм».  Автори використали слово «трусів», яке в українській мові означає спідню білизну. Ймовірно, пропагандисти намагалися перекласти російське слово «трусов» у значенні «боягузів», однак зробили це некоректно.

Такі мовні помилки є характерною ознакою автоматичного перекладу та нерозуміння контексту української мови авторами фейку.

Водночас до сфальсифікованого зображення пропагандисти додали справжній QR-код програми «Контракт 18–24». Імовірно, метою інформаційної атаки була дискредитація цієї ініціативи та підрив довіри до рекрутингових кампаній ЗСУ.

Крім того, варто нагадати, що активна кампанія з рекрутингу до збройних сил серед учнів навчальних закладів відбувається саме в Росії, а також на окупованих українських територіях. Кампанія супроводжується погрозами відрахування студентів та маніпуляціями.

Україна «дестабілізує Кавказ»: як проросійські мережі маніпулювали самітом у Вірменії

Після Саміту Європейської політичної спільноти у Єревані проросійські FIMI-мережі розгорнули масштабну інформаційну кампанію проти України та Вірменії.

Про це повідомив Центр стратегічних комунікацій.

За даними Центру, ресурси, пов’язані з російською мережею Pravda та клонами RT, 6 травня опублікували близько 350 маніпулятивних матеріалів різними мовами. У цих публікаціях саміт у Єревані називали «провальним», а виступ президента України Володимира Зеленського — «невдалим».

Одним із ключових напрямів інформаційної атаки стали спроби дискредитувати співпрацю між Україною та Вірменією у сфері безпілотних технологій. Пропагандистські ресурси просували наратив про те, що Україна нібито є «фактором дестабілізації» для Південного Кавказу.

Паралельно FIMI-мережі атакували й Вірменію, намагаючись сформувати образ країни як «неспроможної держави», що перебуває під «зовнішнім управлінням» Європейського Союзу і Туреччини. Для поширення цих меседжів, зокрема, використовували переклад допису з пропагандистського телеграм-каналу «БелВПО» («Белорусское военно-политическое обозрение»).

У Центрі стратегічних комунікацій зазначають, що подібні кампанії є характерним прикладом FIMI — скоординованих маніпулятивних інформаційних операцій, спрямованих на дискредитацію міжнародної співпраці України та створення образу нестабільності навколо партнерств Києва.

Нагадаємо, раніше «ДМ» повідомляв про поширення фейку щодо нібито «підготовки нападу Вірменії на Росію».

Тактики Штучний інтелект і мова ненависті: побожний мусульманин генерує фейки про мусульман, заробляє і збагачує розробників ШІ

Після початку війни між США та Іраном у соцмережах стало стрімко поширюватися відео, створене за допомогою штучного інтелекту, на якому прем’єр-міністр Великої Британії Кір Стармер нібито виступає в мусульманському одязі та виголошує расистські й провокаційні заяви. Ролик набрав сотні тисяч переглядів у фейсбуку та інстаграмі і став черговим прикладом того, як штучний інтелект використовують для поширення ісламофобії та дезінформації. Про дезінформаційну тактику розповіли у The Bureau Of Investigative Journalism.

Журналісти з’ясували, що за створенням і поширенням такого контенту стоїть побожний мусульманин із Пакистану, який веде кілька сторінок у соцмережах. Частина його акаунтів присвячена релігійному контенту — цитатам з Корану та ісламським настановам, однак паралельно він адміністрував сторінки, де масово поширювали антимусульманські фейки та ксенофобські матеріали для британської аудиторії.

Відеофейк з премʼєром Сполученого Королівства

Один з його фейсбук-акаунтів під назвою Britain Today мав майже 200 тисяч підписників, а контент із нього збирав мільйони переглядів. Сам автор визнав, що заробляв на таких публікаціях близько 1500 доларів щомісяця завдяки монетизації Meta. Після звернення журналістів компанія Meta видалила ці сторінки через порушення правил щодо мови ненависті та дезінформації.

Чоловік розповів, що створював контент за допомогою інструментів штучного інтелекту, зокрема Grok, Gemini, CapCut і ChatGPT. За його словами, він часто просто копіював відео протестів чи інших подій з тіктоку або іксі, а потім додавав до них згенеровані ШІ підписи, озвучення та провокативні зображення.

Журналісти наголошують, що сучасні інструменти штучного інтелекту істотно спростили виробництво маніпулятивного контенту. Тепер авторам навіть не потрібно добре знати англійську мову чи розуміти зміст повідомлень — достатньо ввести короткий запит у програму, яка автоматично створить відео, озвучення та обкладинку.

Багато публікацій Britain Today просували типові ультраправі конспірологічні наративи — зокрема теорію «великого заміщення», згідно з якою біле населення Європи нібито навмисно «замінюють» мігрантами. На сторінках також закликали депортувати мусульман з Великої Британії та називали публічні мусульманські молитви «завоюванням Заходу».

Окремою мішенню став мер Лондона Садік Хан, якого регулярно згадували у фейкових роликах. У деяких випадках автори брали справжні відео за участю політика, але додавали до них образливі та маніпулятивні підписи. Наприклад, кадри з громадського іфтару на Трафальгарській площі подавали як нібито «колонізацію Британії мусульманами».

Сам автор сторінок сказав, що нібито не усвідомлював змісту багатьох публікацій через погане знання англійської мови, та пообіцяв видалити частину матеріалів. Водночас журналісти зауважують, що навіть після цього частина образливих роликів ще тривалий час залишалася доступною в інстаграмі.

Розслідування також показало, що подібна діяльність уже перетворилася на окремий бізнес. Автор з Пакистану розповів, що навчає інших користувачів заробляти на монетизації у фейсбуку, а інструкції щодо створення «вірусного» контенту масово поширюються через ютуб та онлайн-курси.

Фейк про «масове виселення» українців у Європі: що насправді відбувається в Ірландії

У соцмережах та на проросійських ресурсах поширюють маніпулятивні повідомлення, що «в Європі тисячі українських біженців залишаться без житла» через нову політику Ірландії щодо розміщення переселенців. Як на джерело цієї інформації пропагандисти посилаються на публікацію українського агентства УНІАН. Однак насправді йдеться лише про зміни в системі тимчасового розміщення в Ірландії, а не про загальноєвропейське рішення. Дезінформацію розвінчали StopFake.

У матеріалі УНІАН ішлося виключно про Ірландію, а не про всю Європу, як це подають пропагандистські ресурси. Станом на квітень 2026 року країна прийняла понад 125 тисяч українців у межах Директиви про тимчасовий захист. Жодних рішень про масове позбавлення українських біженців житла на рівні Європейського Союзу не ухвалювали.

Маніпулятивно також використали слова державного міністра Ірландії з питань міграції Колма Брофі. У соцмережах його цитату вирвали з контексту, створюючи враження, ніби уряд залишає українців напризволяще. Насправді під час ефірів на RTÉ Morning Ireland та Newstalk Breakfast 28 квітня 2026 року міністр наголосив, що українська громада в Ірландії демонструє високу здатність самостійно знаходити житло завдяки підтримці всередині спільноти.

Нова стратегія уряду Ірландії не передбачає виселення людей без альтернативи. 27–28 квітня 2026 року ірландський уряд ухвалив рішення поступово відмовлятися від комерційних контрактів з готелями та гостьовими будинками, де нині проживають близько 16 тисяч українців, які прибули до країни до березня 2024 року. Однак зміни стартують не раніше серпня 2026 року і триватимуть приблизно пів року.

Кожного українця, якого стосуватимуться зміни, попереджатимуть щонайменше за три місяці. Водночас уряд планує до кінця року побудувати 2500 модульних житлових одиниць і запустити окрему програму допомоги з пошуком приватної оренди.

Окремо влада наголосила, що нові правила не поширюватимуться на людей з високим рівнем уразливості або тих, хто не може самостійно забезпечити себе житлом. Міністр юстиції Джим О’Каллахан підтвердив, що такі категорії українців і надалі отримуватимуть державне житло.

Показовою є й статистика, наведена Колмом Брофі: близько половини українців, які раніше втратили доступ до державного розміщення, не скористалися новими безкоштовними пропозиціями, оскільки вже самостійно орендували житло. Це свідчить про те, що значна частина української громади в Ірландії вже інтегрувалася та живе незалежно від державної підтримки.

Над хронікою працюють Маріанна Присяжнюк, Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.