Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

09 Січня станом на 1415 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Маніпуляція: канцлер Німеччини Фрідріх Мерц закликав «повністю закрити кордони України»

Російські пропагандисти та анонімні телеграм-канали поширюють черговий вкид, спрямований на розпалювання внутрішнього невдоволення в Україні та дискредитацію європейських партнерів. Цього разу об’єктом атаки стали заяви канцлера ФРН Фрідріха Мерца за підсумками зустрічі в Парижі 6 січня 2026 року. Розвінчали маніпуляцію експерти СтопФейк

Фейк

Соцмережами шириться «цитата» Фрідріха Мерца, нібито виголошена після зустрічі «коаліції охочих»: «Треба повністю закрити кордони України, щоби чоловіки не виїжджали до Європи. Києву потрібно це забезпечити». Пропагандисти стверджують, що Німеччина вимагає від України перетворення на «закриту зону» для молодих чоловіків.

Скриншот проросійського телеграм-каналу, що поширює вигадані цитати Мерца

Про що насправді йшлося?

Аналіз виступу канцлера Німеччини свідчить, що цитата є вигаданою, а контекст розмови — повністю викривленим.

1. Жодних згадок про «закриття кордонів» У промові Мерца не було жодного заклику до обмеження свободи пересування чи фізичного закриття кордонів. Канцлер наголосив на важливості відновлення України та створення умов для її сталого розвитку.

2. Контекст — майбутнє відновлення, а не воєнний стан Слова Мерца стосувалися періоду після завершення бойових дій. Він зазначив, що коли Україна отримає реальні гарантії безпеки, головним завданням стане економічне зміцнення.

3. Робота замість міграції Насправді канцлер говорив про необхідність створення конкурентоспроможних робочих місць в Україні, щоб молоді таланти мали стимул залишатися вдома та розбудовувати власну державу, а не шукати кращої долі в ЄС.

«Україна має забезпечити, щоб її молоді чоловіки могли знайти гідну роботу у своїй країні... Це те, що ми вже обговорювали разом у Брюсселі», — зазначив Мерц, підкреслюючи важливість економічного чинника для безпеки.

Цей фейк є частиною тривалої дезінформаційної кампанії РФ, яка має на меті деморалізувати українське суспільство: створити ілюзію, що Україна перетворюється на «тюрму», а західні партнери це підтримують та спровокувати антинімецькі настрої: виставити Німеччину як країну, що диктує авторитарні умови

Фрідріх Мерц виступає за сильну та економічно привабливу Україну, де молодь матиме перспективу розвитку. Заяви про примусове «закриття кордонів» — це вигадка російських пропагандистів, побудована на вириванні слів із контексту.

Російська пропаганда знову атакує Христю Фріланд через біографію її діда

Кремлівські медіа та офіційні представники МЗС РФ поширюють чергову маніпуляцію щодо Христі Фріланд. Цього разу приводом стало її призначення радницею президента України. StopFake розібрався, чому звинувачення у «нацистському пособництві» її предка є класичним прикладом демонізації та викривлення контексту.

Російські пропагандистські ресурси (зокрема Lenta.ru), пропагандистські телеграм-канали та речниця МЗС РФ Марія Захарова синхронно заявили, що Володимир Зеленський нібито призначив своєю радницею з економічного розвитку «онуку нацистського колаборанта». Йдеться про Михайла Хом’яка — діда канадської політикині Христі Фріланд, який у часи Другої світової війни редагував газету «Краківські вісті».

Скриншот публікації на Lenta.ru

Контекст: старі методи нової дезінформації

Варто зазначити, що цей наратив не є новим. Вперше «компромат» на Михайла Хом’яка масово вкинули в інфопростір ще у 2017 році, коли Фріланд очолила МЗС Канади. Вже тоді вона прямо назвала ці закиди зусиллями Москви, спрямованими на дестабілізацію західних демократій.

Факти проти маніпуляцій

Щоб зрозуміти рівень маніпуляції, важливо розділити реальні біографічні факти та пропагандистську інтерпретацію:

  1. Статус Михайла Хом’яка: Хом’як був цивільним журналістом. До війни він працював у Львові, а після приходу радянської влади втік до Кракова. Там він очолив україномовне видання «Краківські вісті». Він ніколи не був воєнним злочинцем, не брав участі в каральних акціях та не був ідеологом нацизму.
  2. Умови роботи видання: У той час будь-яка друкована продукція на окупованих територіях проходила через жорстку нацистську цензуру. Видання української газети було неможливим без формальної згоди окупаційної адміністрації.
  3. Зміст газети: Історик Ернест Гійдель, який детально досліджував архіви «Краківських вістей», зазначає, що лише близько 25% контенту становила вимушена німецька пропаганда (переважно антирадянського та антипольського спрямування). Решта матеріалів була присвячена культурі, мові та побуту українців.
  4. Відсутність складу злочину: Дослідники не знайшли жодної статті за авторством самого Хом’яка, яка б мала антисемітський чи пронацистський характер. Його роль як редактора була технічною — забезпечити функціонування газети в умовах тотального контролю.
Скриншот проросійського телеграм-каналу, що поширює маніпуляцію про Фріланд

Чому це маніпуляція?

Російська пропаганда використовує тактику «вини за асоціацією».

  • По-перше, вони ігнорують історичний контекст, де праця журналіста під цензурою прирівнюється до добровільного колабораціонізму.
  • По-друге, провина предка (навіть якби вона була доведена) не може бути прямо перенесена на нащадків.

Отже, метою Кремля є не встановити історичну правду, а дискредитувати Христю Фріланд як впливову західну політикиню, що підтримує Україну. Використання терміна «нацистський поплічник» щодо цивільного журналіста є свідомим перебільшенням та маніпуляцією емоціями аудиторії.

Фейкові проповіді та цифрові «благословення»: як ШІ-дипфейки полюють на вірян

Релігійні громади по всьому світу опинилися під прицілом шахраїв, які використовують штучний інтелект для створення дипфейків духовних лідерів. Від імені відомих пасторів та священиків зловмисники поширюють провокаційні заяви та виманюють гроші у парафіян. Журналісти WIRED розповіли, як працює ця схема у США та чому вона небезпечна.

Коли ШІ краде обличчя священників

У листопаді католицький священник і подкастер отець Майк Шмітц звернувся до своєї аудиторії — понад 1,2 мільйона підписників на YouTube — з незвичайною проповіддю. Він попередив: словам, які ніби виходять з його уст, не завжди можна вірити, бо іноді це не його слова — і навіть не його уста. Шмітц став жертвою шахрайських схем із використанням штучного інтелекту.

В одному з фейкових відео, яке справжній Шмітц показав як приклад, його цифрова копія заявляла: «За вами спостерігає демонічна людина». В іншому відео фальшивий Шмітц на тлі пісочного годинника закликав: «Ви повинні діяти швидко, бо місця для надсилання молитов вже закінчуються. Наступна поїздка відбудеться лише через чотири місяці». Голос звучав трохи роботизовано, але достатньо переконливо, щоб примусити глядачів натиснути на посилання і «забезпечити своє благословення».

«Я можу подивитися на це й сказати: "Це абсурд, я б ніколи так не сказав"», — пояснював справжній Шмітц. — «Але люди не обов'язково можуть це розпізнати. Це проблема. Серйозна проблема».

Епідемія релігійних дипфейків

За словами експертки з кібербезпеки Рейчел Тобак, CEO компанії SocialProof Security, священники стали надзвичайно популярними об'єктами ШІ-шахрайств та інших видів оманливого контенту.

«Якщо ви в TikTok або Reels, ці відео напевно з'являлися у вашій стрічці», — каже Тобак. — «Це хтось, хто виглядає як священник, одягнений у відповідний одяг, стоїть на кафедрі чи сцені і, здається, дуже емоційно звертається до своєї парафії».

Пастори та священники в Бірмінгемі (Алабама), Фріпорті (Нью-Йорк) і Форт-Лодердейлі (Флорида) попереджали своїх послідовників про ШІ-шахрайства у вигляді особистих повідомлень, дзвінків та дипфейків. Алан Бошан, пастор з Озарків, повідомив, що його обліковий запис у Facebook зламали — хакер опублікував фальшивий, можливо створений ШІ, сертифікат про торгівлю криптовалютою з ім'ям Бошана та підписом, що закликав парафіян приєднатися. Мегацерква на Філіппінах отримала повідомлення про дипфейки зі своїми пасторами. Євангельська церква в Небрасці оприлюднила «попередження про ШІ-шахраїв» у Facebook.

Чому священники — ідеальна мішень

Проблема ускладнюється тим, що багато пасторів і священників, які здобули велику онлайн-аудиторію, справді збирають пожертви та щось продають — просто не те, що пропонують їхні ШІ-двійники. Соціальні мережі дозволили релігійним авторитетам охопити віруючих далеко за межами своїх громад, але поширення контенту з їхніми обличчями та голосами також створило ідеальну можливість для шахраїв із генеративним штучним інтелектом.

«Ви отримуєте дзвінок, який звучить як пастор або член правління — людина, яка щотижня з'являється в прямих ефірах, і їхні голоси можна зібрати та використати в ШІ», — попереджав представник ChurchTrac, компанії з управління церквами з Флориди. — «Шахрай може використати цей голос, зателефонувати в церкву і сказати: "Привіт, чи могли б ви перевести ці кошти на цей рахунок?"»

Коли WIRED шукав отця Шмітца в TikTok, три фейкові акаунти, які він показував у своєму відео, все ще були активними. В TikTok існує понад 20 облікових записів, що видають себе за Шмітца, який сам не має верифікованого акаунту на цій платформі. Після того, як WIRED звернув увагу компанії на ці акаунти, TikTok видалив їх, посилаючись на правила проти видавання себе за інших.

Не тільки шахрайство: ШІ-пастори для впливу

Шахрайство — не єдиний спосіб використання ШІ для імітації священників. Тобак натрапила на вірусні короткі ШІ-відео з пасторами, які, схоже, не базуються на конкретних особах, але швидко набирають перегляди через несподіваний зміст їхніх проповідей. В одному TikTok-відео з понад 11 мільйонами переглядів пастор люто кричить у натовп, стискаючи краї кафедри: «Мільярдери — єдина меншість, якої ми повинні боятися! Вони мають владу знищити цю країну! Їм не потрібен ваш захист! Їм потрібна ваша підзвітність!»

Акаунт TikTok, який опублікував це відео, Guided in Grace, має біографію «Використовуємо ШІ, щоб показати паралельний всесвіт». Але підпис до відео не вказує, що це створено ШІ. Натомість там написано: «Тим часом у церкві моєї консервативної бабусі сьогодні вранці...» Більшість коментарів сприймають це як реальне відео.

«Ми не знаємо, хто це створює, не знаємо їхніх цілей, але схоже, що мета — спробувати вплинути на те, як люди думають», — каже Тобак. Всі відео на цьому ШІ-акаунті пастора були опубліковані в жовтні, коли відео, створені за допомогою Sora з інфлюенсером Джейком Полом, набирали понад мільярд переглядів.

«Коли ви бачите когось високопоставленого в церкві, хто висловлює певну думку, ми надаємо цій заяві значення, цінність і силу інакше, ніж якби це був інфлюенсер», — пояснює Тобак. Вона також зазначила, що такі акаунти можуть монетизуватися через Creator Fund TikTok. «Якщо ви можете швидко стати вірусними, якщо можете отримати багато переглядів, вам платять більше грошей».

Церкви самі експериментують зі ШІ

Ті самі стимули, що спонукають TikTok-креаторів експериментувати зі ШІ-медіа, можуть спонукати і церкви робити те саме. У вересні церква в Далласі, Техас, продемонструвала ШІ-відео з покійним консервативним активістом Чарлі Кірком, який нібито говорить про Христа з того світу. Згідно зі звітом 2025 року від компанії, яка просуває використання ШІ церковними лідерами, більшість опитаних пасторів заявили, що вже використовують такі інструменти, як ChatGPT та Grammarly, для підготовки проповідей. Чат-боти, які начебто дозволяють користувачам спілкуватися з Богом, Ісусом та іншими релігійними фігурами, процвітають.

Небезпека для психічного здоров'я

Хоча деякі духовні лідери швидко прийняли релігійний ШІ, спостерігачі галузі, такі як Тобак та Лукас Хансен, співзасновник освітньої некомерційної організації з ШІ CivAI, залишаються стурбованими серйозними наслідками для психічного здоров'я користувачів технології. У жовтні OpenAI повідомила, що сотні тисяч користувачів ChatGPT щотижня можуть демонструвати ознаки психозу та інших проблем з психічним здоров'ям у розмовах з чат-ботом. Деякі з цих марень можуть мати релігійний характер.

«Думаю, може з'явитися чимало людей, які вважатимуть, що Бог використовує ШІ як інструмент для спілкування з ними. Ми вже трохи це бачимо», — каже Хансен. — «ШІ намагається з'ясувати, що користувач хотів би, щоб було правдою, і потім підкріплює це. Ті люди, які можливо трохи схильні до таких проблем, отримують підкріплення своїх переконань».

Що робити?

Як захиститися від релігійних дипфейків:

  • Перевіряйте джерело: звертайтеся безпосередньо до офіційних каналів церкви чи священника перед будь-якими пожертвами
  • Шукайте ознаки ШІ: неприродні рухи, дивна міміка, роботизований голос, невідповідності в зовнішності
  • Будьте скептичними до термінових прохань: шахраї часто створюють штучне відчуття терміновості
  • Повідомляйте про підозрілий контент: використовуйте функції скарг на платформах соціальних мереж
  • Обговорюйте це в громаді: поширюйте обізнаність серед інших парафіян

Для священників і пасторів, які вже стали об'єктами ШІ-видавання за інших без їхньої згоди, можливо, менше бажання приймати цю технологію. Отець Шмітц, схоже, належить до цієї категорії. Після попередження своїх глядачів про дипфейки він згадав, як у дитинстві дивився фільми «Термінатор» з їхнім зображенням ШІ як злісного Skynet. Але наслідки розвитку ШІ поки що нагадують йому радше млявих людей, що зависають у кріслах з плаваючими екранами у фільмі «ВАЛЛ-І».

«Ми б подумали: "Ні, розширюючи технології, ми можемо подорожувати далі, рухатися швидше, робити дивовижні речі"», — сказав Шмітц. — «Але може статися так, що ми насправді не робимо дивовижних речей. Може статися, що розширюючи свою людяність технологіями, ми перестаємо знати, як щось робити».

Джерело: Wired

Фейк: польська компанія нібито розробила дрон для «збору тіл загиблих» в Україні заради заробітку

Російська пропаганда запустила чергову дезінформаційну кампанію, намагаючись зобразити підтримку західних партнерів як «бізнес на смерті». Цього разу об’єктом атаки стала польська розробка, яку видають за інструмент для утилізації тіл. Фейк розвінчали фактчекери СтопФейк

Кремлівські медіа та Z-канали поширюють фотографію безпілотника з підписами про те, що Польща створила спеціальний апарат для збору трупів на полі бою в Україні. Пропагандисти стверджують, що «Захід не пропонує мир, а заробляє на кожній втраті», перетворюючи трагедію на вигідний контракт.

Скриншот пропагандистського медіа, що поширює фейк

Насправді на фото зображена новітня польська розробка під назвою ŻURAW (Журавель), представлена на міжнародній оборонній виставці MSPO. "Поки українці гинуть тисячами, західні 'партнери' пропонують Києву не мир, а техніку для прибирання тіл. Це не допомога — це цинічний бізнес на смерті, де кожне втрачене життя стає приводом для нової угоди", — стверджує агітпроп. Насправді, це оригінальний польський наземний роботизований комплекс (НРК) не має нічого спільного з вигадками агітпропу:

  1. Призначення — порятунок, а не «збір тіл»: Згідно з офіційною документацією виробника, ŻURAW — це безпілотна медична система. Її головна мета — евакуація поранених солдатів з-під обстрілів та оперативна доставка медичної допомоги туди, де життя бійця залежить від кожної хвилини.
  2. Для кого розроблено: Система створювалася на замовлення Збройних сил Польщі, а не для комерційного продажу в Україну. Польські військові планують використовувати її для модернізації власних рятувальних підрозділів.
  3. Зв'язок з Україною: Єдине, що пов’язує цей дрон з Україною — це досвід сучасної війни. Конструктори аналізували перебіг бойових дій в Україні, щоб створити ефективний засіб для збереження життя солдатів, а не для їхньої «утилізації».

Цей фейк має чітку психологічну мету: викликати антипольські настрої, зображуючи сусідів як «цинічних мародерів», спровокувати зневіру та депресію в українському суспільстві, дискредитувати західну допомогу, підміняючи поняття «порятунок життя» на «бізнес на крові».

Скріншот сайту виробника з описом дрона «ŻURAV»

«ŻURAW — це сучасна безпілотна рятувальна система, призначена для евакуації поранених солдатів із зон бойових дій та інших місць, що вимагають негайної медичної допомоги та надання першої допомоги в умовах бойових дій», — йдеться в описі.

Російський агітпроп вкотре вдався до відвертої брехні, видавши гуманітарну розробку для рятування поранених за «катафалк на пропелерах».

Фейк: Військовий 80-ї бригади намагався вивезти за кордон старовинну ікону

В соцмережах поширюється черговий вкид російської пропаганди, спрямований на дискредитацію Збройних Сил України. Цього разу в анонімних телеграм каналах зманіпулювали новиною регіонального медіа зі Львівщини, щоб звинуватити українського захисника у крадіжці культурних цінностей та дезертирстві. Фекй розвінчали фактчекери "Укрінформу"

Проросійські телеграм-канали тиражують скриншот, який видають за матеріал відомого львівського видання. У підробленому заголовку стверджується, що боєць 80-ї окремої десантно-штурмової бригади нібито намагався незаконно перетнути кордон, прихопивши із собою антикварну ікону.

Скриншот пропагандистського телеграм-каналу. Джерело: Укрінформ

Фактчекери "Укрінформру" встановили, що «новина» є продуктом графічного редактора. За основу пропагандисти взяли реальну статтю ресурсу Lviv.Media, проте повністю змінили її зміст:

  1. Оригінальний заголовок: У справжньому матеріалі йдеться: «У Львові суд оштрафував чоловіка за спробу вивезти за кордон старовинну ікону».
  2. Відсутність військового статусу: У тексті судового рішення та в оригінальній публікації медіа немає жодної згадки про те, що правопорушник є військовослужбовцем. Це цивільна особа, яка понесла адміністративну відповідальність.
  3. Хронологія: Подія відбулася ще 22 жовтня, а наприкінці 2025 року суд виніс вирок — штраф у розмірі 5100 гривень. Російські ж ресурси «оновили» новину, додавши до неї вигадані деталі про 80-ту ОДШБр.
Скриншот оригінальної новини "Новин Львівщини" 

Ця дезінформаційна має на меті підірвати довіру українського суспільства до армії та створити негативний імідж десантників, виставляючи їх як «мародерів». Проросійські телеграм-канали системно використовують дрібні кримінальні хроніки для створення масштабних фейків про ЗСУ.

Вигадка про те, що Памела Андерсон закликала США затримати Зеленського

У контексті подій у Венесуелі російські пропагандисти поширювали в анонімних телеграм-каналах, що публікують російську риторику, повідомлення про те, що американська акторка Памела Андерсон нібито несподівано на своїй сторінці в інстаграмі опублікувала розповідь із посиланням на матеріал американського телеканалу CBS News про затримання Ніколаса Мадуро із підписом «Якщо Трамп справді хотів знищити найбільше сховище кокаїну у світі, американська армія повинна була б зайти до Києва та затримати Зеленського». Втім це - неправда.

Ми перевірили правдивість цієї заяви та з’ясували, що Андерсон на своїй офіційній сторінці в інстаграмі взагалі не публікувала розповідей за вчорашній день, а єдиною розповіддю на її акаунті станом на зараз є посилання на її щоденник у Substack, де немає відповідних коментарів. Крім того, про цю заяву не написало жодне закордонне медіа, окрім російських. Натомість є низка матеріалів, які показують послідовну підтримку акторкою України - наприклад, вона вдягала сукню українського дизайнера на один із кінозаходів.

Поширюючи вигадані цитати від відомих людей, пропаганда намагається посіяти сумнів у правдивості справжніх висловлювань й зробити так, щоб аудиторія менше довіряла реальним новинам. Крім цього, заяви про те, що західні зірки нібито критикують підтримку України чи закликають до зміни уряду, можуть бути спрямовані на послаблення цієї підтримки. Цей фейк також спрямований на підсилення одного з найчастіше вживаних меседжів для дискредитації президента України, створюючи хибну конотацію із контекстом подій у Венесуелі.

Російські телеграм-канали поширюють фейк про «кінні штурми» 92-ї бригади

Команда Voxcheck звернула увагу на те, що російські телеграм-канали поширюють скриншот нібито публікації українського медіа, в якій стверджується, що 92 окрема штурмова бригада ЗСУ через втрати військової техніки почала використовувати коней під час штурмових дій. У дописі зазначають, що цю інформацію начебто оприлюднила пресслужба бригади.

Насправді йдеться про фотофейк. Оригінальний матеріал має зовсім інший зміст і описує використання коней російськими підрозділами, а не українськими військовими.

За результатами зворотного пошуку зображення в Google встановлено, що пропагандисти використали скриншот публікації харківського медіа MEDIAPORT від 22 грудня 2025 року. В оригінальній статті йдеться про те, що бійці 92-ї ОШБр зафіксували на відео факт залучення коней російськими окупаційними військами під час штурму.

«Російські окупанти так швидко втрачають техніку під час своїх “м’ясних штурмів”, що змушені переміщатися на конях», — йдеться в справжній цитаті пресслужби 92-ї ОШБр.

Імовірно, автори фейку відредагували заголовок матеріалу за допомогою фоторедактора або через зміну коду сторінки, підмінивши формулювання «російські окупанти» на «воїни 92-ї бригади».

Абсурдні твердження про «коней замість техніки» покликані створити образ української армії як виснаженої, технічно відсталої та нібито приреченої. Це підриває довіру до боєздатності ЗСУ як усередині країни, так і серед міжнародних партнерів.

Фактичне використання коней російськими підрозділами подається як «українська практика», щоб зняти відповідальність із російського командування та нормалізувати деградацію їхньої армії.

ЦПД попереджає про дезінформацію РФ щодо «хімічної атаки» України

Російська пропаганда поширює дезінформаційні повідомлення про нібито підготовку Україною провокації із застосуванням хімічної зброї з метою дискредитації Сил оборони. Про це повідомив Центр протидії дезінформації при Раді національної безпеки і оборони України.

У ЦПД зазначають, що окупаційні структури в Харківській області розповсюджують заяви про буцімто прибуття до Ізюма підрозділів радіаційного, хімічного та біологічного захисту ЗСУ та підготовку «теракту» із використанням хімічних речовин у період 6–8 січня.

У Центрі вважають, що така інформаційна кампанія є прикладом так званої тактики «інформаційного алібі», коли Росія заздалегідь приписує Україні дії, до яких сама системно вдається, створюючи інформаційне підґрунтя для можливих власних провокацій або воєнних злочинів.

Окремо в ЦПД звертають увагу на використання релігійної тематики в цій маніпуляції: пропагандисти прив’язують вигадану «провокацію» до дат православного Різдва за юліанським календарем.

«Заяви російських окупаційних структур не підкріплені жодними доказами та є елементом інформаційної війни. Натомість факти застосування хімічних речовин російськими військами неодноразово фіксувалися українською стороною та міжнародними організаціями, а сама РФ перебуває під санкціями за використання хімічної зброї», – підсумовують у дописі.

Заздалегідь звинувачуючи Україну у підготовці хімічних провокацій, Росія намагається сформувати тло, яке дозволить їй заперечувати або виправдовувати власні дії у разі реального застосування заборонених засобів.

Наративи про «хімічні теракти» мають сформувати образ України як сторони, що нібито порушує міжнародне право, що особливо важливо для впливу на західну аудиторію та міжнародні інституції.

Фейки і маніпуляції щодо затримання й вивезення у США Ніколаса Мадуро

Наводимо підбірку спростувань фейків та маніпуляцій від іспанопомвних фактчекерських організацій, які виникли через брак точної інформації про воєнні дії США у Венесуелі 3 січня 2025.

Штучний інтелект генерував фальшиві фото затримання Мадуро

Після офіційного повідомлення Дональда Трампа про захоплення Ніколаса Мадуро, інтернет заполонили десятки зображень політика у наручнихах. На одних він у білій піжамі, на інших — у синій сорочці або коротких шортах в оточенні агентів DEA чи ФБР. Ці фото поширили навіть великі медіа, як-от колумбійське WRadio.

Джерело: Bolivia Verifica

Аналіз зображень підтвердив, що вони були створені штучним інтелектом. На це вказують типові помилки нейромереж: нерозбірливі написи на емблемах військових, спотворені риси облич солдатів та анатомічні аномалії. Крім того, на цих фото Мадуро одягнений у речі, які не збігаються з офіційним фото, що було оприлюднене пізніше.

Єдиним достовірним візуальним підтвердженням на той момент була світлина, опублікована самим Трампом у Truth Social. На справжньому фото Мадуро зафіксований на борту військового судна USS Iwo Jima у сірому спортивному костюмі та з пов'язкою на очах.

Стара заява опозиціонерки Марії Коріни Мачадо видана за актуальну реакцію

У день затримання Мадуро медіапростором ширилась цитата лідерки венесуельської опозиції Марії Коріни Мачадо. У ній вона стверджувала, що опозиція «готова взяти на себе управління урядом». Користувачі сприйняли це як негайну відповідь на операцію США.

Насправді цей вислів є застарілим. Вперше ці слова прозвучали ще 31 жовтня 2025 року під час інтерв'ю агентству Bloomberg. Поширення цього повідомлення без контексту створило хибне враження, що опозиція координувала свої дії безпосередньо з моментом затримання.

Реальне звернення Мачадо з’явилося лише через 10 годин після початку американської операції. У своєму офіційному дописі вона зазначила: «Сьогодні ми готові реалізувати наш мандат і взяти владу». Фактчекери наголошують на важливості розрізнення свіжих заяв від архівних цитат у кризові моменти.

Відео зі святкуванням затримання і демонтажем плакатів із Мадуро

У соціальних мережах та на деяких телеканалах (зокрема Bolivia TV) почало масово поширюватися відео, де громадяни Венесуели зі сміхом і вигуками знімають передвиборчі плакати із зображенням Ніколаса Мадуро. Стверджувалося, що це реакція населення на новини про його затримання силами США 3 січня 2026 року.

Джерело: Bolivia Verifica

Проте розслідування показало, що ці кадри не мають стосунку до поточних подій. Відео вперше з’явилося в мережі ще 29 липня 2024 року. Тоді в країні спалахнули масові протести через незгоду з результатами президентських виборів, на яких Національна виборча рада оголосила Мадуро переможцем.

Фактчекери зазначають, що попри реальність самого факту операції США у 2026 році, використання старих кадрів вводить аудиторію в оману щодо масштабів миттєвої реакції на вулицях у день затримання. Громадян закликають ретельно перевіряти дату публікації контенту.

Фактчекери розвінчали вкид про «дискотеки в українських православних храмах»

У російських медіа поширюють заяви про нібито перетворення православних храмів в Україні на кінотеатри та дискотеки.  На це звернули увагу аналітики Центру стратегічних комунікацій та The Insider.

Зокрема, брехливі твердження пролунали в сюжеті кореспондента Кирила Брайніна на «Первом канале», де різдвяне звернення президента України Володимира Зеленського подали як прояв «ворожості до християнських цінностей».

Як «докази» автори сюжету використали кадри з храмів, які назвали «захопленими», стверджуючи, що в них нібито проводять розважальні заходи.

Насправді йдеться про храм, що є частиною Національного архітектурно-історичного заповідника «Чернігів давній». До 2023 року він перебував у тимчасовому користуванні УПЦ (МП). Після завершення терміну дії відповідних документів держава не продовжила дозвіл, а спеціальна комісія зафіксувала незадовільний технічний стан будівлі та необхідність тривалої реставрації, яка може тривати до десяти років.

Поширені російським телеканалом кадри не свідчать про переобладнання храму на кінотеатр. На відео видно лише встановлений телевізор, на якому 1 листопада 2024 року відбулася презентація документального фільму «Чернігівське князівство. 1000 років».

Крім того, фактчекери раніше спростували повідомлення про нібито дискотеку в церковному приміщенні у Вінниці. Опубліковане відео було зняте в нічному клубі Room 13 у Варшаві, що розташований у будівлі Етнографічного музею, яка ніколи не використовувалася як культова споруда.

Наратив про «зневагу до християнських цінностей» формує образ України як «безбожної» та «аморальної» держави. Це особливо ефективно для консервативної аудиторії в Росії та частини міжнародної публіки.

Мовні й релігійні теми використовують як клин між різними групами українців — щоб спровокувати недовіру, образу та внутрішні конфлікти.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.