Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

12 Січня станом на 1418 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Пропагандисти створюють фейкові «новинні відео» для дискредитації українських біженців

Російські телеграм-канали та акаунти в соцмережах поширюють серію фейкових відео, нібито створених авторитетними міжнародними медіа та правозахисними організаціями, з метою дискредитації українських біженців у країнах Європейського Союзу.

Про це повідомляє Укрінформ.

Зокрема, пропагандисти розповсюджують відео з логотипом телеканалу Euronews, у якому йдеться про трагедію на гірськолижному курорті Кран-Монтана у Швейцарії. У ролику стверджується, що пожежа в барі курорту, яка забрала життя 40 осіб, була нібито скоєна українським біженцем на ім’я Олег К. через ревнощі.

Насправді це фейк. Російська сторона використала оригінальний сюжет Euronews про пожежу, додавши до нього змонтовані кадри. Справжній відеоматеріал триває 1 хвилину 16 секунд, тоді як підроблений ролик має більший хронометраж і містить сцени, яких немає в оригінальному випуску новин.

За інформацією швейцарської прокуратури, найбільш імовірною причиною пожежі стали бенгальські вогні, від яких зайнялася покрівля будівлі. У справі перебувають під вартою двоє менеджерів бару, яких підозрюють у порушенні правил пожежної безпеки. Жодних згадок про причетність українських біженців слідство не робило.

Окрім цього, в соцмережах поширюється відео з логотипами міжнародної правозахисної організації Human Rights Watch, у якому стверджується, що під час новорічних свят українські біженці нібито вчинили в Європі стільки ж злочинів, як і мігранти з Близького Сходу.

Ця інформація також не відповідає дійсності. Такого відео немає ані на офіційному сайті Human Rights Watch, ані на сторінках організації в соціальних мережах. Від початку року HRW опублікувала лише два відеоматеріали, присвячені протестам в Ірані та питанням британського законодавства.

Крім того, російські боти в соцмережах Х і Telegram поширюють ще один сфабрикований ролик — цього разу з логотипом BBC. У ньому заявляється, що українські біженці нібито масово зникають у Європі та стають жертвами торгівлі людьми.

Як з’ясувалося, відео було підроблене на основі формату YouTube Shorts. У ролику вказана дата 5 січня, однак на офіційному ютуб-каналі BBC такого матеріалу немає.

Експерти зазначають, що поширення подібних фейків є частиною системної інформаційної кампанії Росії, спрямованої на дискредитацію українців за кордоном. Її мета — сформувати негативне ставлення до українських біженців у західної аудиторії та посилити антиукраїнські настрої в країнах ЄС.

У тіктоку масово поширюються ШІ-відео про «протести» в Україні

У українському сегменті тіктоку за останні місяці помічено різке зростання кількості відео, згенерованих штучним інтелектом (ШІ), які нібито показують масові протести в українських містах. Журналісти виявили понад пів сотні таких роликів, що разом зібрали більше 6 мільйонів переглядів.

Про це повідомляє Texty.org.ua.

Відео публікують кілька анонімних акаунтів. На деяких показано «репортажі журналісток» про протестні акції в Києві, Одесі та Харкові, яких насправді не було — це легко перевірити за стрічками новин авторитетних ЗМІ. Багато роликів мають маркування тіктоку як такі, що «містять медіа, згенеровані ШІ».  Ролики також мають вотермарку відеомоделі Sora від OpenAI, яка допомагає створювати реалістичні ШІ-відео з простих текстових описів.  

У фейкових відео фігурують натовпи людей, поліцейські проблискові маячки, бронетехніка, а вигадані репортерки емоційно описують «ситуацію», не надаючи жодних перевірених фактів. Найбільше переглядів — понад 2,2 мільйона — набрало відео нібито з Києва.

Один з акаунтів просуває явно проросійські меседжі, де в описі зазначено «Кошмарю Укpaшиcтoв» і використовується російський прапор як частина візуального контенту. Інший користувач з Нідерландів регулярно публікує відео з натовпами на центральних площах українських міст, де звучать заклики на кшталт «Одеса сила! Зеленский, уходи!» або «Київ хоче бути з Росією!».

Аналітики наголошують, що алгоритми тіктоку можуть просувати відео незалежно від достовірності інформації, а частоту переглядів можуть штучно підсилювати боти. У підсумку це створює хибне враження про нібито масові антиурядові настрої в Україні, що відповідає традиційним російським пропагандистським наративам про «Майдан 2.0».

Маніпуляція: канцлер Німеччини Фрідріх Мерц закликав «повністю закрити кордони України»

Російські пропагандисти та анонімні телеграм-канали поширюють черговий вкид, спрямований на розпалювання внутрішнього невдоволення в Україні та дискредитацію європейських партнерів. Цього разу об’єктом атаки стали заяви канцлера ФРН Фрідріха Мерца за підсумками зустрічі в Парижі 6 січня 2026 року. Розвінчали маніпуляцію експерти СтопФейк

Фейк

Соцмережами шириться «цитата» Фрідріха Мерца, нібито виголошена після зустрічі «коаліції охочих»: «Треба повністю закрити кордони України, щоби чоловіки не виїжджали до Європи. Києву потрібно це забезпечити». Пропагандисти стверджують, що Німеччина вимагає від України перетворення на «закриту зону» для молодих чоловіків.

Скриншот проросійського телеграм-каналу, що поширює вигадані цитати Мерца

Про що насправді йшлося?

Аналіз виступу канцлера Німеччини свідчить, що цитата є вигаданою, а контекст розмови — повністю викривленим.

1. Жодних згадок про «закриття кордонів» У промові Мерца не було жодного заклику до обмеження свободи пересування чи фізичного закриття кордонів. Канцлер наголосив на важливості відновлення України та створення умов для її сталого розвитку.

2. Контекст — майбутнє відновлення, а не воєнний стан Слова Мерца стосувалися періоду після завершення бойових дій. Він зазначив, що коли Україна отримає реальні гарантії безпеки, головним завданням стане економічне зміцнення.

3. Робота замість міграції Насправді канцлер говорив про необхідність створення конкурентоспроможних робочих місць в Україні, щоб молоді таланти мали стимул залишатися вдома та розбудовувати власну державу, а не шукати кращої долі в ЄС.

«Україна має забезпечити, щоб її молоді чоловіки могли знайти гідну роботу у своїй країні... Це те, що ми вже обговорювали разом у Брюсселі», — зазначив Мерц, підкреслюючи важливість економічного чинника для безпеки.

Цей фейк є частиною тривалої дезінформаційної кампанії РФ, яка має на меті деморалізувати українське суспільство: створити ілюзію, що Україна перетворюється на «тюрму», а західні партнери це підтримують та спровокувати антинімецькі настрої: виставити Німеччину як країну, що диктує авторитарні умови

Фрідріх Мерц виступає за сильну та економічно привабливу Україну, де молодь матиме перспективу розвитку. Заяви про примусове «закриття кордонів» — це вигадка російських пропагандистів, побудована на вириванні слів із контексту.

Російська пропаганда знову атакує Христю Фріланд через біографію її діда

Кремлівські медіа та офіційні представники МЗС РФ поширюють чергову маніпуляцію щодо Христі Фріланд. Цього разу приводом стало її призначення радницею президента України. StopFake розібрався, чому звинувачення у «нацистському пособництві» її предка є класичним прикладом демонізації та викривлення контексту.

Російські пропагандистські ресурси (зокрема Lenta.ru), пропагандистські телеграм-канали та речниця МЗС РФ Марія Захарова синхронно заявили, що Володимир Зеленський нібито призначив своєю радницею з економічного розвитку «онуку нацистського колаборанта». Йдеться про Михайла Хом’яка — діда канадської політикині Христі Фріланд, який у часи Другої світової війни редагував газету «Краківські вісті».

Скриншот публікації на Lenta.ru

Контекст: старі методи нової дезінформації

Варто зазначити, що цей наратив не є новим. Вперше «компромат» на Михайла Хом’яка масово вкинули в інфопростір ще у 2017 році, коли Фріланд очолила МЗС Канади. Вже тоді вона прямо назвала ці закиди зусиллями Москви, спрямованими на дестабілізацію західних демократій.

Факти проти маніпуляцій

Щоб зрозуміти рівень маніпуляції, важливо розділити реальні біографічні факти та пропагандистську інтерпретацію:

  1. Статус Михайла Хом’яка: Хом’як був цивільним журналістом. До війни він працював у Львові, а після приходу радянської влади втік до Кракова. Там він очолив україномовне видання «Краківські вісті». Він ніколи не був воєнним злочинцем, не брав участі в каральних акціях та не був ідеологом нацизму.
  2. Умови роботи видання: У той час будь-яка друкована продукція на окупованих територіях проходила через жорстку нацистську цензуру. Видання української газети було неможливим без формальної згоди окупаційної адміністрації.
  3. Зміст газети: Історик Ернест Гійдель, який детально досліджував архіви «Краківських вістей», зазначає, що лише близько 25% контенту становила вимушена німецька пропаганда (переважно антирадянського та антипольського спрямування). Решта матеріалів була присвячена культурі, мові та побуту українців.
  4. Відсутність складу злочину: Дослідники не знайшли жодної статті за авторством самого Хом’яка, яка б мала антисемітський чи пронацистський характер. Його роль як редактора була технічною — забезпечити функціонування газети в умовах тотального контролю.
Скриншот проросійського телеграм-каналу, що поширює маніпуляцію про Фріланд

Чому це маніпуляція?

Російська пропаганда використовує тактику «вини за асоціацією».

  • По-перше, вони ігнорують історичний контекст, де праця журналіста під цензурою прирівнюється до добровільного колабораціонізму.
  • По-друге, провина предка (навіть якби вона була доведена) не може бути прямо перенесена на нащадків.

Отже, метою Кремля є не встановити історичну правду, а дискредитувати Христю Фріланд як впливову західну політикиню, що підтримує Україну. Використання терміна «нацистський поплічник» щодо цивільного журналіста є свідомим перебільшенням та маніпуляцією емоціями аудиторії.

Фейкові проповіді та цифрові «благословення»: як ШІ-дипфейки полюють на вірян

Релігійні громади по всьому світу опинилися під прицілом шахраїв, які використовують штучний інтелект для створення дипфейків духовних лідерів. Від імені відомих пасторів та священиків зловмисники поширюють провокаційні заяви та виманюють гроші у парафіян. Журналісти WIRED розповіли, як працює ця схема у США та чому вона небезпечна.

Коли ШІ краде обличчя священників

У листопаді католицький священник і подкастер отець Майк Шмітц звернувся до своєї аудиторії — понад 1,2 мільйона підписників на YouTube — з незвичайною проповіддю. Він попередив: словам, які ніби виходять з його уст, не завжди можна вірити, бо іноді це не його слова — і навіть не його уста. Шмітц став жертвою шахрайських схем із використанням штучного інтелекту.

В одному з фейкових відео, яке справжній Шмітц показав як приклад, його цифрова копія заявляла: «За вами спостерігає демонічна людина». В іншому відео фальшивий Шмітц на тлі пісочного годинника закликав: «Ви повинні діяти швидко, бо місця для надсилання молитов вже закінчуються. Наступна поїздка відбудеться лише через чотири місяці». Голос звучав трохи роботизовано, але достатньо переконливо, щоб примусити глядачів натиснути на посилання і «забезпечити своє благословення».

«Я можу подивитися на це й сказати: "Це абсурд, я б ніколи так не сказав"», — пояснював справжній Шмітц. — «Але люди не обов'язково можуть це розпізнати. Це проблема. Серйозна проблема».

Епідемія релігійних дипфейків

За словами експертки з кібербезпеки Рейчел Тобак, CEO компанії SocialProof Security, священники стали надзвичайно популярними об'єктами ШІ-шахрайств та інших видів оманливого контенту.

«Якщо ви в TikTok або Reels, ці відео напевно з'являлися у вашій стрічці», — каже Тобак. — «Це хтось, хто виглядає як священник, одягнений у відповідний одяг, стоїть на кафедрі чи сцені і, здається, дуже емоційно звертається до своєї парафії».

Пастори та священники в Бірмінгемі (Алабама), Фріпорті (Нью-Йорк) і Форт-Лодердейлі (Флорида) попереджали своїх послідовників про ШІ-шахрайства у вигляді особистих повідомлень, дзвінків та дипфейків. Алан Бошан, пастор з Озарків, повідомив, що його обліковий запис у Facebook зламали — хакер опублікував фальшивий, можливо створений ШІ, сертифікат про торгівлю криптовалютою з ім'ям Бошана та підписом, що закликав парафіян приєднатися. Мегацерква на Філіппінах отримала повідомлення про дипфейки зі своїми пасторами. Євангельська церква в Небрасці оприлюднила «попередження про ШІ-шахраїв» у Facebook.

Чому священники — ідеальна мішень

Проблема ускладнюється тим, що багато пасторів і священників, які здобули велику онлайн-аудиторію, справді збирають пожертви та щось продають — просто не те, що пропонують їхні ШІ-двійники. Соціальні мережі дозволили релігійним авторитетам охопити віруючих далеко за межами своїх громад, але поширення контенту з їхніми обличчями та голосами також створило ідеальну можливість для шахраїв із генеративним штучним інтелектом.

«Ви отримуєте дзвінок, який звучить як пастор або член правління — людина, яка щотижня з'являється в прямих ефірах, і їхні голоси можна зібрати та використати в ШІ», — попереджав представник ChurchTrac, компанії з управління церквами з Флориди. — «Шахрай може використати цей голос, зателефонувати в церкву і сказати: "Привіт, чи могли б ви перевести ці кошти на цей рахунок?"»

Коли WIRED шукав отця Шмітца в TikTok, три фейкові акаунти, які він показував у своєму відео, все ще були активними. В TikTok існує понад 20 облікових записів, що видають себе за Шмітца, який сам не має верифікованого акаунту на цій платформі. Після того, як WIRED звернув увагу компанії на ці акаунти, TikTok видалив їх, посилаючись на правила проти видавання себе за інших.

Не тільки шахрайство: ШІ-пастори для впливу

Шахрайство — не єдиний спосіб використання ШІ для імітації священників. Тобак натрапила на вірусні короткі ШІ-відео з пасторами, які, схоже, не базуються на конкретних особах, але швидко набирають перегляди через несподіваний зміст їхніх проповідей. В одному TikTok-відео з понад 11 мільйонами переглядів пастор люто кричить у натовп, стискаючи краї кафедри: «Мільярдери — єдина меншість, якої ми повинні боятися! Вони мають владу знищити цю країну! Їм не потрібен ваш захист! Їм потрібна ваша підзвітність!»

Акаунт TikTok, який опублікував це відео, Guided in Grace, має біографію «Використовуємо ШІ, щоб показати паралельний всесвіт». Але підпис до відео не вказує, що це створено ШІ. Натомість там написано: «Тим часом у церкві моєї консервативної бабусі сьогодні вранці...» Більшість коментарів сприймають це як реальне відео.

«Ми не знаємо, хто це створює, не знаємо їхніх цілей, але схоже, що мета — спробувати вплинути на те, як люди думають», — каже Тобак. Всі відео на цьому ШІ-акаунті пастора були опубліковані в жовтні, коли відео, створені за допомогою Sora з інфлюенсером Джейком Полом, набирали понад мільярд переглядів.

«Коли ви бачите когось високопоставленого в церкві, хто висловлює певну думку, ми надаємо цій заяві значення, цінність і силу інакше, ніж якби це був інфлюенсер», — пояснює Тобак. Вона також зазначила, що такі акаунти можуть монетизуватися через Creator Fund TikTok. «Якщо ви можете швидко стати вірусними, якщо можете отримати багато переглядів, вам платять більше грошей».

Церкви самі експериментують зі ШІ

Ті самі стимули, що спонукають TikTok-креаторів експериментувати зі ШІ-медіа, можуть спонукати і церкви робити те саме. У вересні церква в Далласі, Техас, продемонструвала ШІ-відео з покійним консервативним активістом Чарлі Кірком, який нібито говорить про Христа з того світу. Згідно зі звітом 2025 року від компанії, яка просуває використання ШІ церковними лідерами, більшість опитаних пасторів заявили, що вже використовують такі інструменти, як ChatGPT та Grammarly, для підготовки проповідей. Чат-боти, які начебто дозволяють користувачам спілкуватися з Богом, Ісусом та іншими релігійними фігурами, процвітають.

Небезпека для психічного здоров'я

Хоча деякі духовні лідери швидко прийняли релігійний ШІ, спостерігачі галузі, такі як Тобак та Лукас Хансен, співзасновник освітньої некомерційної організації з ШІ CivAI, залишаються стурбованими серйозними наслідками для психічного здоров'я користувачів технології. У жовтні OpenAI повідомила, що сотні тисяч користувачів ChatGPT щотижня можуть демонструвати ознаки психозу та інших проблем з психічним здоров'ям у розмовах з чат-ботом. Деякі з цих марень можуть мати релігійний характер.

«Думаю, може з'явитися чимало людей, які вважатимуть, що Бог використовує ШІ як інструмент для спілкування з ними. Ми вже трохи це бачимо», — каже Хансен. — «ШІ намагається з'ясувати, що користувач хотів би, щоб було правдою, і потім підкріплює це. Ті люди, які можливо трохи схильні до таких проблем, отримують підкріплення своїх переконань».

Що робити?

Як захиститися від релігійних дипфейків:

  • Перевіряйте джерело: звертайтеся безпосередньо до офіційних каналів церкви чи священника перед будь-якими пожертвами
  • Шукайте ознаки ШІ: неприродні рухи, дивна міміка, роботизований голос, невідповідності в зовнішності
  • Будьте скептичними до термінових прохань: шахраї часто створюють штучне відчуття терміновості
  • Повідомляйте про підозрілий контент: використовуйте функції скарг на платформах соціальних мереж
  • Обговорюйте це в громаді: поширюйте обізнаність серед інших парафіян

Для священників і пасторів, які вже стали об'єктами ШІ-видавання за інших без їхньої згоди, можливо, менше бажання приймати цю технологію. Отець Шмітц, схоже, належить до цієї категорії. Після попередження своїх глядачів про дипфейки він згадав, як у дитинстві дивився фільми «Термінатор» з їхнім зображенням ШІ як злісного Skynet. Але наслідки розвитку ШІ поки що нагадують йому радше млявих людей, що зависають у кріслах з плаваючими екранами у фільмі «ВАЛЛ-І».

«Ми б подумали: "Ні, розширюючи технології, ми можемо подорожувати далі, рухатися швидше, робити дивовижні речі"», — сказав Шмітц. — «Але може статися так, що ми насправді не робимо дивовижних речей. Може статися, що розширюючи свою людяність технологіями, ми перестаємо знати, як щось робити».

Джерело: Wired

Фейк: польська компанія нібито розробила дрон для «збору тіл загиблих» в Україні заради заробітку

Російська пропаганда запустила чергову дезінформаційну кампанію, намагаючись зобразити підтримку західних партнерів як «бізнес на смерті». Цього разу об’єктом атаки стала польська розробка, яку видають за інструмент для утилізації тіл. Фейк розвінчали фактчекери СтопФейк

Кремлівські медіа та Z-канали поширюють фотографію безпілотника з підписами про те, що Польща створила спеціальний апарат для збору трупів на полі бою в Україні. Пропагандисти стверджують, що «Захід не пропонує мир, а заробляє на кожній втраті», перетворюючи трагедію на вигідний контракт.

Скриншот пропагандистського медіа, що поширює фейк

Насправді на фото зображена новітня польська розробка під назвою ŻURAW (Журавель), представлена на міжнародній оборонній виставці MSPO. "Поки українці гинуть тисячами, західні 'партнери' пропонують Києву не мир, а техніку для прибирання тіл. Це не допомога — це цинічний бізнес на смерті, де кожне втрачене життя стає приводом для нової угоди", — стверджує агітпроп. Насправді, це оригінальний польський наземний роботизований комплекс (НРК) не має нічого спільного з вигадками агітпропу:

  1. Призначення — порятунок, а не «збір тіл»: Згідно з офіційною документацією виробника, ŻURAW — це безпілотна медична система. Її головна мета — евакуація поранених солдатів з-під обстрілів та оперативна доставка медичної допомоги туди, де життя бійця залежить від кожної хвилини.
  2. Для кого розроблено: Система створювалася на замовлення Збройних сил Польщі, а не для комерційного продажу в Україну. Польські військові планують використовувати її для модернізації власних рятувальних підрозділів.
  3. Зв'язок з Україною: Єдине, що пов’язує цей дрон з Україною — це досвід сучасної війни. Конструктори аналізували перебіг бойових дій в Україні, щоб створити ефективний засіб для збереження життя солдатів, а не для їхньої «утилізації».

Цей фейк має чітку психологічну мету: викликати антипольські настрої, зображуючи сусідів як «цинічних мародерів», спровокувати зневіру та депресію в українському суспільстві, дискредитувати західну допомогу, підміняючи поняття «порятунок життя» на «бізнес на крові».

Скріншот сайту виробника з описом дрона «ŻURAV»

«ŻURAW — це сучасна безпілотна рятувальна система, призначена для евакуації поранених солдатів із зон бойових дій та інших місць, що вимагають негайної медичної допомоги та надання першої допомоги в умовах бойових дій», — йдеться в описі.

Російський агітпроп вкотре вдався до відвертої брехні, видавши гуманітарну розробку для рятування поранених за «катафалк на пропелерах».

Фейк: Військовий 80-ї бригади намагався вивезти за кордон старовинну ікону

В соцмережах поширюється черговий вкид російської пропаганди, спрямований на дискредитацію Збройних Сил України. Цього разу в анонімних телеграм каналах зманіпулювали новиною регіонального медіа зі Львівщини, щоб звинуватити українського захисника у крадіжці культурних цінностей та дезертирстві. Фекй розвінчали фактчекери "Укрінформу"

Проросійські телеграм-канали тиражують скриншот, який видають за матеріал відомого львівського видання. У підробленому заголовку стверджується, що боєць 80-ї окремої десантно-штурмової бригади нібито намагався незаконно перетнути кордон, прихопивши із собою антикварну ікону.

Скриншот пропагандистського телеграм-каналу. Джерело: Укрінформ

Фактчекери "Укрінформру" встановили, що «новина» є продуктом графічного редактора. За основу пропагандисти взяли реальну статтю ресурсу Lviv.Media, проте повністю змінили її зміст:

  1. Оригінальний заголовок: У справжньому матеріалі йдеться: «У Львові суд оштрафував чоловіка за спробу вивезти за кордон старовинну ікону».
  2. Відсутність військового статусу: У тексті судового рішення та в оригінальній публікації медіа немає жодної згадки про те, що правопорушник є військовослужбовцем. Це цивільна особа, яка понесла адміністративну відповідальність.
  3. Хронологія: Подія відбулася ще 22 жовтня, а наприкінці 2025 року суд виніс вирок — штраф у розмірі 5100 гривень. Російські ж ресурси «оновили» новину, додавши до неї вигадані деталі про 80-ту ОДШБр.
Скриншот оригінальної новини "Новин Львівщини" 

Ця дезінформаційна має на меті підірвати довіру українського суспільства до армії та створити негативний імідж десантників, виставляючи їх як «мародерів». Проросійські телеграм-канали системно використовують дрібні кримінальні хроніки для створення масштабних фейків про ЗСУ.

Вигадка про те, що Памела Андерсон закликала США затримати Зеленського

У контексті подій у Венесуелі російські пропагандисти поширювали в анонімних телеграм-каналах, що публікують російську риторику, повідомлення про те, що американська акторка Памела Андерсон нібито несподівано на своїй сторінці в інстаграмі опублікувала розповідь із посиланням на матеріал американського телеканалу CBS News про затримання Ніколаса Мадуро із підписом «Якщо Трамп справді хотів знищити найбільше сховище кокаїну у світі, американська армія повинна була б зайти до Києва та затримати Зеленського». Втім це - неправда.

Ми перевірили правдивість цієї заяви та з’ясували, що Андерсон на своїй офіційній сторінці в інстаграмі взагалі не публікувала розповідей за вчорашній день, а єдиною розповіддю на її акаунті станом на зараз є посилання на її щоденник у Substack, де немає відповідних коментарів. Крім того, про цю заяву не написало жодне закордонне медіа, окрім російських. Натомість є низка матеріалів, які показують послідовну підтримку акторкою України - наприклад, вона вдягала сукню українського дизайнера на один із кінозаходів.

Поширюючи вигадані цитати від відомих людей, пропаганда намагається посіяти сумнів у правдивості справжніх висловлювань й зробити так, щоб аудиторія менше довіряла реальним новинам. Крім цього, заяви про те, що західні зірки нібито критикують підтримку України чи закликають до зміни уряду, можуть бути спрямовані на послаблення цієї підтримки. Цей фейк також спрямований на підсилення одного з найчастіше вживаних меседжів для дискредитації президента України, створюючи хибну конотацію із контекстом подій у Венесуелі.

Російські телеграм-канали поширюють фейк про «кінні штурми» 92-ї бригади

Команда Voxcheck звернула увагу на те, що російські телеграм-канали поширюють скриншот нібито публікації українського медіа, в якій стверджується, що 92 окрема штурмова бригада ЗСУ через втрати військової техніки почала використовувати коней під час штурмових дій. У дописі зазначають, що цю інформацію начебто оприлюднила пресслужба бригади.

Насправді йдеться про фотофейк. Оригінальний матеріал має зовсім інший зміст і описує використання коней російськими підрозділами, а не українськими військовими.

За результатами зворотного пошуку зображення в Google встановлено, що пропагандисти використали скриншот публікації харківського медіа MEDIAPORT від 22 грудня 2025 року. В оригінальній статті йдеться про те, що бійці 92-ї ОШБр зафіксували на відео факт залучення коней російськими окупаційними військами під час штурму.

«Російські окупанти так швидко втрачають техніку під час своїх “м’ясних штурмів”, що змушені переміщатися на конях», — йдеться в справжній цитаті пресслужби 92-ї ОШБр.

Імовірно, автори фейку відредагували заголовок матеріалу за допомогою фоторедактора або через зміну коду сторінки, підмінивши формулювання «російські окупанти» на «воїни 92-ї бригади».

Абсурдні твердження про «коней замість техніки» покликані створити образ української армії як виснаженої, технічно відсталої та нібито приреченої. Це підриває довіру до боєздатності ЗСУ як усередині країни, так і серед міжнародних партнерів.

Фактичне використання коней російськими підрозділами подається як «українська практика», щоб зняти відповідальність із російського командування та нормалізувати деградацію їхньої армії.

ЦПД попереджає про дезінформацію РФ щодо «хімічної атаки» України

Російська пропаганда поширює дезінформаційні повідомлення про нібито підготовку Україною провокації із застосуванням хімічної зброї з метою дискредитації Сил оборони. Про це повідомив Центр протидії дезінформації при Раді національної безпеки і оборони України.

У ЦПД зазначають, що окупаційні структури в Харківській області розповсюджують заяви про буцімто прибуття до Ізюма підрозділів радіаційного, хімічного та біологічного захисту ЗСУ та підготовку «теракту» із використанням хімічних речовин у період 6–8 січня.

У Центрі вважають, що така інформаційна кампанія є прикладом так званої тактики «інформаційного алібі», коли Росія заздалегідь приписує Україні дії, до яких сама системно вдається, створюючи інформаційне підґрунтя для можливих власних провокацій або воєнних злочинів.

Окремо в ЦПД звертають увагу на використання релігійної тематики в цій маніпуляції: пропагандисти прив’язують вигадану «провокацію» до дат православного Різдва за юліанським календарем.

«Заяви російських окупаційних структур не підкріплені жодними доказами та є елементом інформаційної війни. Натомість факти застосування хімічних речовин російськими військами неодноразово фіксувалися українською стороною та міжнародними організаціями, а сама РФ перебуває під санкціями за використання хімічної зброї», – підсумовують у дописі.

Заздалегідь звинувачуючи Україну у підготовці хімічних провокацій, Росія намагається сформувати тло, яке дозволить їй заперечувати або виправдовувати власні дії у разі реального застосування заборонених засобів.

Наративи про «хімічні теракти» мають сформувати образ України як сторони, що нібито порушує міжнародне право, що особливо важливо для впливу на західну аудиторію та міжнародні інституції.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.