«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.
26 Листопада станом на 1371 день повномасштабної війни наша редакція зафіксувала:
2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Фейкове ШІ-відео з «українським солдатом» створене на основі обличчя російського блогера
На початку листопада в грузинській частині фейсбуку поширювалося відео з молодим чоловіком в армійській уніформі. Він ридає, стверджуючи, що його силоміць відправляють на фронт, він не бажає гинути, та закликає глядачів розповсюдити ролик. У супровідному описі зазначено: «Клоуни змушують молодь воювати». Багато коментаторів сприйняли героя відео як українського військового. Розвінчали цей фейк грузинські фактчекери mythdetector.
Насправді це ролик, згенерований штучним інтелектом, з маніпулятивним закликом до військової допомоги. Він містить характерні для ШІ помилки, а його першоджерело — акаунт у тіктоку, який раніше завантажував подібний фейковий контент.
У відео помітні технічні вади, властиві контенту від штучного інтелекту. Обличчя мовця та його сльози виглядають штучно: зображення надто гладке, сльози на підборідді й носі неприродно сяють. Якщо придивитися до окулярів, то в деяких місцях вони наче зливаються з обличчям.
Крім того, на уніформі є шеврон, де мав би бути напис з прізвищем бійця, але замість цього видно розмиті, нечитабельні символи — типова проблема для ШІ-генерації.
Нечитабельні написи — типова ознака ШІ-згенерованих зображень та відео
За підписом, відео походить з тікток-акаунту fantomoko, який нині заблоковано. Фактчекери Myth Detector проаналізували схожі ролики, які цей користувач поширював раніше. Наприклад, в одному з ШІ-відео, що циркулювало в російськомовних і грузинськомовних спільнотах, «український солдат» заявляв, що йому 23 роки та його примусово мобілізували.
Станом на 4 листопада в акаунті fantomoko було кілька аналогічних матеріалів. Деякі показували «українських вояків», інші — фігури з російським прапором на формі. Зміст варіювався: від слізних скарг про примус до війни до сцени, де людина тримає український прапор біля Кремля.
Скриншот акаунту в тіктоці, що поширює антиукраїнські ШІ-генеровані відео. Джерело: mythdetector
Ці ролики також дослідила італійська фактчекінгова платформа Open, яка встановила особу, чиє обличчя використовували для ШІ-генерації. Виявилося, що один із «героїв», чиє обличчя стає шаблоном чи не найчастіше, — це російський відеоблогер під ніком kussia88, відомий на ютубі як KASHA STREAM. Порівняння облич підтверджує, що у фейковому відео застосовано саме його риси.
Фото російського блогера, чиє обличчя взято за основу ШІ-знегерованих фейків. Джерело: mythdetector
Російські пропагандисти та пов'язані з ними мережі поширюють такі ШІ-згенеровані фейки з метою маніпуляції громадською думкою, особливо в країнах з потенційним скептицизмом до підтримки України.
Фейк про «ожирілого українського офіцера»: ШІ-контент використовується для дискредитації допомоги Україні
У соціальних мережах, зокрема в польському сегменті фейсбуку, активно поширюють нібито фотографії чоловіка з надмірною вагою в українській військовій формі. Автори публікацій стверджують, що це офіцер, який керує мобілізацією в українській армії, і його зовнішній вигляд нібито доводить, що міжнародна допомога «не потрапляє до тих, хто її дійсно потребує». Такі публікації набирали сотні коментарів та репостів. Насправді такої особи не існує, а зображення створене штучним інтелектом з метою розпалювання антиукраїнських настроїв. Розвінчали фейк польські фактчекери з Demagog.
Скриншот акаунту на фейсбуці, що поширював ШІ-фейк. Джерело: Demagog
Знімок походить з відео, яке спочатку з'явилося в тіктоку. При детальному перегляді ролика помітні ознаки ШІ-генерації: наприклад, крісло зливається з фоном, тіні на одязі «танцюють» неприродно, а положення рук персонажа виглядає штучно. На відео нібито офіцер «житомирського ТЦК» каже: «Наш колектив виступає проти перемир'я». Звук при цьому розсинхронізований з рухами губ на відеоряді.
Щоб підтвердити це, фактчекери Demagog проаналізували кадр за допомогою спеціалізованих інструментів Hive AI та Sightengine — обидва показали ймовірність понад 90%, що контент створений штучним інтелектом.
Результати аналізу відео за допомогою інструменту Sightengine
Акаунт у тіктоку, де опубліковано це відео, наповнений подібними матеріалами проросійського та антиукраїнського спрямування. В описі профілю є посилання на закритий телеграм-канал «МАТРЁШКА». Під час спроби приєднатися до нього ставлять провокаційні питання, наприклад, «Чий Крим?», що вказує на пропагандистський характер.
Публікації з цим зображенням набрали значну популярність: одна з них отримала понад 1000 реакцій і більше 200 поширень. У коментарях багато користувачів сприймають фото за реальне. Один з коментаторів написав: «Ця людина хвора, і тільки такі служать в українській армії, бо здорові та сильні – у Польщі». Інший додав: «Ця війна дивна – вони об'їдаються, відпочивають на курортах, їздять на розкішних авто, носять гроші в пакетах для покупок, отримують посади без прав, хочуть бути в нашому уряді».
Такі фейки спрямовані на підрив довіри до України та поширення антиукраїнських наративів у польському суспільстві.
Клікбейт: нібито помер експрем'єр-міністр України Володимир Гройсман
У соціальних мережах та на деяких новинних ресурсах активно поширюється неправдива інформація про нібито смерть колишнього прем'єр-міністра України Володимира Гройсмана. Ця публікація супроводжується гучним, емоційним заголовком і часто чорно-білим фото політика, що створює враження трагічної новини. Фейковий клікбейт розвінчали експерти voxcheck.
Скриншот акаунту у фейсбуці, що поширив фейк. Джерело: voxcheck
Утім це фейк. Насправді помер батько Володимира Гройсмана — Борис Ісаакович Гройсман. Він був депутатом Вінницької міської ради і пішов із життя 6 січня 2025 року у віці 78 років. Про це написав сам Володимир Гройсман на своїй офіційній сторінці в інстаграмі, що стало приводом для створення маніпулятивного контенту. Хоч Борис Гройсман помер ще в січні 2025 року, але фейкороби вирішили актуалізувати й використати цей привід для створення клікбейту саме зараз.
Механізм клікбейту
Повідомлення про «смерть експрем'єра» — це класичний приклад клікбейту, спрямованого на штучне збільшення трафіку та охоплення.
Автори таких постів (зокрема, з посиланням на сайт Timezones) навмисно використовують шок-заголовок («Помер експрем’єр-міністр України Володимир Гройсман»), щоб читачі, побачивши ім'я відомого політика, одразу ж перейшли за посиланням дізнатися подробиці.
Тільки при уважному прочитанні самої новини стає зрозуміло, що йдеться про смерть батька, а не самого експрем'єра.
Поширення такого контенту є свідомою маніпуляцією увагою читачів для підвищення показників відвідуваності ресурсу. Перевіряйте джерела інформації та уважно читайте повний текст новини, щоб не стати жертвою клікбейту.
Фейк: Законопроєкт передбачає залучення 10 мільйонів іммігрантів в Україну до 2030 року
Низка новинних ресурсів та акаунтів у соціальних мережах поширюють неправдиву інформацію про те, що Україна нібито має план залучити до 2030 року 10 мільйонів іммігрантів, зокрема «арабів та азіатів», з метою «масово замінити українців». Цей дезінформаційний наратив, що посилається на внесений на розгляд до Верховної Ради законопроєкт «Про внесення змін до деяких законів України щодо працевлаштування іноземців та осіб без громадянства», розвінчали фактчекери stopfake.
Скриншот пропагандистського ресурсу, що поширює фейк. Джерело: stopfake
Насправді повідомлення про залучення мільйонів мігрантів для «заміни» українців є черговим викривленим пропагандистським наративом.
Законопроєкт №14211, який наразі перебуває на розгляді в комітетах ВРУ, не містить жодних планів чи квот щодо залучення 10 мільйонів мігрантів і не має на меті заміну населення.
Його головна мета — спрощення легальних процедур для іноземних громадян та осіб без громадянства, які вже висловили бажання працювати в Україні. Зокрема, йдеться про спрощення процедур видачі дозволів на тимчасове проживання та дозволів на роботу. Ці зміни спрямовані на приведення українського міграційного законодавства у відповідність до стандартів Європейського Союзу, що є важливим кроком на шляху євроінтеграції.
Цифра у 10 мільйонів, озвучувана пропагандистами, не є частиною законопроєкту і не є державним планом.
Це число було раніше озвучене окремими експертами та політиками, включаючи колишнього міністра економіки України Тимофія Милованова, лише як особиста орієнтовна оцінка. Ця оцінка відображає потенційну майбутню потребу України у трудових мігрантах після війни для стабілізації економіки та компенсації різкого скорочення працездатного населення і демографічних втрат, спричинених війною та високим рівнем еміграції українців.
Таким чином, цифра «10 мільйонів мігрантів» — це окремі оцінки, що підкреслюють поточні демографічні виклики, а не затверджений урядовий план чи законодавче зобов’язання. Законопроєкт лише легалізує та спрощує теперішні процедури для охочих працювати, не встановлюючи жодних квот.
Foreign Affairs: штучний інтелект підсилює дезінформаційну війну, а США не готові до оборони
В статті Foreign Affairs від 19 листопада 2025 року повідомляється, що іноземні уряди використовують штучний інтелект для масового створення пропаганди, а американські інституції не готові ефективно реагувати на таку загрозу.
Штучний інтелект перетворюється на потужний інструмент інформаційної війни. За даними авторів Foreign Affairs, іноземні уряди, передусім Китай та Росія, вже використовують генеративні моделі, щоб створювати персоналізовані кампанії дезінформації. Водночас Сполучені Штати демонструють слабку системну відповість — слабшають агентства, відповідальні за протидію іноземному впливу, а механізми контролю й регулювання ШІ-моделей ще не налагоджені.
Однією з найяскравіших ілюстрацій цієї загрози автори наводять приклад діпфейку на платформі Signal, де повідомлення, начебто надіслане держсекретарем США, супроводжувалося аудіозаписом, абсолютно правдоподібним на слух — проте штучно згенерованим. Така технологія може підривати дипломатичні відносини, дестабілізувати політичні меседжі та створювати ризики витоку секретної інформації. “Якби брехню не викрили, цей трюк міг би посіяти розбрат, скомпрометувати американську дипломатію або отримати конфіденційну розвідувальну інформацію від іноземних партнерів Вашингтона.” — зазначають автори статті Джеймс П. Рубін і Дар'ян Вуїца.
Ще одна небезпечна тенденція — використання ШІ для створення персоналізованих впливових кампаній. За даними авторів, китайська компанія GoLaxy використала інструменти ШІ для побудови «цифрових профілів» сотень американських законодавців і громадських діячів. Потім, маючи ці дані, вона могла генерувати адаптований контент, який максимально відповідав психологічним уподобанням і політичним нахилам кожного адресата — і робити це в масштабі мільйонів повідомлень.
Рубін і Вуїца звертають увагу, що хоча дезінформація — не новина, саме ШІ зробив її масштабнішою й ефективнішою. Вони стверджують, що держави-агресори тепер не змушені вкладати сотні мільйонів доларів у пропаганду: generative AI (генеративний ШІ) дозволяє запускати впливові кампанії зі значно меншими ресурсами.
Найсуперечніше — це відповідь Сполучених Штатів. Як зазначають автори, замість посилення інституцій, здатних боротися з іноземним впливом, уряд США послаблює оборонні механізми. Зокрема, вони критикують рішення адміністрації, яка згорнула або зменшила повноваження органів, відповідальних за боротьбу з дезінформацією. Справжня стратегія протидії, на їх думку, має включати як технологічні, так і інституційні рішення. Потрібні нові структури, які б відстежували вплив ШІ-генерованих меседжів, й аудит моделей штучного інтелекту, що використовуються для створення інформаційного контенту. Вони також закликають до відновлення інституцій, покликаних протистояти дезінформації.
У глобальному контексті ця тенденція — не виключно американська проблема. Дезінформаційні кампанії з використанням ШІ вже стають частиною протистояння між державами, а слабка відповідь однієї великої демократії може стати сигналом для інших, як це описують автори.
Публікацію підготувала Віталіна Фурман
Як «Pravda» просуває російську пропаганду в Іспанії
Російська дезінформаційна мережа «Pravda» дедалі активніше розширює свою присутність у глобальному інформаційному полі, зокрема через іспаномовний сегмент – і це становить новий виклик не лише для Європи, але й для технологічних систем, які багато хто вважає до певної міри нейтральними. Саме це підкреслює останнє дослідження проєкту ATHENA, яке фокусується на тому, як прокремлівські наративи поширюються в Іспанії та впливають на штучний інтелект (ШІ).
Російські пропагандистські медіа, на які найбільше посилаються вебсайти з дезінформаційної мережі «Pravda». Джерело: ATHENA
Мережа «Pravda», вперше виявлена в квітні 2022 року, стала, за словами дослідників проєкту ATHENA, не лише пропагандистським інструментом, а й справжньою дезінформаційною машиною. Як йшлося у нашому матеріалі від 12 березня 2025 року, мережа охоплювала понад 150 доменів у близько 49 країнах. За даними NewsGuard, більшість сайтів мережі не створює ексклюзивного контенту — замість цього вони агрегують, передруковують або перекладають прокремлівські меседжі з державних російських медіа, Telegram-каналів чи офіційних джерел.
У звіті ATHENA дослідники зазначають, що іспанська «Pravda» інтегрує в іспаномовний простір ті самі меседжі, які Росія системно повторює на глобальному рівні: нібито «фашизацію України», «занепад ЄС», та виправдання війни. Усі ці тексти створені за спільним структурним принципом — вони видають російські пропагандистські матеріали за «думки експертів» або «альтернативну точку зору», а сам сайт — за місцеве видання, що нібито «бореться з цензурою». Таке маскування й націленість на іспанську аудиторію роблять мережу небезпечним інструментом впливу.
Проєкт ATHENA виявив, що крім загальноіспанської секції, з’явилися версії каталонською, баскською та галісійською мовами. Усі вони системно тиражують адаптований під місцеву аудиторію контент, значною мірою сформований на основі російських держзасобів, а також анонімних телеграм-каналів. Ця синхронна поява кількох мовних гілок не була випадковою: перші статті каталонської, баскської й галісійської секцій були опубліковані одночасно, і ці тексти були практично ідентичними перекладами, що свідчить про централізовану фабрику контенту, яка автоматизує й масштабує дезінформацію для різних аудиторій. Система працює як багаторівневий ланцюг: у її основі — тисячі телеграм-каналів, які формують первинну добірку матеріалів, далі йдуть агрегатори та локалізовані сайти «Pravda», що миттєво перетворюють ці сигнали на публікації. Моніторинг Maldita.es, на який посилається ATHENA, показує, що велику частину матеріалів мережі складають репліки повідомлень із телеграму.
Зв'язки між телеграм-каналами що поширюють наративи пропаганди та вебсайтами мережі «Pravda». Джерело: ATHENA
Ця дезінформаційна операція має кілька стратегічних цілей. По-перше, йдеться про розширення впливу на саму Іспанію та на весь іспаномовний простір, адже матеріали, які з’являються в Іспанії, легко поширюються до Латинської Америки. По-друге, медіа прагне нарощувати «пропагандистський слід» у мережі. NewsGuard виявив, що третина відповідей провідних чатботів повторювала наративи, що просуваються мережею «Pravda», а в багатьох випадках моделі прямо посилалися на матеріали цієї мережі, що створює ризик легітимації фейкових джерел у відповідях ШІ.
Практичні наслідки цього підходу видно й у часових пиках активності мережі: «Pravda» синхронно збільшувала обсяг публікацій у моменти криз, коли суспільна увага була максимально висока — наприклад, під час масштабного відключення електроенергії, яке торкнулося Іспанії та Португалії 28 квітня 2025 року. Саме в ці дні група публікувала сотні повідомлень, часто з натяками на кібератаки або з цілком неправдивими твердженнями про масштаби перебою, що посилювало паніку або сумніви щодо спроможності державних інституцій реагувати на кризу.
ATHENA та Maldita.es простежили, як повідомлення з телеграм з’являлися на сайтах мережі протягом перших хвилин, що робить ці платформи ефективним інструментом для швидкого розповсюдження наративів у періоди невизначеності. Значна частина джерел, на які спирається «Pravda», — це ресурси, пов’язані з російською держпропагандою: RT, Sputnik, RIA Novosti та інші. Близько 40% іспанських публікацій мережі прямо цитували такі джерела; решта здебільшого походила від телеграм-ланцюжків, які самі по собі часто републікують або переробляють матеріали з цих платформ.
Ще одним інструментом легітимації є фінансова підтримка: деякі з найактивніших у дезінформаційній мережі телеграм-каналів прямо закликають до донатів через PayPal, Patreon, криптовалюти та платформи, а також використовують сервіси, пов’язані з російськими платіжними системами.
Скриншоти із різних телеграм-каналів дезінформаційної мережі, які закликать фінансово підтримати їх діяльність. Джерело: ATHENA
Для України та для європейських медіа така діяльність може підривати довіру до інституцій і сіяти сумніви в ефективності заходів чи рішень, або може бути технологічною атакою на способи отримання інформації сучасними інструментами.
Публікацію підготувала Віталіна Фурман
Розвінчання фейку: Польща не звинувачувала Україну в підриві залізничних колій
Російські пропагандисти активно поширюють неправдиве твердження про те, що нібито Польща звинуватила Україну у скоєнні диверсії на залізничній лінії Варшава-Люблін.
Цей дезінформаційний наратив спрямований на дискредитацію України та загострення напруги у стратегічно важливому партнерстві між Польщею та Україною. Маніпуляцію розвінчали фактчекери stopfake.
Скриншот російських пропагандистських медіа, що поширили фейк. Джерело: stopfake
Насправді керівництво Польщі чітко заявило, що за цією атакою стоїть Росія, а не Україна.
Прем'єр-міністр Дональд Туск і міністр закордонних справ Радослав Сікорський однозначно назвали підрив залізниці «актом державного тероризму, замовленим Росією».
Польські правоохоронні органи прямо вказали, що підозрювані, хоч і були громадянами України, виступали лише виконавцями, завербованими російськими спецслужбами. Факт їхньої втечі до Білорусі слугує вагомим доказом причетності та керівництва з боку Росії.
Інцидент із підривом колій стався в районі Міки на лінії Варшава–Люблін. Ця лінія є критично важливою для постачання військової, гуманітарної допомоги та палива в Україну, що робить її ідеальною мішенню для російської диверсії.
Президент України Володимир Зеленський повністю погодився з оцінкою польської сторони й підкреслив, що «всі факти вказують на російський слід». Та ініціював створення спільної польсько-української робочої групи для ефективної протидії російським диверсійним операціям.
Використання громадян третіх країн, зокрема України, для виконання диверсійних актів у Європі є стандартною практикою гібридної війни, яку веде Кремль.
Дезінформація про звинувачення України Польщею є відвертою брехнею, покликаною посіяти розбрат між союзниками. Обидві країни чітко ідентифікували Росію як єдиного організатора та бенефіціара цього терористичного акту.
Фейк: Португалія нібито планує депортувати 60 000 українців
Російські пропагандистські телеграм-канали стверджують, ніби через оновлення законів Португалія вижене 60 тисяч українських біженців. До того ж нібито додому мусять повернутися 5 тисяч білорусів, що мають політичний притулок. «Виглядає, що європейська привітність випарувалася саме в момент, коли за неї потрібно було розплачуватися», — з іронією коментують такі дописи. Фейк спростовують фактчекери stopfake.
Скриншот пропагандистського телеграм-каналу, що поширює фейк. Джерело: stopfake
Але ця новина — фейк. Насправді Агентство з питань інтеграції, міграції та притулку (AIMA) в Португалії запустило перевірку дозволів на проживання (здебільшого для іноземних студентів), щоб відповідати нормам Єврокомісії. Цей процес не веде до автоматичного виселення: навпаки, він дозволить студентам перейти на альтернативні легальні статуси й залишитися для продовження навчання навіть після завершення тимчасового захисту.
60 тисяч — це загальна чисельність українських біженців, які зараз перебувають у Португалії. Країна не збирається влаштовувати масові вислання, а лише планує впорядкувати юридичний статус мігрантів після закінчення періоду тимчасового захисту. На даний момент цей захист для українців у Португалії, як і в інших країнах ЄС, продовжено до березня 2027 року.
Португальський уряд справді вніс правки до законів, подовживши тимчасовий захист для українців аж до 4 березня 2027 року. Цей статус забезпечує права на проживання, працевлаштування, медичне обслуговування та освіту, як і було закладено в оригінальному законодавстві. Однак нові заявки на такий захист від українців більше не розглядаються: для в'їзду потрібно заздалегідь оформити візу в консульстві Португалії, як і для громадян інших держав, що планують переїзд.
З самого початку повномасштабної агресії Росія постійно фабрикує брехню про статус українських біженців за кордоном. Але всі ці похмурі передбачення про «тотальні депортації» чи «раптове скасування допомоги» так і не стали реальністю.
Фейкова обкладинка Charlie Hebdo про поїздку Анджеліни Джолі в Україну
Кремлівські медіа, телеграм-канали та боти в соціальній мережі X активно поширюють фальшиву обкладинку французького сатиричного журналу Charlie Hebdo. На ній зображена карикатура на президента України Володимира Зеленського та голлівудську зірку Анджеліну Джолі, яка нещодавно побувала в Україні. Підпис під малюнком: «Розкрадачка гробниць прибула до розкрадача європейської скарбниці». Фальшивку розвінчали фактчекери Укрінформу.
Скриншот пропагандистського медіа, що поширило фальшивку. Джерело: Укрінформ
Утім це фейк. Подібної обкладинки не знайти ні на офіційному вебсайті Charlie Hebdo, ні в акаунтах видання в соціальних мережах, де зазвичай анонсують нові випуски.
На підробці вказано дату 13 листопада та номер 1741, але в той день журнал не виходив. Останні два номери побачили світ 5 та 12 листопада під номерами 1737 і 1738. Обкладинки цих випусків містили зовсім інші карикатури, не пов'язані з Україною.
Скриншот офіційного сайту Charlie Hebdo з останніми номерами журналу
Російські пропагандисти регулярно фабрикують обкладинки популярних зарубіжних сатиричних видань. Серед їхніх «творінь» — фальшивки від німецького Titanic, Newsweek, французьких L'Hémicycle та Charlie Hebdo, та інших видань.
Мета цього фейку — очорнити українського президента перед західною публікою та відвернути увагу від гуманітарної мети візиту акторки. Анджеліна Джолі приїхала, щоб привернути глобальну увагу до звірств російських сил у Херсоні та Миколаєві, де дрони використовують для полювання на людей.
Фейк про «паспорт РФ» Зеленського та його нерухомість в Москві
Пропагандисти підробили нібито розслідування від хакерської групи Anonymous, прикриваючись іменем українського медіа. Фейк розвінчали фактчекери Укрінформу.
Скриншот анонімного телеграм-каналу, що поширив фейк
У російських медіа та пропагандистських телеграм-каналах активно поширюється ролик з логотипом англомовної версії сайту та ютуб-каналу українського видання NV. У відео стверджується, нібито хакери з Anonymous зламали базу даних «Росреєстру» та виявили дані про російський паспорт президента України Володимира Зеленського, який нібито видали йому в 2015 році в окупованому Криму. Крім того, на основі цих паспортних даних хакери буцімто знайшли елітні апартаменти Зеленського в комплексі «Москва-Сіті» вартістю майже два мільйони доларів.
Зображення копії паспорта — підробка. Фотографію, яку російські пропагандисти вставили в документ за допомогою фоторедактора, взято з відеозвернення президента Зеленського за 23 лютого 2022 року, записаного за лічені години до початку повномасштабного вторгнення Росії в Україну, і воно стосувалося визнання Росією так званих «Л/ДНР».
Фейковим є й твердження про власність Зеленського на нерухомість у Москві, оскільки воно базується виключно на цій підробленій паспортній копії.
Варто зауважити, що це не перший випадок, коли кремлівські пропагандисти розпускають чутки про фальшивий російський паспорт Зеленського. У 2022 році вони вже публікували схожий «документ», нібито виданий у Московській області ще в 2001 році.
Цей фейк спрямований на дискредитацію президента України Володимира Зеленського.
Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.