Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

13 Квітня станом на 1144 день повномасштабної війни наша редакція зафіксувала:

2733
Фейк
817
Маніпуляція
774
Меседж
559
Викриття
Русскій фейк, іді на***!

Пропагандисти розповсюджують вигадку про залякування британців російськими танками

У проросійських Telegram-каналах шириться дезінформація про нібито офіційний лист прем’єр-міністра Великої Британії Кіра Стармера, в якому жителям країни нагадують про «загрозу вторгнення російських танків через Ла-Манш». Цей документ виявився фейком — жодної згадки про нього немає ані на офіційному сайті уряду Великої Британії ані у соціальних мережах самого прем’єра.

Про це повідомляє Центр стратегічних комунікацій та інформаційної безпеки.

Експерти також звертають увагу, що візуальні ознаки листа не відповідають офіційному стилю документів британського уряду: відсутня гербова шапка, немає дати складання, використано сторонній шрифт, а підпис Стармера — підроблений і суттєво відрізняється від справжнього зразка, оприлюдненого у відкритих джерелах.

Ймовірна мета розповсюдження цієї фейкової інформації — залякати британське суспільство уявною загрозою війни, підірвати підтримку України та дискредитувати наміри уряду щодо можливої миротворчої участі на її території.

Фахівці закликають не довіряти сумнівним джерелам і перевіряти інформацію виключно через офіційні платформи.

Росія поширює фейки, щоб приховати полон китайських найманців на Донбасі

Російська пропаганда проводить інформаційну кампанію, щоб приховати факт участі китайських громадян у війні на боці окупантів. Російські ЗМІ, Z-телеграм-канали та ресурси, пов’язані з Віктором Медведчуком, почали поширювати фейки, стверджуючи, що на опублікованому відео з полоненим зображений не китаєць, а «актор» або навіть «американець китайського походження».

Про це повідомляє "Укрінформ".

В якості «доказу» пропагандисти посилаються на назву відеофайлу — «0804_Korean_Soldier 2», натякаючи, що Офіс Президента України нібито припустився помилки, плануючи видати полоненого за корейця.

Пізніше пропагандисти заявили, що факт полону китайських найманців нібито спростували у Верховній Раді України. Проте їхнім «джерелом» виявився народний депутат Олександр Дубінський, який перебуває під вартою за підозрою в державній зраді на користь РФ.

Джерело: "Укрінформ"  

Насправді оригінальне відео, опубліковане Зеленським у Telegram 8 квітня о 15:19, мало назву «0804». Назва «0804_Korean_Soldier 2» з’явилася у дописі телеграм-каналу «Лачен пише», який перепостив відео о 15:21. При цьому, власник каналу, блогер Ігор Лаченков, чітко зазначив, що на відео — китайський найманець, а не кореєць. Таким чином, росіяни використали назву перезалитого файлу для створення маніпуляції.

Дубінський також стверджував, що «у Вашингтоні сміються» з українських заяв, посилаючись на акаунт у соцмережі Х під ніком Lord Bebo. Однак цей акаунт є ботом, який регулярно поширює російську пропаганду, видаючи себе за американського журналіста. Водночас адміністрація президента США Дональда Трампа висловила занепокоєння через участь громадян Китаю та Північної Кореї у війні на боці Росії.

Джерело: "Укрінформ"  

Ще одним «джерелом» російської дезінформації став китайський блогер на платформі Weibo під ніком «Фокус на планету А». Він назвав заяву Зеленського «вкидом» і спробою України «знайти нового ворога» в особі Китаю. Проте аналіз його сторінки показує, що це російський пропагандист, який систематично поширює фейки про Україну. Його контент складається з відео бойових дій та дезінформації, характерної для Z-каналів.

Джерело: "Укрінформ"  

Цікаво, що аватарка цього «блогера» — обрізана обкладинка російського пропагандистського проєкту, присвяченого терористу Анатолію Лебедю, який воював у Чечні та Грузії й загинув у 2012 році. Раніше, під ніком «Земна лінза А», він уже поширював фейки, зокрема про нібито видалення акаунта Зеленського в китайській соцмережі Douyin.

Росія вкотре використовує дезінформацію, щоб приховати факти залучення іноземних найманців до війни проти України, маніпулюючи інформацією та створюючи фейкові «докази».

Фейк: Зеленський придбав компанію з виробництва платини у ПАР

4 квітня в англомовному сегменті мережі Х поширили допис з відеосюжетом від нібито суспільного мовника Південно-Африканської Республіки SABC News. У сюжеті стверджується, що президент України Володимир Зеленський придбав 51% акцій гірничодобувної компанії Northam Platinum, що, зокрема, спеціалізується на виробництві платини. На 10 квітня відповідний пост набрав 4,3 мільйона переглядів. Пізніше інформацію з відео почали тиражувати російські медіа та соціальні мережі. Та наведена інформація є фейком,  SABC News також відповідного відеосюжету не робив. 

«Якщо вам цікаво, як витрачаються ваші податкові долари, Зеленський щойно придбав 51% акцій однієї з найбільших компаній з видобутку платини в Південній Африці – Northam Platinum. Вважається, що ціна становить близько 1,6 мільярда доларів», – коментується в пості фейковий відеосюжет. 

Фактчекери Lead Stories за допомогою ресурсів  DeepFake-o-Meter та Hiya виявили високу ймовірність фальсифікації аудіодоріжки до відео за допомогою ШІ. Ані подібної новини, ані подібного відеосюжету не виявилось і на сайті SABC News. Представники компанії Northam Platinum повідомили в електронних листах Lead Stories та PolitiFact, що інформація про зміни у структурі власності компанії є хибною. 

Скрин фейкового відеосюжету від нібито SABC News
Поширення фейку в російських медіа

Дискредитувати, підважити військово-політичне керівництво України є одним із завдань інформаційної складової агресії Росії. Особливістю цього фейку є його направленість на західні аудиторії. Раніше ми розповідали про фейк, що Зеленський нібито придбав будинок, який належав Гітлеру.

Фейк про спалах невідомої хвороби серед військових ЗСУ на Сумщині

Російські телеграм-канали поширюють фото листівок, які нібито розклеєні в публічних місцях міста Суми. На листівках від  імені Управління охорони здоров'я Сумської міської ради жителів інформують про погіршення епідеміологічної ситуації в місті і запровадження карантинних заходів щодо військовослужбовців, які повертаються з фронту. Це брехня.

На поширення дезінформації звернули увагу фактчекери Укрінформу. У російських анонімних телеграм-каналах стверджують, що фото листівок їм надіслали підписники з Сум. 

«У зв'язку з погіршенням епідеміологічної обстановки у місті, переконливо просимо вас знизити кількість особистих контактів з військовослужбовцями ЗСУ, особливо з тими, що повертаються з лінії бойового зіткнення на кордоні Сумської області» , – написано в листівках. 

За фотографіями листівок неможливо встановити їхню геолокацію і, відповідно, виявити, чи насправді вони десь розклеєні в Сумах. Та інформація на листівках у будь-якому разі фейкова. Ані на сайті Сумської міської ради, ані на  сайті  місцевого Управління охорони здоров'я немає подібних повідомлень. Окрім того, за даними сервісу для перевірки телефонних контактів Getcontact, номерів телефону з листівок взагалі не існує. Неправильно вказаний і телефонний код міста Суми – «0-541» замість «0-542».

Фото листівки з фейковим повідомленням

Вочевидь, фейк створений для сіяння паніки серед жителів Сумщини, підриву ефективної взаємодії та взаємодопомоги між мирними жителями та військовослужбовцями. Дезінформація направлена і на провокування зневіри в решти українців через нібито негаразди в армії.

Фейк: в США нібито значно зросла кількість кримінальних справ проти українських біженців за псування Tesla

Пропагандистські російські медіа на ТОТ і проросійські телеграм-канали поширили відеофейк, нібито «в США порушили понад 12 тисяч кримінальних справ проти українських біженців за псування автомобілів Tesla», з посиланням на міжнародне агентство новин Reuters. Про це повідомляють фахівці проєкту StopFake

Скриншот пропагандистського російського медіа на ТОТ, яке поширило підробне відео

Пропагандисти використали фірмовий стиль Reuters, від імені якого нібито й поширюється відео з такою інформацією, для створення чергового фейку, який дискредитує українців за кордоном.

У фейковому відео логотип Reuters використано у правому верхньому куті відеоролика, натомість у справжніх відео замість нього у спливній комірці зазвичай розміщено інформацію про місце або дату події. Перевірка фактчекерами показала, що ні на офіційному сайті, ні в соціальних мережах Reuters такого відео також немає. Фахівці StopFake також не знайшли коментарів американського адвоката Клея Дженкінса (Clay Jenkins) на сайті Reuters, від імені якого у відео описується ситуація з нібито масовим порушенням кримінальних справ проти українських біженців. 

Скриншот відео з офіційного сайту Reuters, на якому показано приклад розміщення інформації про місце події, замість логотипу агентства

Видання Newsweek зібрало офіційні заяви американських силових структур щодо пошкодження майна компанії Tesla у США. Перелічуючи десятки таких випадків, але аж ніяк не десятки тисяч, журналісти видання не пишуть про конкретну кількість порушених кримінальних справ. З посиланням на Федеральне бюро розслідувань (FBI), яке розслідує атаки на об’єкти та автомобілі Tesla, йдеться лише про кількох підозрюваних без згадки про те, чи це були українські біженці.

Активне поширення таких відеофейків через різні платформи свідчить про прагнення російського агітпропу вплинути на сприйняття українців за кордоном, зобразивши їх як небезпечний чи кримінальний елемент. Раніше ми вже писали про фейк щодо «депортації українських біженців із США»

Брехня про те, що українські біженці в ЄС готують «теракти заради заробітку»

Проросійські телеграм-канали запустили черговий відеофейк, спрямований на дискредитацію українських біженців у Європі. Про фейковий відеосюжет, нібито опублікований відомим німецьким новинним порталом t-online, повідомляє команда VoxCheck. У сфабрикованому відео стверджується, що українські біженці «причетні до підготовки терористичних актів з метою отримання грошей», а німецька поліція нібито вже «затримала сімох таких злочинців».

Скриншот проросійського телеграм-каналу, що поширив відеофейк

Перевірка офіційних ресурсів t-online – сайту і сторінок у соціальних мережах – не виявила жодного відео або статті з подібним змістом. Також про ознаки підробки свідчить нехарактерний для оригінальних відео німецького медіа стиль: у відеофейку використано інший шрифт для субтитрів, а логотип порталу розміщений протягом усього відео, тоді як справжній t-online використовує його лише на заставці. Важливим фактом є і те, що t-online не публікує відео англійською мовою, оскільки орієнтований на німецькомовну аудиторію. А фейковий сюжет поширюється саме англійською.

Скриншоти порівняння підробного (зліва) та оригінального (справа) відео t-online

Дослідники VoxCheck вказують і на відсутність підтверджень від німецької поліції. Жодного повідомлення на офіційних ресурсах федеральної поліції та Міністерства внутрішніх справ Німеччини про «затримання семи українських терористів» немає. Про такі випадки також не повідомляли жодні авторитетні німецькі медіа.

Поширення подібних фейків має чітку мету – створити негативний образ українських біженців в очах європейської спільноти. Пропагандисти намагаються зобразити їх як кримінальних елементів та потенційних терористів, що може призвести до погіршення ставлення до українців, які знайшли прихисток у Європі через російську агресію.

Айсберг брехні, або як Росія будує свою дезінформаційну машину, — звіт EEAS

Російські кампанії з дезінформації не є набором випадкової брехні, а продуктом ретельно розробленої системи. Цю систему найкраще уявити як айсберг: структуру, де найгучніші прокремлівські голоси є лише видимою вершиною, яку підтримує величезна і часто прихована система внизу. Про архітектуру російської пропаганди детально йдеться у 3-му звіті Європейської служби зовнішніх справ (European External Action Service). У цьому матеріалі стисло переказано ключові знахідки документа щодо структури пропаганди.

За кожним урядовцем чи пропагандистом на щедро фінансованих державних телеканалах Росії стоїть безліч менш помітних каналів: вебсайти, блоги, акаунти в соцмережах, інфлюенсери та псевдокоментатори. Вони підсилюють, заперечують, висміюють, перекручують, ставлять під сумнів і заплутують — усе заради головної мети Кремля: домінування в інформаційному просторі.

Російські операції з маніпулювання інформацією та втручання за кордоном (FIMI) спираються на масштабну, добре фінансовану й спеціально створену архітектуру, що складається з видимих і прихованих елементів. До неї залучені як державні, так і недержавні учасники. Ця система гнучка, легко адаптується і здатна застосовувати індивідуальні підходи для формування сприйняття та впливу на поведінку — як у сусідніх із Росією країнах, так і далеко за їхніми межами.

Попередні дослідження російської дезінформації порівнювали її з цифровою гідрою, яка має чіткі складові та здатність еволюціонувати під тиском. Третій звіт EEAS про загрози FIMI пропонує новий погляд на цю архітектуру через аналіз технічних і поведінкових індикаторів. Такий підхід дає змогу глибше зануритися в систему, виходячи за межі видимої верхівки айсберга.

Про індикатори

Деякі російські державні медіа, як-от RT, відкрито демонструють свій зв’язок із Кремлем. Наприклад, головна редакторка RT публічно порівнювала значущість каналу з Міністерством оборони Росії. Водночас RT відомий проєктами, які ретельно приховують своє походження та джерела фінансування.

Коли зв’язки каналу з державою навмисно приховані, технічні та поведінкові індикатори допомагають розкрити правду. Технічні ознаки — це цифрові сліди, шаблони хостингу, власність доменів та інші деталі, що вказують на інфраструктуру FIMI. Поведінкові ознаки — це моделі створення контенту, його поширення та взаємодії (наприклад, автоматичне поширення, мовні шаблони чи використання ШІ). Разом ці індикатори дозволяють класифікувати джерела дезінформації за їхньою близькістю до Кремля та розробляти ефективніші протидії.

Чотири рівні архітектури FIMI

Інфографка 3rd EEAS Report on FIMI threats

Офіційні державні канали

На вершині айсберга — офіційні державні канали, які відкрито пов’язані з Кремлем. Це уряд Росії, його інституції та представники, що відображають офіційну позицію держави. Такі діячі, як міністр закордонних справ чи очільник розвідки, часто стають головними рупорами дезінформації, задаючи тон для всієї системи. Іноді вони підхоплюють анонімні джерела, піднімаючи конспірологічні теорії на найвищий політичний рівень. Ці канали також використовують міжнародні майданчики для просування прокремлівських наративів.

Контрольовані державою медіа

Наступний рівень — медіа, які фінансуються, управляються та редакційно контролюються державою. Їхній зв’язок із Кремлем очевидний. До цієї категорії належать федеральні телеканали Росії, а також RT і Sputnik, багато з яких потрапили під санкції ЄС за підтримку вторгнення в Україну.

Канали, пов’язані з державою

Глибше, на межі видимості, розташовані канали, які діють під наглядом держави, але не афішують цього. Вони працюють у сірій зоні, приховуючи своє походження та розмиваючи межі між урядом, медіа й онлайн-впливом. Їхня мета — формувати наративи, маніпулювати сприйняттям і сіяти плутанину. Прикладом є NewsFront, зареєстрований в окупованому Криму. Він позиціює себе як «документальну журналістику», але створений людьми, близькими до російської влади, і пов’язаний із розвідкою. Цей ресурс роками просуває прокремлівські меседжі та підсилює дезінформацію.

Канали, узгоджені з державою

Найглибший рівень — канали, які не можна прямо пов’язати з державою через брак прямих доказів. Проте технічні та поведінкові ознаки (наприклад, спільна інфраструктура чи систематичне поширення однакових наративів) свідчать про їхню узгодженість із відомими частинами FIMI. Такі джерела, як-от акаунти в соцмережах чи сайти, що імітують інші медіа, відіграють важливу роль у російських операціях впливу, наприклад, у кампаніях False Façade чи Portal Kombat.

Ці канали залишаються формально неатрибутованими до Кремля, але є невід’ємною частиною його дезінформаційної машини, демонструючи, наскільки складною та багатошаровою є ця система.

Інфографіка 3rd EEAS Report on FIMI threats

Росіяни запустили фейк: Франція через допомогу Україні втратила більше, ніж М’янма і Таїланд від землетрусів

У соціальних мережах активно поширюють нібито скриншот статті від 31 березня, опублікованої в The Wall Street Journal. У ній стверджується, що підтримка України коштувала Франції вдвічі більше, ніж землетруси завдали шкоди бюджетам М’янми і Таїланду. На це звернули увагу розвінчувачі брехні StopFake

«За один тиждень Франція, надаючи допомогу Україні, втратила вдвічі більше, ніж М’янма і Таїланд після землетрусів», — нібито зазначено в матеріалі.

Скриншот – facebook.com 

Насправді це підробка, яка маніпулятивно використовує репутацію відомого видання.

По-перше, The Wall Street Journal не публікувала жодної статті з таким заголовком чи змістом, що підтверджується перевіркою архівів Wayback Machine.

За даними проєкту Osavul, фейковий скриншот уперше з’явився 1 квітня в телеграм-каналі «Медведь», який відомий як пропагандистський ресурс.

У фальшивці вказано, що автором є Джеймс Глінн — реальний журналіст WSJ. Проте він спеціалізується на темі енергетичних ринків Австралії і не пише про Францію, Україну чи міжнародну допомогу. Його справжні статті доступні на офіційному сайті видання.

Фейки, які перебільшують втрати Франції чи інших країн, можуть викликати внутрішні дебати в цих суспільствах, підживлюючи скептицизм щодо доцільності допомоги Україні. Представляючи допомогу Україні як економічно невигідну чи навіть катастрофічну для країн-партнерів, Росія намагається зменшити їхню готовність надавати фінансову чи військову підтримку.

Фейк, що Європа протримається у війні проти Росії два місяці

Російські пропагандисти поширюють фейкове відео, яке нібито створив AIxCC — відділ Агентства передових оборонних дослідницьких проєктів Міністерства оборони США (DARPA). У ролику стверджується, що аналітики змоделювали перебіг війни між Росією та Європою і начебто дійшли висновку, що Європа зазнає краху вже за два місяці. Цей фейк викрили у VoxCheck.

Насправді жодних подібних відео DARPA не публікувало. «На сайті DARPA чи у соцмережах агентства немає ні цього відео, ні інших публікацій, у яких пророкували б швидку поразку Європи в разі конфлікту з рф», — зазначають фактчекери.

У VoxCheck пишуть, що підрозділ AIxCC взагалі не займається політичними прогнозами: «Його напрям діяльності — це дослідження штучного інтелекту та зміцнення кібербезпеки США».

Крім того, у фейковому відео пропагандисти використали вигаданий коментар експерта DARPA Віла Корві. Заявили, що він нібито прогнозує більш агресивні дії Росії в Європі, ніж в Україні. Але жодних доказів існування такого прогнозу немає. «Віл Корві займається вивченням штучного інтелекту та комп’ютерної лінгвістики і не пов’язаний із моделюванням військових конфліктів», — пояснюють у VoxCheck.

Подібними фейками Росія намагається демонструвати власну «непереможність» та дискредитувати західних партнерів України.

Як ШІ-чатбот Grok впливає на президентську виборчу кампанію в Польщі

На платформі X (Twitter) штучний інтелект Grok втручається в політичні суперечки та поширює дезінформацію, попереджають польські фактчекери з проєкту Demagog.

Після того, як наприкінці 2022 року Ілон Маск придбав Twitter, він радикально змінив політику модерації контенту, скоротив частину персоналу й перейменував платформу на X. А вже наприкінці 2023 року Маск представив користувачам новий чатбот на основі штучного інтелекту — Grok. За словами розробників, його головна особливість — здатність отримувати інформацію в режимі реального часу завдяки доступу до постів на платформі X.

«Унікальною та фундаментальною перевагою Grok є те, що він має знання про світ у реальному часі через платформу X», — підкреслили автори інструменту.

Grok розроблений для того, щоб допомагати користувачам відповідями на запитання чи виконанням завдань. Чатбот може спілкуватися з людиною в особистому чаті або відкрито — під постами інших користувачів. Водночас його творці визнають, що відповіді Grok можуть бути неточними або навіть неправдивими. Вони закликають самостійно перевіряти отриману від нього інформацію.

Попри ці застереження, користувачі активно використовують Grok у політичних суперечках, а часом навіть вважають його відповіді вирішальним аргументом. Проте фактчекери наголошують: Grok часто помиляється або видає власні суб’єктивні судження.

Один із показових випадків стався нещодавно в Польщі. Користувач запитав Grok про відео з людьми, які святкують Рамадан на вулицях Гданська. Чатбот категорично заявив, що це відео зняте у Франції у 2017 році. Навіть коли йому вказали на помилку, Grok наполягав на своєму та звинувачував інших у дезінформації.

Ще більш резонансною була ситуація у США перед виборами. Grok неправдиво повідомив користувачам, що строк для голосування вже минув. Помилку виправили лише через 10 днів, після чого американські чиновники закликали компанію X підключати Grok до офіційних урядових джерел.

У Польщі Grok уже став учасником політичної кампанії. Зокрема, віцеміністр цифровізації, депутат від партії «Польща 2050» Міхал Граматика запитав у Grok, чому кандидат від «Конфедерації» Славомір Менцен уникає дебатів із Шимоном Головнею. У відповідь користувачі продовжили ставити Grok політичні запитання — наприклад, хто з кандидатів кращий на посаду президента Польщі. Одного разу Grok навіть відповів, що, на його погляд, «Тшасковський здається кращим вибором на президента Польщі», ніж Менцен.

Фахівці попереджають, що такі можливості ШІ можуть кардинально змінити хід публічної дискусії. Як зазначила в коментарі для Demagog докторка соціології Агнєшка Зєнтек з Університету Марії Кюрі-Склодовської в Любліні: «Генеративний ШІ змінює правила гри. Він може посилити демократію, але лише тоді, коли буде вбудований у цінності прозорості, плюралізму та відповідальності. Якщо ж не подбати про етику, освіту й належне регулювання — нас чекає епоха автоматизованої масової пропаганди».

Водночас професор інформатики Варшавського університету Пйотр Санковський зауважив, що ШІ може бути справжнім інструментом перевірки фактів — за умови, що його моделі будуть тренуватися на правдивих даних. Проте він попереджає про можливі ризики: «Організації, які конструюють ці моделі, можуть навмисно маніпулювати інформацією, на якій їх тренують, аби вона не відповідала дійсності».

Центр досліджень «Детектора медіа» проаналізував, як п'ять найпопулярніших чатботів, включно із Grok, відповідають на упереджені запити чи запити без відповіді. Що з того вийшло, читайте за посиланням.

Автор: Олексій Півторак,
Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.