Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

26 Листопада станом на 1371 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейкове ШІ-відео з «українським солдатом» створене на основі обличчя російського блогера

На початку листопада в грузинській частині фейсбуку поширювалося відео з молодим чоловіком в армійській уніформі. Він ридає, стверджуючи, що його силоміць відправляють на фронт, він не бажає гинути, та закликає глядачів розповсюдити ролик. У супровідному описі зазначено: «Клоуни змушують молодь воювати». Багато коментаторів сприйняли героя відео як українського військового. Розвінчали цей фейк грузинські фактчекери mythdetector.

Скриншот ШІ-згенерованого відео. Джерело: mythdetector  

Насправді це ролик, згенерований штучним інтелектом, з маніпулятивним закликом до військової допомоги. Він містить характерні для ШІ помилки, а його першоджерело — акаунт у тіктоку, який раніше завантажував подібний фейковий контент.

У відео помітні технічні вади, властиві контенту від штучного інтелекту. Обличчя мовця та його сльози виглядають штучно: зображення надто гладке, сльози на підборідді й носі неприродно сяють. Якщо придивитися до окулярів, то в деяких місцях вони наче зливаються з обличчям.

Крім того, на уніформі є шеврон, де мав би бути напис з прізвищем бійця, але замість цього видно розмиті, нечитабельні символи — типова проблема для ШІ-генерації.

Нечитабельні написи — типова ознака ШІ-згенерованих зображень та відео

За підписом, відео походить з тікток-акаунту fantomoko, який нині заблоковано. Фактчекери Myth Detector проаналізували схожі ролики, які цей користувач поширював раніше. Наприклад, в одному з ШІ-відео, що циркулювало в російськомовних і грузинськомовних спільнотах, «український солдат» заявляв, що йому 23 роки та його примусово мобілізували. 

Станом на 4 листопада в акаунті fantomoko було кілька аналогічних матеріалів. Деякі показували «українських вояків», інші — фігури з російським прапором на формі. Зміст варіювався: від слізних скарг про примус до війни до сцени, де людина тримає український прапор біля Кремля.

Скриншот акаунту в тіктоці, що поширює антиукраїнські ШІ-генеровані відео. Джерело: mythdetector

Ці ролики також дослідила італійська фактчекінгова платформа Open, яка встановила особу, чиє обличчя використовували для ШІ-генерації. Виявилося, що один із «героїв», чиє обличчя стає шаблоном чи не найчастіше, — це російський відеоблогер під ніком kussia88, відомий на ютубі як KASHA STREAM. Порівняння облич підтверджує, що у фейковому відео застосовано саме його риси.

Фото російського блогера, чиє обличчя взято за основу ШІ-знегерованих фейків. Джерело: mythdetector

Російські пропагандисти та пов'язані з ними мережі поширюють такі ШІ-згенеровані фейки з метою маніпуляції громадською думкою, особливо в країнах з потенційним скептицизмом до підтримки України. 

Фейк про «ожирілого українського офіцера»: ШІ-контент використовується для дискредитації допомоги Україні

У соціальних мережах, зокрема в польському сегменті фейсбуку, активно поширюють нібито фотографії чоловіка з надмірною вагою в українській військовій формі. Автори публікацій стверджують, що це офіцер, який керує мобілізацією в українській армії, і його зовнішній вигляд нібито доводить, що міжнародна допомога «не потрапляє до тих, хто її дійсно потребує». Такі публікації набирали сотні коментарів та репостів. Насправді такої особи не існує, а зображення створене штучним інтелектом з метою розпалювання антиукраїнських настроїв. Розвінчали фейк польські фактчекери з Demagog

Скриншот акаунту на фейсбуці, що поширював ШІ-фейк. Джерело: Demagog

Знімок походить з відео, яке спочатку з'явилося в тіктоку. При детальному перегляді ролика помітні ознаки ШІ-генерації: наприклад, крісло зливається з фоном, тіні на одязі «танцюють» неприродно, а положення рук персонажа виглядає штучно. На відео нібито офіцер «житомирського ТЦК» каже: «Наш колектив виступає проти перемир'я». Звук при цьому розсинхронізований з рухами губ на відеоряді. 

Скриншот акаунту в тіктоці, що поширює пропагандистські ШІ-генеровані відео. Джерело: Demagog

Щоб підтвердити це, фактчекери Demagog проаналізували кадр за допомогою спеціалізованих інструментів Hive AI та Sightengine — обидва показали ймовірність понад 90%, що контент створений штучним інтелектом.

Результати аналізу відео за допомогою інструменту Sightengine

Акаунт у тіктоку, де опубліковано це відео, наповнений подібними матеріалами проросійського та антиукраїнського спрямування. В описі профілю є посилання на закритий телеграм-канал «МАТРЁШКА». Під час спроби приєднатися до нього ставлять провокаційні питання, наприклад, «Чий Крим?», що вказує на пропагандистський характер.

Скриншот пропагандистського телеграм-каналу. Джерело: Demagog

Публікації з цим зображенням набрали значну популярність: одна з них отримала понад 1000 реакцій і більше 200 поширень. У коментарях багато користувачів сприймають фото за реальне. Один з коментаторів написав: «Ця людина хвора, і тільки такі служать в українській армії, бо здорові та сильні – у Польщі». Інший додав: «Ця війна дивна – вони об'їдаються, відпочивають на курортах, їздять на розкішних авто, носять гроші в пакетах для покупок, отримують посади без прав, хочуть бути в нашому уряді».

Такі фейки спрямовані на підрив довіри до України та поширення антиукраїнських наративів у польському суспільстві. 

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.