Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

14 Січня станом на 1420 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк про примусовий спів гімну України: польська влада спростовує чутки

У польських соціальних мережах поширюється відео, де польські діти нібито змушені виконувати гімн України. Польські політики обурилися, але, як з'ясувалося, це старий запис, а жодного примусу не було. Цю маніпуляцію спростували експерти порталу Демагог

Допис депутата Даріуша Матецького з партії «Право і справедливість» на платформі Х
Переклад посту Даріуша Матецького з партії «Право і справедливість» на платформі Х

У Facebook та X (колишньому Twitter) поширилося відео з дітьми, які співають "Ще не вмерла Україна" польською. Це привернуло увагу політиків, наприклад, Даріуша Матецького з партії "Право і справедливість", який навіть надіслав запит до Міністерства освіти Польщі. Коментатори обурювалися: "Це жахливо, діти не розуміють, що співають. Ганьба!" Або: "Де батьки? Якщо вони погодилися – їхня справа, але якщо не знали, то це непростимо".

Насправді відео з дитсадка – кількарічної давнини. У дописах стверджували, ніби воно поширюється з 6 січня 2026 року, але перевірка показала: оригінал опублікований Муніципальним дошкільним закладом №24 м. Слупськ ще 3 березня 2023 року. Тобто, це не нова історія, як гадали деякі користувачі соцмереж. 

Речниця мерії Слупська Моніка Рапацевич  у коментарі Демагог запевнила: "Жодну дитину не змушували до будь-яких дій – ні в цьому, ні в інших випадках". Речниця додає: "Це був освітній захід для вихованців, включаючи українських дітей, які знайшли притулок у Польщі. Мета – подолати мовні бар'єри та згуртувати колектив садочка". На сайті садочка є допис про День України, де група виконала гімн. 

Отже, чутки про "українізацію" польських дітей та примус – це маніпуляції та дезінформація. Спів гімну був добровільним і спрямованим на підтримку, а не на нав'язування іншої ідентичності.

Фейк: Відео з «обуреним військовим» у Верховній Раді виявилося продуктом ШІ

На відео чоловік у військовій формі з ампутацією нібито прийшов до Верховної Ради, щоб висловити претензії народним депутатам. Проте аналіз показав, що це відео це ШІ фейк, створена за допомогою нейромереж. Фальшиве відео розвінчали грузинські фактчекери з mythdetector

Скриншоти акаунтів, що поширювали дипфейк. Джерело: mythdetector  

На початку січня проросійські та ботоподібні акаунти у Facebook, а також акаунти у Тіктоці почали поширювати ролик, де військовий із протезом замість ноги емоційно звертається до невідомої особи в кулуарах парламенту. Головний посил відео: «Я втратив ногу, щоб ви тут сиділи».

Ролик супроводжувався підписами, що мають на меті деморалізацію українців та посилення недовіри до державних інституцій.

Чому це фейк: Технічні докази

Фахівці грузинського ресурсу Myth Detector провели детальний розбір відео та виявили численні ознаки використання генеративного штучного інтелекту (ШI).

Візуальні аномалії: При детальному перегляді помітно характерні для нейромереж помилки рендерингу. У деяких кадрах пальці та частини рук «героя» розмиваються, зникають, а потім з’являються знову. Такі дефекти виникають, коли алгоритми ШІ не можуть коректно відтворити складну анатомію руху. Також, трибуна верховної Ради знаходиться далі від рядів крісел, ніж це зображено на відео, а інтер'єр та конфігурація стін справжньої сесійної зали не відповідають зображеному у фейковому ролику.   

Візуальні аномалії на ролику

Інструментальна перевірка: Аналіз за допомогою спеціалізованої платформи Hive Moderation показав критично високу ймовірність підробки — 98%. Це підтверджує, що і візуальний ряд, і аудіодоріжка були згенеровані штучно.

Відсутність офіційних свідчень: Жодне авторитетне медіа або офіційне джерело не зафіксувало подібного інциденту у Верховній Раді. Поява військових у залі засідань чи кулуарах, тим паче із виразним публічним конфліктом, стала би подією, яка детально висвітлюється журналістами.

Вигляд справжньої сесійної зали Верховної Ради України. Джерело: РБК-Україна, фото Ельдара Сарахмана, pravda.com.ua

Першоджерелом ролику, ймовірно, був TikTok-акаунт під назвою 0001.kkkkk. На цей час сторінка вже видалена, що є типовою стратегією для «ферм фейків»: створити віральний контент, дочекатися його поширення іншими ресурсами та оперативно зникнути, щоб уникнути блокування за дезінформацію. Втім за подібним запитом у Тіктоці можна знайти дублікати цього відео. 

Висновок

Перед нами — класичний приклад Deepfake (діпфейку). Технології штучного інтелекту використовуються з метою маніпуляції та розпалювання емоцій на темі втрат на війні.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.