Spilnota Detector Media

Фейкове ШІ-відео з «українським солдатом» створене на основі обличчя російського блогера

На початку листопада в грузинській частині фейсбуку поширювалося відео з молодим чоловіком в армійській уніформі. Він ридає, стверджуючи, що його силоміць відправляють на фронт, він не бажає гинути, та закликає глядачів розповсюдити ролик. У супровідному описі зазначено: «Клоуни змушують молодь воювати». Багато коментаторів сприйняли героя відео як українського військового. Розвінчали цей фейк грузинські фактчекери mythdetector.

Скриншот ШІ-згенерованого відео. Джерело: mythdetector  

Насправді це ролик, згенерований штучним інтелектом, з маніпулятивним закликом до військової допомоги. Він містить характерні для ШІ помилки, а його першоджерело — акаунт у тіктоку, який раніше завантажував подібний фейковий контент.

У відео помітні технічні вади, властиві контенту від штучного інтелекту. Обличчя мовця та його сльози виглядають штучно: зображення надто гладке, сльози на підборідді й носі неприродно сяють. Якщо придивитися до окулярів, то в деяких місцях вони наче зливаються з обличчям.

Крім того, на уніформі є шеврон, де мав би бути напис з прізвищем бійця, але замість цього видно розмиті, нечитабельні символи — типова проблема для ШІ-генерації.

Нечитабельні написи — типова ознака ШІ-згенерованих зображень та відео

За підписом, відео походить з тікток-акаунту fantomoko, який нині заблоковано. Фактчекери Myth Detector проаналізували схожі ролики, які цей користувач поширював раніше. Наприклад, в одному з ШІ-відео, що циркулювало в російськомовних і грузинськомовних спільнотах, «український солдат» заявляв, що йому 23 роки та його примусово мобілізували. 

Станом на 4 листопада в акаунті fantomoko було кілька аналогічних матеріалів. Деякі показували «українських вояків», інші — фігури з російським прапором на формі. Зміст варіювався: від слізних скарг про примус до війни до сцени, де людина тримає український прапор біля Кремля.

Скриншот акаунту в тіктоці, що поширює антиукраїнські ШІ-генеровані відео. Джерело: mythdetector

Ці ролики також дослідила італійська фактчекінгова платформа Open, яка встановила особу, чиє обличчя використовували для ШІ-генерації. Виявилося, що один із «героїв», чиє обличчя стає шаблоном чи не найчастіше, — це російський відеоблогер під ніком kussia88, відомий на ютубі як KASHA STREAM. Порівняння облич підтверджує, що у фейковому відео застосовано саме його риси.

Фото російського блогера, чиє обличчя взято за основу ШІ-знегерованих фейків. Джерело: mythdetector

Російські пропагандисти та пов'язані з ними мережі поширюють такі ШІ-згенеровані фейки з метою маніпуляції громадською думкою, особливо в країнах з потенційним скептицизмом до підтримки України. 

Фейк про «ожирілого українського офіцера»: ШІ-контент використовується для дискредитації допомоги Україні

У соціальних мережах, зокрема в польському сегменті фейсбуку, активно поширюють нібито фотографії чоловіка з надмірною вагою в українській військовій формі. Автори публікацій стверджують, що це офіцер, який керує мобілізацією в українській армії, і його зовнішній вигляд нібито доводить, що міжнародна допомога «не потрапляє до тих, хто її дійсно потребує». Такі публікації набирали сотні коментарів та репостів. Насправді такої особи не існує, а зображення створене штучним інтелектом з метою розпалювання антиукраїнських настроїв. Розвінчали фейк польські фактчекери з Demagog

Скриншот акаунту на фейсбуці, що поширював ШІ-фейк. Джерело: Demagog

Знімок походить з відео, яке спочатку з'явилося в тіктоку. При детальному перегляді ролика помітні ознаки ШІ-генерації: наприклад, крісло зливається з фоном, тіні на одязі «танцюють» неприродно, а положення рук персонажа виглядає штучно. На відео нібито офіцер «житомирського ТЦК» каже: «Наш колектив виступає проти перемир'я». Звук при цьому розсинхронізований з рухами губ на відеоряді. 

Скриншот акаунту в тіктоці, що поширює пропагандистські ШІ-генеровані відео. Джерело: Demagog

Щоб підтвердити це, фактчекери Demagog проаналізували кадр за допомогою спеціалізованих інструментів Hive AI та Sightengine — обидва показали ймовірність понад 90%, що контент створений штучним інтелектом.

Результати аналізу відео за допомогою інструменту Sightengine

Акаунт у тіктоку, де опубліковано це відео, наповнений подібними матеріалами проросійського та антиукраїнського спрямування. В описі профілю є посилання на закритий телеграм-канал «МАТРЁШКА». Під час спроби приєднатися до нього ставлять провокаційні питання, наприклад, «Чий Крим?», що вказує на пропагандистський характер.

Скриншот пропагандистського телеграм-каналу. Джерело: Demagog

Публікації з цим зображенням набрали значну популярність: одна з них отримала понад 1000 реакцій і більше 200 поширень. У коментарях багато користувачів сприймають фото за реальне. Один з коментаторів написав: «Ця людина хвора, і тільки такі служать в українській армії, бо здорові та сильні – у Польщі». Інший додав: «Ця війна дивна – вони об'їдаються, відпочивають на курортах, їздять на розкішних авто, носять гроші в пакетах для покупок, отримують посади без прав, хочуть бути в нашому уряді».

Такі фейки спрямовані на підрив довіри до України та поширення антиукраїнських наративів у польському суспільстві. 

Foreign Affairs: штучний інтелект підсилює дезінформаційну війну, а США не готові до оборони

В статті Foreign Affairs від 19 листопада 2025 року повідомляється, що іноземні уряди використовують штучний інтелект для масового створення пропаганди, а американські інституції не готові ефективно реагувати на таку загрозу.

Штучний інтелект перетворюється на потужний інструмент інформаційної війни. За даними авторів Foreign Affairs, іноземні уряди, передусім Китай та Росія, вже використовують генеративні моделі, щоб створювати персоналізовані кампанії дезінформації. Водночас Сполучені Штати демонструють слабку системну відповість — слабшають агентства, відповідальні за протидію іноземному впливу, а механізми контролю й регулювання ШІ-моделей ще не налагоджені. 

Однією з найяскравіших ілюстрацій цієї загрози автори наводять приклад діпфейку на платформі Signal, де повідомлення, начебто надіслане держсекретарем США, супроводжувалося аудіозаписом, абсолютно правдоподібним на слух — проте штучно згенерованим. Така технологія може підривати дипломатичні відносини, дестабілізувати політичні меседжі та створювати ризики витоку секретної інформації. “Якби брехню не викрили, цей трюк міг би посіяти розбрат, скомпрометувати американську дипломатію або отримати конфіденційну розвідувальну інформацію від іноземних партнерів Вашингтона.” — зазначають автори статті Джеймс П. Рубін і Дар'ян Вуїца

Ще одна небезпечна тенденція — використання ШІ для створення персоналізованих впливових кампаній. За даними авторів, китайська компанія GoLaxy використала інструменти ШІ для побудови «цифрових профілів» сотень американських законодавців і громадських діячів. Потім, маючи ці дані, вона могла генерувати адаптований контент, який максимально відповідав психологічним уподобанням і політичним нахилам кожного адресата — і робити це в масштабі мільйонів повідомлень. 

Рубін і Вуїца звертають увагу, що хоча дезінформація — не новина, саме ШІ зробив її масштабнішою й ефективнішою. Вони стверджують, що держави-агресори тепер не змушені вкладати сотні мільйонів доларів у пропаганду: generative AI (генеративний ШІ) дозволяє запускати впливові кампанії зі значно меншими ресурсами.

Найсуперечніше — це відповідь Сполучених Штатів. Як зазначають автори, замість посилення інституцій, здатних боротися з іноземним впливом, уряд США послаблює оборонні механізми. Зокрема, вони критикують рішення адміністрації, яка згорнула або зменшила повноваження органів, відповідальних за боротьбу з дезінформацією. Справжня стратегія протидії, на їх думку, має включати як технологічні, так і інституційні рішення. Потрібні нові структури, які б відстежували вплив ШІ-генерованих меседжів, й аудит моделей штучного інтелекту, що використовуються для створення інформаційного контенту. Вони також закликають до відновлення інституцій, покликаних протистояти дезінформації.

У глобальному контексті ця тенденція — не виключно американська проблема. Дезінформаційні кампанії з використанням ШІ вже стають частиною протистояння між державами, а слабка відповідь однієї великої демократії може стати сигналом для інших, як це описують автори.

Публікацію підготувала Віталіна Фурман

Як Pravda просуває російську пропаганду в Іспанії

Російська дезінформаційна мережа Pravda дедалі активніше розширює свою присутність у глобальному інформаційному полі, зокрема через іспаномовний сегмент, — і це становить новий виклик не лише для Європи, але й для технологічних систем, які багато хто вважає до певної міри нейтральними. Саме це підкреслює останнє дослідження проєкту ATHENA, яке фокусується на тому, як прокремлівські наративи поширюються в Іспанії та впливають на штучний інтелект (ШІ).

Російські пропагандистські медіа, на які найбільше посилаються вебсайти з дезінформаційної мережі «Pravda». Джерело: ATHENA

Мережа Pravda, вперше виявлена в квітні 2022 року, стала, за словами дослідників проєкту ATHENA, не лише пропагандистським інструментом, а й справжньою дезінформаційною машиною. Як ішлося в нашому матеріалі від 12 березня 2025 року, мережа охоплювала понад 150 доменів у близько 49 країнах. За даними NewsGuard, більшість сайтів мережі не створює ексклюзивного контенту — замість цього вони агрегують, передруковують або перекладають прокремлівські меседжі з державних російських медіа, телеграм-каналів чи офіційних джерел.

У звіті ATHENA дослідники зазначають, що іспанська Pravda інтегрує в іспаномовний простір ті самі меседжі, які Росія системно повторює на глобальному рівні: нібито «фашизацію України», «занепад ЄС», та виправдання війни. Усі ці тексти створені за спільним структурним принципом — вони видають російські пропагандистські матеріали за «думки експертів» або «альтернативну точку зору», а сам сайт — за місцеве видання, що нібито «бореться з цензурою». Таке маскування й націленість на іспанську аудиторію роблять мережу небезпечним інструментом впливу. 

Проєкт ATHENA виявив, що крім загальноіспанської секції, з’явилися версії каталонською, баскською та галісійською мовами. Усі вони системно тиражують адаптований під місцеву аудиторію контент, значною мірою сформований на основі російських держзасобів, а також анонімних телеграм-каналів. Ця синхронна поява кількох мовних гілок не була випадковою: перші статті каталонської, баскської й галісійської секцій були опубліковані одночасно, і ці тексти були практично ідентичними перекладами, що свідчить про централізовану фабрику контенту, яка автоматизує й масштабує дезінформацію для різних аудиторій. Система працює як багаторівневий ланцюг: у її основі — тисячі телеграм-каналів, які формують первинну добірку матеріалів, далі йдуть агрегатори та локалізовані сайти «Pravda», що миттєво перетворюють ці сигнали на публікації. Моніторинг Maldita.es, на який посилається ATHENA, показує, що велику частину матеріалів мережі складають репліки повідомлень із телеграму. 

Зв'язки між телеграм-каналами що поширюють наративи пропаганди, та вебсайтами мережі «Pravda». Джерело: ATHENA

Ця дезінформаційна операція має кілька стратегічних цілей. По-перше, йдеться про розширення впливу на саму Іспанію та на весь іспаномовний простір, адже матеріали, які з’являються в Іспанії, легко поширюються до Латинської Америки. По-друге, медіа прагне нарощувати «пропагандистський слід» у мережі. NewsGuard виявив, що третина відповідей провідних чатботів повторювала наративи, що просуваються мережею Pravda, а в багатьох випадках моделі прямо посилалися на матеріали цієї мережі, що створює ризик легітимації фейкових джерел у відповідях ШІ. 

Практичні наслідки цього підходу видно й у часових піках активності мережі: Pravda синхронно збільшувала обсяг публікацій у моменти криз, коли суспільна увага була максимально висока — наприклад, під час масштабного відключення електроенергії, яке торкнулося Іспанії та Португалії 28 квітня 2025 року. Саме в ці дні група публікувала сотні повідомлень, часто з натяками на кібератаки або з цілком неправдивими твердженнями про масштаби перебою, що посилювало паніку або сумніви щодо спроможності державних інституцій реагувати на кризу. 

ATHENA та Maldita.es простежили, як повідомлення з телеграму з’являлися на сайтах мережі протягом перших хвилин, що робить ці платформи ефективним інструментом для швидкого розповсюдження наративів у періоди невизначеності. Значна частина джерел, на які спирається Pravda, — це ресурси, пов’язані з російською держпропагандою: RT, Sputnik, RIA Novosti та інші. Близько 40% іспанських публікацій мережі прямо цитували такі джерела; решта здебільшого походила від телеграм-ланцюжків, які самі по собі часто републікують або переробляють матеріали з цих платформ. 

Ще одним інструментом легітимації є фінансова підтримка: деякі з найактивніших у дезінформаційній мережі телеграм-каналів прямо закликають до донатів через PayPal, Patreon, криптовалюти та платформи, а також використовують сервіси, пов’язані з російськими платіжними системами. 

Скриншоти з різних телеграм-каналів дезінформаційної мережі, які закликають фінансово підтримати їхню діяльність. Джерело: ATHENA

Для України та для європейських медіа така діяльність може підривати довіру до інституцій і сіяти сумніви в ефективності заходів чи рішень, або може бути технологічною атакою на способи отримання інформації сучасними інструментами. 

Публікацію підготувала Віталіна Фурман

ШІ згенерував російським пропагандистам «український мультфільм» про ЛГБТ

У мережі поширюють нібито нову серію українського мультфільму, у якій дід розповідає онуку, що Україна є європейською державою, яка поділяє західні цінності, зокрема відкрите кохання між двома чоловіками та проведення Маршів рівності. Коли онук каже, що бабуся вважає ЛГБТ-людей збоченцями, дід відповідає, що вона просто наслухалася російської пропаганди. Насправді цього мультфільму в Україні не створювали й не транслювали, а наведений ролик містить очевидні ознаки фальсифікації. Про це розповіли у VoxCheck.

У відео не вказано, на якому каналі чи платформі нібито показували мультфільм, і жодних згадок про нього немає ані на українському телебаченні, ані в онлайн-медіа. Ролик поширювали виключно російські ресурси.

Приклад поширення фейку. Джерело: VoxCheck

У «мультфільмі» помітні численні мовні помилки, що свідчать про його створення людьми, для яких українська не є рідною. Герой мультфільму звертається до онука «Тараско» замість природного «Тарасику», а вираз «абсолютно всі» у ролику замінюють неправильною формою «абсолютно все». Це типові хиби носіїв російської мови, які намагаються імітувати українську.

Ймовірно, мультфільм згенерували за допомогою програм із використанням алгоритмів штучного інтелекту, які дають змогу швидко та майже безкоштовно створювати просту анімацію. Це підтверджує і повторюваність кадрів, і загальна штучність графіки.

Раніше в мережі вже з’являлися щонайменше дві інші серії цього ж «мультфільму» з тими самими персонажами та сюжетними фрагментами. Спочатку пропагандисти стверджували, що його нібито створила СБУ, а згодом — що його транслюють на українських телеканалах. Обидві заяви не відповідають дійсності: ці відео не мають жодного стосунку до українських мультиплікаторів і спершу з’явилися саме в російських телеграм-каналах.

Фейкове відео про «зникнення половини бригади» створене за допомогою ШІ

У соціальних мережах, зокрема у TikTok, активно циркулює відеоролик, де жінка емоційно розповідає, нібито її чоловік-військовослужбовець зник безвісти, а командування ЗСУ повністю замовчує цю ситуацію. Жінка також стверджує, що нібито у його бригаді зникла половина особового складу. Це є високоякісний відеофейк (Deepfake), створений за допомогою технологій штучного інтелекту. Відеофейк розвінчали експерти VoxCheck

Скриншот із ШІ-згенерованого дипфейку

Експерти VoxCheck провели ретельний аналіз відео,  щ засвідчив його несправжність:

  • Міміка та рух: Обличчя "дружини військового" має характерні ознаки контенту, згенерованого ШІ. Під час розмови рухаються майже виключно губи, тоді як загальна міміка залишається неприродно нерухомою.
  • Голос: Голосова доріжка звучить надто рівно, має характерний роботизований тембр, що часто трапляється при синтезуванні мови.
  • Технічне підтвердження: Перевірка відео спеціалізованим інструментом Sensity.AI підтвердила, що ролик із імовірністю 99% є продуктом штучного інтелекту. Програма також ідентифікувала lipsync-маніпуляцію — штучне підлаштування рухів губ під синтезований голос.
Скриншот перевірки відео у sensity.ai

Акаунт у TikTok, на якому було розміщено цей фейковий ролик, систематично використовується для поширення ШІ-згенерованих відео, спрямованих на дискредитацію Сил Оборони України.

Пропагандисти використовують однакові маніпулятивні теми та образи, аби викликати максимальний суспільний резонанс та недовіру до командування:

  • "Дружини військових скаржаться" на зниклих безвісти та байдужість командування.
  • "Люди літнього віку протестують" проти розміщення військових у їхніх населених пунктах.
  • "Військовослужбовці розповідають", що їх "кинуло" або "зрадило" командування.
Скриншот акаунту у Тік-тоці що регулярно розміщує ШІ-дипфейки

Це відео є частиною скоординованої інформаційної операції ворога, мета якої — деморалізувати суспільство, підірвати довіру до військового керівництва та поширити паніку, використовуючи для цього реалістичні, але повністю фейкові "свідчення" від ШІ-персонажів.   

ШІ-фейки в TikTok: пропагандисти підробили «вуличні опитування» українців про мобілізацію, закінчення війни

У TikTok активно поширюються фейкові опитування на вулицях, де нібито звичайні українці діляться думками про війну, мобілізацію чи мирні переговори. На це звернули увагу аналітики Центру протидії дезінформації РНБО.

Ці відео, створені за допомогою ШІ, мають ідентичний стиль, а всі «респонденти» висловлюють лише песимістичні тези.

У роликах герої виступають проти мобілізації, називають війну «марною», звинувачують владу в «зриві миру» та просувають ідеї про «непотрібність» повернення окупованих територій.

Перевірка через сервіси виявлення дипфейків підтверджує: усі відео повністю згенеровані штучним інтелектом. Це черговий випадок використання росією ШІ в інформаційній війні проти України.

Коли людина бачить десятки «звичайних українців» з однаковими меседжами, підсвідомо сприймає це як суспільну норму («всі так думають»). Тож мета пропагандистів — показати, що «всі навколо» вже втомилися, не вірять у перемогу, проти мобілізації — це створює ілюзію масового песимізму й ізолює тих, хто продовжує опиратися.

Відеофейк, що дискредитує українських військових та поліцейських

У соціальних мережах, зокрема у фейсбуці, активно поширюються відео, створені за допомогою штучного інтелекту (ШІ), з метою підірвати репутацію українських Збройних сил, поліції та Територіальних центрів комплектування та соціальної підтримки (ТЦК). Відеофейки виявили фактчекери mythdetector.

Скриншот з відеофейку, що поширюється анонімним акаунтом у фейсбуці

Анонімний україномовний акаунт у фейсбуці під назвою «Правда ТВ» публікує відео, на яких зображені нібито українські військовослужбовці, співробітники поліції та представники ТЦК, які цілуються з чоловіками. 

Ці відео швидко набрали поширення, але детальний аналіз показав, що вони створені за допомогою штучного інтелекту (ШІ) для маніпуляції громадською думкою.

Фактчекери mythdetector проаналізували кілька роликів за допомогою інструменту розпізнавання ШІ від Invid та виявили низку ознак, які вказують на використання ШІ для їх створення:

  • Неприродне освітлення: У всіх відео освітлення є рівномірним і штучним, без природних тіней чи відблисків, що типово для генерованого контенту.
  • Аномалії в деталях: На бланках, які нібито використовують представники ТЦК, напис «ТЦК» виконано великими жовто-чорними літерами – це не відповідає стандартним формам. Крім того, на деяких кадрах обличчя та руки персонажів розмиті або деформовані, що є класичною ознакою ШІ-генерації.
  • Розмитість елементів: Обличчя та кінцівки часто виглядають нечіткими, з артефактами, які неможливі в реальному відео, знятому на смартфон чи камеру.
Скриншот з акаунту на фейсбуці, що поширює відеофейк

На інших відео на цьому ж акаунті чітко видно вотермарку Sora - це модель перетворення тексту у відео, створена американською дослідницькою організацією зі штучного інтелекту OpenAI (розробниця ChatGPT). Центр протидії дезінформації раніше попереджав про поширення відеофейків, які дискредитують мобілізацію, створених за допомогою Sora, в різних соцмережах. 

Акаунт «Правда ТВ» був створений 4 липня 2022 року. Згідно з розділом «Прозорість профілю» у фейсбуці, він ведеться з території Чеської Республіки. Це анонімний профіль, який регулярно публікує контент, спрямований на критику української влади, зокрема ТЦК. Багато матеріалів включають ШІ-генеровані відео, що свідчить про систематичну кампанію дезінформації.

Такі акаунти часто є частиною ширшої мережі, яка поширює пропаганду, ігноруючи факти й маніпулюючи емоціями. 

ШІ-відео як інструмент дискредитації мобілізації в Україні

У соціальних мережах TikTok та X активно поширюються відеоролики, створені за допомогою штучного інтелекту, зокрема нейромережі Sora від Open AI. Ці відео зображають вигадані сцени, у яких нібито українські військові вручають повістки немовлятам, перевіряють документи у вагітних жінок або конфліктують із цивільними. Про поширення таких відео, створених за допомогою ШІ, попереджає Центр протидії дезінформації.

Скриншоти із відео, згенерованих Sora. Джерело: Центр протидії дезінформації

Що показують ці відео?

Ролики, створені за допомогою Sora, подаються в гумористичному стилі. Проте їхній зміст спрямований на маніпуляцію суспільною думкою. У відео обігруються чутливі для українців теми, такі як мобілізація, війна та захист держави. Наприклад, сцени, де військові нібито вручають повістки немовлятам чи сваряться з цивільними.

Такі матеріали часто маркуються логотипом «Sora», що вказує на їхнє штучне походження. Sora — це генеративна система штучного інтелекту, яка здатна створювати реалістичні відеоролики на основі текстових описів. Хоча ці відео можуть виглядати правдоподібно, вони є повністю штучно згенерованими за допомогою ШІ.

Мета дезінформації

Під виглядом гумору ці ролики просувають антиукраїнські наративи, спрямовані на підрив довіри до мобілізаційного процесу. Такі дії є частиною інформаційної війни, що має на меті посіяти паніку, розкол у суспільстві та послабити підтримку ЗСУ.

LLM grooming: як держави і пропагандисти впливають на відповіді штучного інтелекту

Державні структури та мережі дезінформації все частіше намагаються впливати на роботу чатботів зі штучним інтелектом, щоб змусити їх відтворювати політичну пропаганду та маніпулювати думкою користувачів. За словами дослідників, такі практики можуть загрожувати демократії, підривати довіру громадян і посилювати суспільну поляризацію. Про це розповіли у виданні Maldita.es.

Однією з основних технік, яку використовують державні актори, є так званий «LLM grooming» — масове заповнення інтернету сфабрикованими матеріалами, які потім потрапляють до баз даних, що використовуються для тренування мовних моделей. За даними аналітиків NewsGuard, проросійська мережа дезінформації Pravda застосовувала саме цей метод, щоб чатботи на Заході почали повторювати неправдиві твердження. Pravda поширювала фейки через понад 150 вебсайтів у десятках мов і регіонів, аби ці повідомлення були індексовані пошуковими системами й згодом потрапили до алгоритмів штучного інтелекту. Схожий підхід, як повідомляє Responsible Statecraft, нібито використовував і Ізраїль, який замовив створення сайтів для впливу на моделі GPT, щоб «змінити рамку» їхніх відповідей на теми, пов’язані з антисемітизмом у США.

Експерти NewsGuard пояснюють, що для впливу на великі мовні моделі достатньо «затопити» інтернет контентом, який буде зібраний пошуковими роботами і згодом стане частиною бази даних для навчання. Не обов’язково, щоб цей контент був якісним, — головне, щоб його знаходили алгоритми.

Інший приклад маніпуляції спостерігається в Китаї. Там чатбот DeepSeek має вбудовані бар’єри безпеки, які забороняють відповідати на запитання, що стосуються тем, небажаних для влади, зокрема подій на площі Тяньаньмень або протестів у Гонконзі. Замість обговорення цих питань бот відповідає пропагандистськими фразами на підтримку Комуністичної партії. Як повідомляє The Guardian, китайські стандарти кібербезпеки вимагають, щоб усі системи ШІ не порушували «соціалістичних цінностей» і не підривали державну владу. Це призвело до цензури та навіть вилучення низки додатків із App Store, які не відповідали вимогам.

У Сполучених Штатах ситуація має інший характер. Президент Дональд Трамп у липні 2025 року підписав указ про «запобігання ідеологічним упередженням у ШІ», який зобов’язує компанії, що отримують державне фінансування, забезпечити «ідеологічну нейтральність» своїх моделей. Документ визначає політику різноманітності, рівності та інклюзії як прояви «ідеологічного ухилу». Експерти попереджають, що такі обмеження можуть фактично призвести до зняття важливих захисних фільтрів і відтворення прихованих дискримінаційних практик у відповідях алгоритмів.

Маніпулювання відповідями чатботів можуть мати серйозні наслідки для суспільства. Користувачі часто надмірно довіряють інформації, яку генерує ШІ, сприймаючи її як об’єктивну. Це створює небезпеку для суспільної свідомості: дезінформація подається у переконливій формі, що сприяє психологічним маніпуляціям і посиленню поляризації. Як зазначає дослідниця Ралука Чернатоні з Carnegie Endowment for International Peace, такі системи дають змогу державам поширювати пропаганду в небачених масштабах.

За словами Марії Хосе Рементерії з Barcelona Supercomputing Center, спотворення фактів у відповідях ШІ руйнує уявлення про реальність і посилює соціальні конфлікти. Зрештою це підриває довіру до інформаційного простору, державних інститутів і самої демократії.

Дослідження Freedom House і Institute for Strategic Dialogue свідчать, що Росія, Китай, Іран і Венесуела вже активно експериментують із технологіями штучного інтелекту для маніпулювання громадською думкою та підриву демократичних процесів. Водночас навіть у демократичних країнах обмеження або цензура відповідей чатботів можуть створювати ефект ізоляції користувачів, підштовхуючи їх до закритих платформ, де поширюється мова ворожнечі.

Протидія цим загрозам потребує комплексного підходу — від посилення регулювання і незалежних аудитів моделей до підвищення рівня цифрової грамотності. Дослідники Dartmouth College рекомендують проводити регулярні перевірки даних, що використовуються для навчання мовних моделей, щоб виявляти можливі втручання державних структур. А Ралука Чернатоні підкреслює необхідність запровадження міжнародних норм для боротьби з дипфейками, пропагандою та маніпуляціями ШІ.

Варто бути критичними до відповідей чатботів, перевіряти посилання й джерела інформації, а також не використовувати ШІ як заміну для пошукових систем чи освітніх ресурсів. Як зазначає Паоло Россо, керівник Лабораторії інженерії природної мови Політехнічного університету Валенсії, «користувачі мають пам’ятати, що великі мовні моделі — це лише інструменти. Важливо навчитися усвідомлено ними користуватися».

Такі практики, якщо їх не контролювати, можуть визначати майбутнє інформаційного простору. І, як зауважив Россо, «той, хто контролює наратив, контролює історію».

Фейк: Росія захопила у полон «високопоставлених британських офіцерів»

Кремлівські медіа поширили інформацію про те, що російський спецназ нібито захопив у полон двох високопосадових британських офіцерів —  полковників Едварда Блейка та Річарда Керролла. ТАСС опублікував матеріал під заголовком «Найманці ЗСУ з Британії прибувають до Миколаєва та Херсона», посилаючись на норвезьке видання Steigan. Втім, як дослідили фактчекери The Insider, це фейк. 

Поширюване фото «полонених британських офіцерів», згенероване ШІ

Видання Steigan — це блог норвежця Пала Стейгана, який сам визнав, що не провів ретельної перевірки фактів і видалив публікацію про британських офіцерів 4 серпня, в той же день, коли її опублікував. Сам Стейган посилався на публікацію сайту coreinsightsintl.com від 2 серпня. Це сайт британської компанії з кібербезпеки з малою відвідуваністю — лише 750 переглядів за липень. Автор публікації — Гел Тернер, американський блогер з Нью-Джерсі, відомий расистськими поглядами та запереченням Голокосту, який у 2010 році був засуджений за погрози федеральним суддям. Раніше Тернер поширював фейки про застосування хімічної зброї Україною.  

4 серпня російське видання EADaily опублікувало фото цих «полонених офіцерів» з британськими паспортами. Експертиза виявила очевидні ознаки підробки з використанням інструментів генеративного штучного інтелекту:

  • Порушення фізики — незрозуміло, які сили утримують паспорти в такому положенні.
  • Неточна форма — однострої лише віддалено нагадують британські.
  • Штучне освітлення — надто рівномірне, що видає роботу ШІ.

Інформація про захоплення британських офіцерів не підтверджується жодними достовірними джерелами. Це дезінформація, створена за допомогою штучного інтелекту та поширена через мережу сумнівних блогерів і пропагандистських медіа.

П'ять способів розпізнати відео, згенеровані штучним інтелектом

Фатіма Квадрі, фактчекер The FactCheckHub

Те, що ви бачите в інтернеті, може виявитися неправдою — в епоху штучного інтелекту він може легко вас обдурити.

Ця стаття допоможе вам навчитися розпізнавати відео, створені за допомогою таких інструментів, як DALL·E (який генерує зображення, часто змонтовані у відеопослідовності) та Veo (який створює цілі відеосцени за запитом).

З швидким розвитком штучного інтелекту інтернет наповнюється відеороликами, які виглядають справжніми, але насправді такими не є. Від фейкових інтерв'ю до синтетичних новинних сюжетів — дипфейки стали настільки складними для виявлення, що вже не видають себе незграбними посмішками чи скутими жестами. Тепер вони настільки переконливі, що для їх розпізнання потрібно більше, ніж просто помічати нерівності або дивні посмішки.

Такі інструменти, як DALL·E та Veo 3, можуть створювати приголомшливі візуальні ефекти та кінематографічні відео лише за простим запитом. Хоча ця технологія відкриває нові творчі можливості, вона також несе значні ризики. Проблема полягає в тому, що ці відео часто майже неможливо відрізнити від справжніх.

Скріншот відео з X

Наприклад, уважний розгляд відео, опублікованого користувачем іксу в червні, яке показувало журналістку, що повідомляє про повінь у нігерійському місті Абеокута, виявляє окремі, але показові ознаки створення штучним інтелектом. Попри людиноподібні рухи та природне звучання мови, деякі невідповідності видали підробку. Зокрема, під час швидкого повороту ведучої в її руці раптом з'явилася парасолька, хоча секундою раніше її там не було.

Крім того, її байдужа реакція на падіння людини поруч — інцидент, який зазвичай викликав би занепокоєння — також свідчить про неавтентичну людську поведінку у відео. Існує багато прикладів таких відео, які стали вірусними.

Скріншот відео з Facebook

Інший приклад — це відео, що показує обвал естакади. Хоча пейзаж і конструкція виглядають реалістично, поведінка білого автомобіля, що їде до обваленої ділянки, неправдоподібна — це не та поведінка, яку можна очікувати перед лицем небезпеки.

Розпізнання контенту, створеного штучним інтелектом, — це не просто корисна навичка, це критично важлива навичка.

Шукайте візуальні аномалії

Відео, створені штучним інтелектом, хоча й стають дедалі досконалішими, часто виявляють свою штучну природу через тонкі збої та невідповідності. Зверніть увагу на дивне освітлення або невідповідні тіні, спотворені руки або пальці (поширене явище в перетвореннях зображення у відео DALL·E), неприродні рухи очей або кліпання, а також деформовані об'єкти на задньому плані.

В інструментах на кшталт Veo 3 роботоподібні рухи тіла, надто плавні переходи, змінені або незв'язні субтитри та звук, який звучить надто ідеально або не має фонового шуму, — все це може сигналізувати про синтетичний контент. Навіть складні сцени можуть містити об'єкти, які непослідовно розміщені або освітлені, тому ретельне спостереження є важливим.

Бездоганно, але це підробка

Veo, особливо в останній версії (Veo 3), може генерувати кінематографічні сцени з гіперреалізмом, але результати часто містять тонкі ознаки підробки. Зверніть увагу на надто ідеальні середовища, такі як бездоганно чисте небо, дзеркально гладка вода або неприродно плавний рух.

Переходи між сценами або кутами камери також можуть здаватися різкими або роботоподібними. Самі актори можуть не кліпати, не дихати або рухатися не зовсім природно, створюючи моторошне відчуття. Veo 3 навіть може створювати сценарії, які суперечать логіці або фізиці — подумайте про неймовірні події, бездоганних персонажів або фони з дивними повторюваними візерунками, які не належать до реальних умов.

Контекст також важливий. Veo 3, наприклад, є платним інструментом, тому раптовий потік коротких високоякісних відео навколо екстрених новин може сигналізувати про залучення штучного інтелекту.

Недавнім прикладом є аварія на естакаді в місті Насарава у центральній Нігерії, де циркулювали зображення, створені штучним інтелектом, щоб підтвердити це твердження. Однак The FactCheckHub виявив, що ці візуальні матеріали були оманливими.

Аналогічно, якщо відео нібито показує важливу подію, але про неї не повідомляє жодне авторитетне видання, це може бути тривожним сигналом.

Перевіряйте метадані

Такі інструменти, як InVID, можуть допомогти перевірити автентичність відео шляхом витягування метаданих, таких як часові позначки, GPS-координати та інформація про пристрій. Відео, створені штучним інтелектом, часто не містять цих даних або включають розпливчасті, загальні теги. Якщо у вас є доступ до оригінального файлу відео, перевірте його метадані на предмет таких ознак, як «Veo», «Gemini» або «Google AI».

Пам'ятайте, що метадані можуть бути видалені або змінені, тому це не повинно бути єдиним способом перевірки.

Використовуйте інструменти виявлення ШІ

Кілька інструментів можуть допомогти виявити медіаконтент, створений або змінений штучним інтелектом. Deepware Scanner призначений для виявлення дипфейкових змін обличчя, тоді як Hive Moderation використовує виявлення штучного інтелекту для позначення ймовірно синтетичних зображень або кадрів відео. InVID особливо корисний для перевірки відео, уможливлюючи покадровий аналіз та витягування метаданих. Ще один зручний інструмент — AI or Not, який допомагає визначити, чи було зображення або відео створене за допомогою штучного інтелекту.

Шукайте дисклеймери

Деякі творці добровільно позначають або ставлять водяні знаки на контент, створений штучним інтелектом, тому варто уважно подивитися. Шукайте фрази на кшталт «створено за допомогою штучного інтелекту», «створено за допомогою DALL·E» або «Veo3» у підписах, назвах файлів або описах проєктів, особливо якщо вони містять мову у стилі запитів.

Google вбудовує як видимі, так і невидимі водяні знаки в кожне відео Veo 3. Ви можете помітити маленькі логотипи або текст «Створено штучним інтелектом» у кадрі. Більш тонко, відео Veo 3 містять SynthID — невидимий цифровий підпис, який можна виявити лише спеціалізованими інструментами. Хоча широка громадськість не має доступу до сканерів SynthID, деякі фактчекери та організації можуть використовувати їх для перевірки походження відео.

Висновок

Виявлення контенту, створеного штучним інтелектом, стає все складнішим, оскільки технологія продовжує розвиватися. Однак, поєднуючи пильне спостереження з правильними інструментами та ставлячи під сумнів контент, якому не вистачає достовірного контексту або джерел, ми можемо залишатися на крок попереду дезінформації, керованої штучним інтелектом. Пам'ятайте: бути поінформованим — це не лише споживання контенту, але і його перевірка.

Оригінал публікації на сайті The FactCheckHub

Росіяни сфальсифікували відеозвернення Ольги Стефанішиної стосовно виїзду жінок за кордон

Російські телеграм-канали поширюють відео з логотипом телеканалу Freedom, у якому нібито звучить аудіокоментар віцепрем’єрки з питань європейської та євроатлантичної інтеграції України, а також міністерки юстиції Ольги Стефанішиної. У записі вона начебто заявляє про намір запровадити законодавчу заборону на виїзд за кордон для жінок і дівчат віком від 18 до 27 років, мотивуючи це потребою зберегти генофонд країни.

Скриншот пропагандистського телеграм-каналу, що поширив відеофейк

Фейк розвінчала команда Укрінформ. У ході розслідування було з’ясовано, що аудіо, присутнє в ролику, було згенероване за допомогою штучного інтелекту, на що вказує, зокрема, погана якість звуку та нечітка вимова слів.

Крім того, телеканал Freedom є російськомовним каналом державного українського іномовлення, який орієнтується на російськомовну аудиторію за кордоном. Спікери ж у підробленому ролику ведуть трансляцію українською мовою. Відповідно, ролик не може мати нічого спільного з телеканалом Freedom.

Сриншот фейсбуку Катерини Федотенко

Ба більше, ведучі, які нібито беруть коментар у Ольги Стефанішиної, насправді є журналістами телеканалу «Рада» — Назар Довгий та Катерина Федотенко — які беруть участь у телемарафоні «Єдині новини». Сама ж Катерина Федотенко припинила роботу на каналі ще у 2024 році. Водночас на телеканалі Freedom працює інша команда ведучих, і цей медіаресурс не бере участі у телемарафоні.

Даний фейк має намір підірвати довіру до української влади та посіяти паніку в суспільстві. 

Матеріал підготувала Анастасія Сизоненко

Фотофейк: у соцмережах поширюється фотографія українських дітей у військовій формі створена ШІ

Фактчекери грузинського проєкту Mythdetector зафіксували активне поширення у соціальних мережах, зокрема у Facebook, сфабрикованої фотографії, на якій нібито зображені українські діти у військовій формі. Розслідування показало, що це підробка, створена за допомогою штучного інтелекту.

Скриншот профілю у Facebook, що поширював фейк. Джерело: Mythdetector

5 червня 2024 року обліковий запис у Facebook, який раніше неодноразово поширював дезінформацію, опублікував фотографію з підписом про те, що працівники дитячого садка начебто вишиковують маленьких дітей у військовій формі. На фото діти тримають плакат із проханням до президента Зеленського підписати з ними військовий контракт. Детальний аналіз фотографії показав, що вона є підробкою, створеною штучним інтелектом. 

Найраніша відома публікація цієї фотографії з'явилася 1 червня 2024 року в блозі на платформі LiveJournal – у День захисту дітей. Варто зауважити, що LiveJournal, створений у 1990-х роках в Америці, з 2016 року переніс свої сервери до Росії. Відтоді платформа неодноразово фігурувала як джерело поширення дезінформації.

З 1 червня фотографія почала з'являтися на різних ненадійних російських блогах та вебсайтах, причому без зазначення первинного джерела. Це типова схема поширення дезінформації, коли підроблений контент подається як нібито автентичний матеріал.

Результати аналізу зображення сервісом wasitai. Джерело: Mythdetector

Детальний технічний аналіз фотографії, здійснений експертами Mythdetector, виявив типові для штучного інтелекту недоліки: а) неприродні форми дитячих рук б) різні види деформацій анатомічних частин в) інші візуальні аномалії, характерні для ШI-генерованих зображень. Додатково фотографію було перевірено за допомогою спеціалізованих інструментів розпізнавання контенту, створеного штучним інтелектом, які підтвердили ці висновки.

Фотографія українських дітей у військовій формі є підробкою, створеною за допомогою штучного інтелекту з метою дискредитації України. Це черговий приклад того, як сучасні технології використовуються для створення та поширення дезінформації.