Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

24 Листопада станом на 1369 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Foreign Affairs: штучний інтелект підсилює дезінформаційну війну, а США не готові до оборони

В статті Foreign Affairs від 19 листопада 2025 року повідомляється, що іноземні уряди використовують штучний інтелект для масового створення пропаганди, а американські інституції не готові ефективно реагувати на таку загрозу.

Штучний інтелект перетворюється на потужний інструмент інформаційної війни. За даними авторів Foreign Affairs, іноземні уряди, передусім Китай та Росія, вже використовують генеративні моделі, щоб створювати персоналізовані кампанії дезінформації. Водночас Сполучені Штати демонструють слабку системну відповість — слабшають агентства, відповідальні за протидію іноземному впливу, а механізми контролю й регулювання ШІ-моделей ще не налагоджені. 

Однією з найяскравіших ілюстрацій цієї загрози автори наводять приклад діпфейку на платформі Signal, де повідомлення, начебто надіслане держсекретарем США, супроводжувалося аудіозаписом, абсолютно правдоподібним на слух — проте штучно згенерованим. Така технологія може підривати дипломатичні відносини, дестабілізувати політичні меседжі та створювати ризики витоку секретної інформації. “Якби брехню не викрили, цей трюк міг би посіяти розбрат, скомпрометувати американську дипломатію або отримати конфіденційну розвідувальну інформацію від іноземних партнерів Вашингтона.” — зазначають автори статті Джеймс П. Рубін і Дар'ян Вуїца

Ще одна небезпечна тенденція — використання ШІ для створення персоналізованих впливових кампаній. За даними авторів, китайська компанія GoLaxy використала інструменти ШІ для побудови «цифрових профілів» сотень американських законодавців і громадських діячів. Потім, маючи ці дані, вона могла генерувати адаптований контент, який максимально відповідав психологічним уподобанням і політичним нахилам кожного адресата — і робити це в масштабі мільйонів повідомлень. 

Рубін і Вуїца звертають увагу, що хоча дезінформація — не новина, саме ШІ зробив її масштабнішою й ефективнішою. Вони стверджують, що держави-агресори тепер не змушені вкладати сотні мільйонів доларів у пропаганду: generative AI (генеративний ШІ) дозволяє запускати впливові кампанії зі значно меншими ресурсами.

Найсуперечніше — це відповідь Сполучених Штатів. Як зазначають автори, замість посилення інституцій, здатних боротися з іноземним впливом, уряд США послаблює оборонні механізми. Зокрема, вони критикують рішення адміністрації, яка згорнула або зменшила повноваження органів, відповідальних за боротьбу з дезінформацією. Справжня стратегія протидії, на їх думку, має включати як технологічні, так і інституційні рішення. Потрібні нові структури, які б відстежували вплив ШІ-генерованих меседжів, й аудит моделей штучного інтелекту, що використовуються для створення інформаційного контенту. Вони також закликають до відновлення інституцій, покликаних протистояти дезінформації.

У глобальному контексті ця тенденція — не виключно американська проблема. Дезінформаційні кампанії з використанням ШІ вже стають частиною протистояння між державами, а слабка відповідь однієї великої демократії може стати сигналом для інших, як це описують автори.

Публікацію підготувала Віталіна Фурман

Як «Pravda» просуває російську пропаганду в Іспанії

Російська дезінформаційна мережа «Pravda» дедалі активніше розширює свою присутність у глобальному інформаційному полі, зокрема через іспаномовний сегмент – і це становить новий виклик не лише для Європи, але й для технологічних систем, які багато хто вважає до певної міри нейтральними. Саме це підкреслює останнє дослідження проєкту ATHENA, яке фокусується на тому, як прокремлівські наративи поширюються в Іспанії та впливають на штучний інтелект (ШІ).

Російські пропагандистські медіа, на які найбільше посилаються вебсайти з дезінформаційної мережі «Pravda». Джерело: ATHENA

Мережа «Pravda», вперше виявлена в квітні 2022 року, стала, за словами дослідників проєкту ATHENA, не лише пропагандистським інструментом, а й справжньою дезінформаційною машиною. Як йшлося у нашому матеріалі від 12 березня 2025 року, мережа охоплювала понад 150 доменів у близько 49 країнах. За даними NewsGuard, більшість сайтів мережі не створює ексклюзивного контенту — замість цього вони агрегують, передруковують або перекладають прокремлівські меседжі з державних російських медіа, Telegram-каналів чи офіційних джерел.

У звіті ATHENA дослідники зазначають, що іспанська «Pravda» інтегрує в іспаномовний простір ті самі меседжі, які Росія системно повторює на глобальному рівні: нібито «фашизацію України», «занепад ЄС», та виправдання війни. Усі ці тексти створені за спільним структурним принципом — вони видають російські пропагандистські матеріали за «думки експертів» або «альтернативну точку зору», а сам сайт — за місцеве видання, що нібито «бореться з цензурою». Таке маскування й націленість на іспанську аудиторію роблять мережу небезпечним інструментом впливу. 

Проєкт ATHENA виявив, що крім загальноіспанської секції, з’явилися версії каталонською, баскською та галісійською мовами. Усі вони системно тиражують адаптований під місцеву аудиторію контент, значною мірою сформований на основі російських держзасобів, а також анонімних телеграм-каналів. Ця синхронна поява кількох мовних гілок не була випадковою: перші статті каталонської, баскської й галісійської секцій були опубліковані одночасно, і ці тексти були практично ідентичними перекладами, що свідчить про централізовану фабрику контенту, яка автоматизує й масштабує дезінформацію для різних аудиторій. Система працює як багаторівневий ланцюг: у її основі — тисячі телеграм-каналів, які формують первинну добірку матеріалів, далі йдуть агрегатори та локалізовані сайти «Pravda», що миттєво перетворюють ці сигнали на публікації. Моніторинг Maldita.es, на який посилається ATHENA, показує, що велику частину матеріалів мережі складають репліки повідомлень із телеграму. 

Зв'язки між телеграм-каналами що поширюють наративи пропаганди та вебсайтами мережі «Pravda». Джерело: ATHENA

Ця дезінформаційна операція має кілька стратегічних цілей. По-перше, йдеться про розширення впливу на саму Іспанію та на весь іспаномовний простір, адже матеріали, які з’являються в Іспанії, легко поширюються до Латинської Америки. По-друге, медіа прагне нарощувати «пропагандистський слід» у мережі. NewsGuard виявив, що третина відповідей провідних чатботів повторювала наративи, що просуваються мережею «Pravda», а в багатьох випадках моделі прямо посилалися на матеріали цієї мережі, що створює ризик легітимації фейкових джерел у відповідях ШІ. 

Практичні наслідки цього підходу видно й у часових пиках активності мережі: «Pravda» синхронно збільшувала обсяг публікацій у моменти криз, коли суспільна увага була максимально висока — наприклад, під час масштабного відключення електроенергії, яке торкнулося Іспанії та Португалії 28 квітня 2025 року. Саме в ці дні група публікувала сотні повідомлень, часто з натяками на кібератаки або з цілком неправдивими твердженнями про масштаби перебою, що посилювало паніку або сумніви щодо спроможності державних інституцій реагувати на кризу. 

ATHENA та Maldita.es простежили, як повідомлення з телеграм з’являлися на сайтах мережі протягом перших хвилин, що робить ці платформи ефективним інструментом для швидкого розповсюдження наративів у періоди невизначеності. Значна частина джерел, на які спирається «Pravda», — це ресурси, пов’язані з російською держпропагандою: RT, Sputnik, RIA Novosti та інші. Близько 40% іспанських публікацій мережі прямо цитували такі джерела; решта здебільшого походила від телеграм-ланцюжків, які самі по собі часто републікують або переробляють матеріали з цих платформ. 

Ще одним інструментом легітимації є фінансова підтримка: деякі з найактивніших у дезінформаційній мережі телеграм-каналів прямо закликають до донатів через PayPal, Patreon, криптовалюти та платформи, а також використовують сервіси, пов’язані з російськими платіжними системами. 

Скриншоти із різних телеграм-каналів дезінформаційної мережі, які закликать фінансово підтримати їх діяльність. Джерело: ATHENA

Для України та для європейських медіа така діяльність може підривати довіру до інституцій і сіяти сумніви в ефективності заходів чи рішень, або може бути технологічною атакою на способи отримання інформації сучасними інструментами. 

Публікацію підготувала Віталіна Фурман

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.