Spilnota Detector Media
Русскій фейк, іді на***!

Foreign Affairs: штучний інтелект підсилює дезінформаційну війну, а США не готові до оборони

В статті Foreign Affairs від 19 листопада 2025 року повідомляється, що іноземні уряди використовують штучний інтелект для масового створення пропаганди, а американські інституції не готові ефективно реагувати на таку загрозу.

Штучний інтелект перетворюється на потужний інструмент інформаційної війни. За даними авторів Foreign Affairs, іноземні уряди, передусім Китай та Росія, вже використовують генеративні моделі, щоб створювати персоналізовані кампанії дезінформації. Водночас Сполучені Штати демонструють слабку системну відповість — слабшають агентства, відповідальні за протидію іноземному впливу, а механізми контролю й регулювання ШІ-моделей ще не налагоджені. 

Однією з найяскравіших ілюстрацій цієї загрози автори наводять приклад діпфейку на платформі Signal, де повідомлення, начебто надіслане держсекретарем США, супроводжувалося аудіозаписом, абсолютно правдоподібним на слух — проте штучно згенерованим. Така технологія може підривати дипломатичні відносини, дестабілізувати політичні меседжі та створювати ризики витоку секретної інформації. “Якби брехню не викрили, цей трюк міг би посіяти розбрат, скомпрометувати американську дипломатію або отримати конфіденційну розвідувальну інформацію від іноземних партнерів Вашингтона.” — зазначають автори статті Джеймс П. Рубін і Дар'ян Вуїца

Ще одна небезпечна тенденція — використання ШІ для створення персоналізованих впливових кампаній. За даними авторів, китайська компанія GoLaxy використала інструменти ШІ для побудови «цифрових профілів» сотень американських законодавців і громадських діячів. Потім, маючи ці дані, вона могла генерувати адаптований контент, який максимально відповідав психологічним уподобанням і політичним нахилам кожного адресата — і робити це в масштабі мільйонів повідомлень. 

Рубін і Вуїца звертають увагу, що хоча дезінформація — не новина, саме ШІ зробив її масштабнішою й ефективнішою. Вони стверджують, що держави-агресори тепер не змушені вкладати сотні мільйонів доларів у пропаганду: generative AI (генеративний ШІ) дозволяє запускати впливові кампанії зі значно меншими ресурсами.

Найсуперечніше — це відповідь Сполучених Штатів. Як зазначають автори, замість посилення інституцій, здатних боротися з іноземним впливом, уряд США послаблює оборонні механізми. Зокрема, вони критикують рішення адміністрації, яка згорнула або зменшила повноваження органів, відповідальних за боротьбу з дезінформацією. Справжня стратегія протидії, на їх думку, має включати як технологічні, так і інституційні рішення. Потрібні нові структури, які б відстежували вплив ШІ-генерованих меседжів, й аудит моделей штучного інтелекту, що використовуються для створення інформаційного контенту. Вони також закликають до відновлення інституцій, покликаних протистояти дезінформації.

У глобальному контексті ця тенденція — не виключно американська проблема. Дезінформаційні кампанії з використанням ШІ вже стають частиною протистояння між державами, а слабка відповідь однієї великої демократії може стати сигналом для інших, як це описують автори.

Публікацію підготувала Віталіна Фурман

NGO “Detector Media” has been working for our readers for over 20 years. In times of elections, revolutions, pandemics and war, we continue to fight for quality journalism. Our experts develop media literacy of the audience, advocate for the rights of journalists, and refute Russian disinformation.

“Detector Media” resumes the work of our Community and invites those who believe that the media should be better: more professional, truthful and transparent.

Join