Дипфейки і ядерна загроза: як штучний інтелект може наблизити світ до катастрофи
У виданні Foreign Affairs вийшла аналітична стаття Ерін Дамбехер, у якій вона застерігає: стрімкий розвиток штучного інтелекту й технології дипфейків може створити безпрецедентні ризики для глобальної безпеки, зокрема у сфері ядерного стримування. Авторка матеріалу наголошує, що поєднання автоматизованих систем раннього попередження та здатності ШІ генерувати переконливі фальшиві відео, зображення чи аудіо може призвести до фатальних помилок у критичні моменти ухвалення рішень, про що розповіли у виданні Foreign Affairs.
Авторка публікації нагадує, що ще з часів Холодної війни людство неодноразово опинялося за крок від катастрофи через хибні сигнали систем раннього попередження. Один з найвідоміших прикладів — інцидент 1983 року, коли радянська система помилково зафіксувала нібито запуск американських ядерних ракет, а світ уникнув трагедії лише завдяки рішенню чергового офіцера не довіряти автоматичному сигналу. Сьогодні, застерігає авторка, подібні сценарії можуть повторитися в ще небезпечнішій формі через використання штучного інтелекту.
Окрему загрозу становлять дипфейки, які здатні переконливо імітувати заяви політичних лідерів або створювати ілюзію воєнних дій, яких насправді не відбувається. У матеріалі згадують випадки, коли такі фальшиві відео вже використовувалися для дезінформації під час війни Росії проти України, а також попереджають, що в умовах ядерного протистояння навіть кілька хвилин дезінформації можуть мати незворотні наслідки.
Авторка звертає увагу на те, що деякі держави, зокрема США, активно впроваджують ШІ в оборонні та безпекові структури. Водночас вона підкреслює: ядерні системи командування, контролю та раннього попередження мають залишатися під жорстким людським контролем. На її думку, автоматизація у цій сфері несе більше ризиків, ніж переваг, адже алгоритми можуть помилятися, «галюцинувати» або ставати жертвами навмисних маніпуляцій.
У статті також наголошується на необхідності перегляду ядерних доктрин, сформованих ще в епоху Холодної війни. Сучасне інформаційне середовище, перенасичене фейками та штучно згенерованим контентом, потребує нових підходів до перевірки даних, кризових комунікацій та ухвалення рішень. Експерти закликають держави, що володіють ядерною зброєю, домовитися про принципову норму: жодне рішення про її застосування не може ухвалюватися без прямої та усвідомленої участі людини.
На завершення авторка підсумовує, що технологічний прогрес сам по собі не є злом, однак без чітких правил, стримувань і відповідальності він може стати каталізатором глобальної катастрофи. Саме тому ключовим завданням для урядів залишається не швидкість реакції, а точність, перевірка інформації та збереження людського контролю над найнебезпечнішими рішеннями.