Spilnota Detector Media
Русскій фейк, іді на***!

LLM grooming: як держави і пропагандисти впливають на відповіді штучного інтелекту

Державні структури та мережі дезінформації все частіше намагаються впливати на роботу чатботів зі штучним інтелектом, щоб змусити їх відтворювати політичну пропаганду та маніпулювати думкою користувачів. За словами дослідників, такі практики можуть загрожувати демократії, підривати довіру громадян і посилювати суспільну поляризацію. Про це розповіли у виданні Maldita.es.

Однією з основних технік, яку використовують державні актори, є так званий «LLM grooming» — масове заповнення інтернету сфабрикованими матеріалами, які потім потрапляють до баз даних, що використовуються для тренування мовних моделей. За даними аналітиків NewsGuard, проросійська мережа дезінформації Pravda застосовувала саме цей метод, щоб чатботи на Заході почали повторювати неправдиві твердження. Pravda поширювала фейки через понад 150 вебсайтів у десятках мов і регіонів, аби ці повідомлення були індексовані пошуковими системами й згодом потрапили до алгоритмів штучного інтелекту. Схожий підхід, як повідомляє Responsible Statecraft, нібито використовував і Ізраїль, який замовив створення сайтів для впливу на моделі GPT, щоб «змінити рамку» їхніх відповідей на теми, пов’язані з антисемітизмом у США.

Експерти NewsGuard пояснюють, що для впливу на великі мовні моделі достатньо «затопити» інтернет контентом, який буде зібрано пошуковими роботами й згодом стане частиною бази даних для навчання. Не обов’язково, щоб цей контент був якісним — головне, щоб його знаходили алгоритми.

Інший приклад маніпуляції спостерігається в Китаї. Там чатбот DeepSeek має вбудовані бар’єри безпеки, які забороняють відповідати на запитання, що стосуються тем, небажаних для влади, зокрема подій на площі Тяньаньмень або протестів у Гонконзі. Замість обговорення цих питань бот відповідає пропагандистськими фразами на підтримку Комуністичної партії. Як повідомляє The Guardian, китайські стандарти кібербезпеки вимагають, щоб усі системи ШІ не порушували «соціалістичні цінності» і не підривали державну владу. Це призвело до цензури та навіть вилучення низки додатків із App Store, які не відповідали вимогам.

У Сполучених Штатах ситуація має інший характер. Президент Дональд Трамп у липні 2025 року підписав указ про «запобігання ідеологічним упередженням у ШІ», який зобов’язує компанії, що отримують державне фінансування, забезпечити «ідеологічну нейтральність» своїх моделей. Документ визначає політику різноманітності, рівності та інклюзії як прояви «ідеологічного ухилу». Експерти попереджають, що такі обмеження можуть фактично призвести до зняття важливих захисних фільтрів і відтворення прихованих дискримінаційних практик у відповідях алгоритмів.

Маніпулювання відповідями чатботів можуть мати серйозні наслідки для суспільства. Користувачі часто надмірно довіряють інформації, яку генерує ШІ, сприймаючи її як об’єктивну. Це створює небезпеку для суспільної свідомості: дезінформація подається у переконливій формі, що сприяє психологічним маніпуляціям і посиленню поляризації. Як зазначає дослідниця Raluca Csernatoni з Carnegie Endowment for International Peace, такі системи дозволяють державам поширювати пропаганду в небачених масштабах.

За словами Марії Хосе Рементерії з Barcelona Supercomputing Center, спотворення фактів у відповідях ШІ руйнує уявлення про реальність і посилює соціальні конфлікти. Зрештою це підриває довіру до інформаційного простору, державних інститутів і самої демократії.

Дослідження Freedom House і Institute for Strategic Dialogue свідчать, що Росія, Китай, Іран і Венесуела вже активно експериментують із технологіями штучного інтелекту для маніпулювання громадською думкою та підриву демократичних процесів. Водночас навіть у демократичних країнах обмеження або цензура відповідей чатботів можуть створювати ефект ізоляції користувачів, підштовхуючи їх до закритих платформ, де поширюється мова ворожнечі.

Протидія цим загрозам потребує комплексного підходу — від посилення регулювання і незалежних аудитів моделей до підвищення рівня цифрової грамотності. Дослідники Dartmouth College рекомендують проводити регулярні перевірки даних, що використовуються для навчання мовних моделей, щоб виявляти можливі втручання державних структур. А Raluca Csernatoni підкреслює необхідність запровадження міжнародних норм для боротьби з діпфейками, пропагандою та маніпуляціями ШІ.

Варто продовжувати бути критичними до відповідей чатботів, перевіряти посилання й джерела інформації, а також не використовувати ШІ як заміну для пошукових систем чи освітніх ресурсів. Як зазначає Паоло Россо, керівник Лабораторії інженерії природної мови Політехнічного університету Валенсії, «користувачі мають пам’ятати, що великі мовні моделі — це лише інструменти. Важливо навчитися усвідомлено ними користуватися».

Такі практики, якщо їх не контролювати, можуть визначати майбутнє інформаційного простору. І, як зауважив Россо, «той, хто контролює наратив, контролює історію».

NGO “Detector Media” has been working for our readers for over 20 years. In times of elections, revolutions, pandemics and war, we continue to fight for quality journalism. Our experts develop media literacy of the audience, advocate for the rights of journalists, and refute Russian disinformation.

“Detector Media” resumes the work of our Community and invites those who believe that the media should be better: more professional, truthful and transparent.

Join