Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

20 Жовтня станом на 1334 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк про 78% українських користувачів інтернету, які у 2025 році стежили за публічними виступами Путіна

У проросійському сегменті соцмереж поширюється фейкова статистика, згідно з якою у 2025 році найбільше за публічними промовами Володимира Путіна начебто стежили саме в Україні. Згідно з цією вигадкою, понад 78% українських користувачів нібито дивилися виступи російського президента. Далі у фейковому рейтингу — Польща, Латвія, Литва, Естонія та Франція, а навіть у Німеччині, за цими даними, за промовами Путіна начебто стежили майже половина користувачів мережі (49%). Цю вигадану «статистику» спростували фактчекери StopFake.

Приклад поширення фейку. Джерело: StopFake

Наведена статистика повністю вигадана. На сайті Statista, на який посилаються пропагандисти, немає жодного дослідження про те, у яких країнах найбільше стежать за промовами російського президента. Натомість портал публікував зовсім іншу статистику — про глобальне ставлення до Росії. Згідно з нею, станом на вересень 2025 року 79% населення світу оцінюють Росію негативно, а найгірше до неї ставляться у Швеції (93%) та Польщі (90%). Ці дані повністю суперечать твердженням про нібито популярність Путіна серед європейців.

Поширюючи подібні фейки, кремлівська пропаганда намагається створити ілюзію міжнародного інтересу до промов Володимира Путіна й підвищити його авторитет в очах західної аудиторії.

LLM grooming: як держави і пропагандисти впливають на відповіді штучного інтелекту

Державні структури та мережі дезінформації все частіше намагаються впливати на роботу чатботів зі штучним інтелектом, щоб змусити їх відтворювати політичну пропаганду та маніпулювати думкою користувачів. За словами дослідників, такі практики можуть загрожувати демократії, підривати довіру громадян і посилювати суспільну поляризацію. Про це розповіли у виданні Maldita.es.

Однією з основних технік, яку використовують державні актори, є так званий «LLM grooming» — масове заповнення інтернету сфабрикованими матеріалами, які потім потрапляють до баз даних, що використовуються для тренування мовних моделей. За даними аналітиків NewsGuard, проросійська мережа дезінформації Pravda застосовувала саме цей метод, щоб чатботи на Заході почали повторювати неправдиві твердження. Pravda поширювала фейки через понад 150 вебсайтів у десятках мов і регіонів, аби ці повідомлення були індексовані пошуковими системами й згодом потрапили до алгоритмів штучного інтелекту. Схожий підхід, як повідомляє Responsible Statecraft, нібито використовував і Ізраїль, який замовив створення сайтів для впливу на моделі GPT, щоб «змінити рамку» їхніх відповідей на теми, пов’язані з антисемітизмом у США.

Експерти NewsGuard пояснюють, що для впливу на великі мовні моделі достатньо «затопити» інтернет контентом, який буде зібрано пошуковими роботами й згодом стане частиною бази даних для навчання. Не обов’язково, щоб цей контент був якісним — головне, щоб його знаходили алгоритми.

Інший приклад маніпуляції спостерігається в Китаї. Там чатбот DeepSeek має вбудовані бар’єри безпеки, які забороняють відповідати на запитання, що стосуються тем, небажаних для влади, зокрема подій на площі Тяньаньмень або протестів у Гонконзі. Замість обговорення цих питань бот відповідає пропагандистськими фразами на підтримку Комуністичної партії. Як повідомляє The Guardian, китайські стандарти кібербезпеки вимагають, щоб усі системи ШІ не порушували «соціалістичні цінності» і не підривали державну владу. Це призвело до цензури та навіть вилучення низки додатків із App Store, які не відповідали вимогам.

У Сполучених Штатах ситуація має інший характер. Президент Дональд Трамп у липні 2025 року підписав указ про «запобігання ідеологічним упередженням у ШІ», який зобов’язує компанії, що отримують державне фінансування, забезпечити «ідеологічну нейтральність» своїх моделей. Документ визначає політику різноманітності, рівності та інклюзії як прояви «ідеологічного ухилу». Експерти попереджають, що такі обмеження можуть фактично призвести до зняття важливих захисних фільтрів і відтворення прихованих дискримінаційних практик у відповідях алгоритмів.

Маніпулювання відповідями чатботів можуть мати серйозні наслідки для суспільства. Користувачі часто надмірно довіряють інформації, яку генерує ШІ, сприймаючи її як об’єктивну. Це створює небезпеку для суспільної свідомості: дезінформація подається у переконливій формі, що сприяє психологічним маніпуляціям і посиленню поляризації. Як зазначає дослідниця Raluca Csernatoni з Carnegie Endowment for International Peace, такі системи дозволяють державам поширювати пропаганду в небачених масштабах.

За словами Марії Хосе Рементерії з Barcelona Supercomputing Center, спотворення фактів у відповідях ШІ руйнує уявлення про реальність і посилює соціальні конфлікти. Зрештою це підриває довіру до інформаційного простору, державних інститутів і самої демократії.

Дослідження Freedom House і Institute for Strategic Dialogue свідчать, що Росія, Китай, Іран і Венесуела вже активно експериментують із технологіями штучного інтелекту для маніпулювання громадською думкою та підриву демократичних процесів. Водночас навіть у демократичних країнах обмеження або цензура відповідей чатботів можуть створювати ефект ізоляції користувачів, підштовхуючи їх до закритих платформ, де поширюється мова ворожнечі.

Протидія цим загрозам потребує комплексного підходу — від посилення регулювання і незалежних аудитів моделей до підвищення рівня цифрової грамотності. Дослідники Dartmouth College рекомендують проводити регулярні перевірки даних, що використовуються для навчання мовних моделей, щоб виявляти можливі втручання державних структур. А Raluca Csernatoni підкреслює необхідність запровадження міжнародних норм для боротьби з діпфейками, пропагандою та маніпуляціями ШІ.

Варто продовжувати бути критичними до відповідей чатботів, перевіряти посилання й джерела інформації, а також не використовувати ШІ як заміну для пошукових систем чи освітніх ресурсів. Як зазначає Паоло Россо, керівник Лабораторії інженерії природної мови Політехнічного університету Валенсії, «користувачі мають пам’ятати, що великі мовні моделі — це лише інструменти. Важливо навчитися усвідомлено ними користуватися».

Такі практики, якщо їх не контролювати, можуть визначати майбутнє інформаційного простору. І, як зауважив Россо, «той, хто контролює наратив, контролює історію».

Хуан Антоніо Агіллар — прихильник Путіна під прикриттям фактчекера

Іспанський фалангіст і профспілковий діяч Хуан Антоніо Агіллар понад десять років підтримує тісні контакти з Росією, часто виступаючи у ролі прихильника Кремля в Іспанії. Він є співробітником компанії Indra, членом профспілки UGT та водночас — «експертом» створеної під егідою російського уряду мережі Global Fact-Checking Network (GFCN), покликаної імітувати незалежну перевірку фактів, але фактично просуває російські наративи.

Як з’ясували журналісти Newtral та El Periódico, з 2010 по 2019 рік Агіллар регулярно відвідував Москву у формі іспанської армії. Ці поїздки організовувала асоціація IAC — структура, заснована полковником російської армії Олександром Каншиним, якого Володимир Путін торік відзначив державною нагородою. IAC об’єднувала офіцерів у відставці з країн, дружніх до Росії, а згодом поширила діяльність і на Іспанію. Попри те, що Агіллар ніколи не був офіцером, а лише сержантом-резервістом, російська сторона зробила для нього виняток.

Під час цих контактів Агіллар зав’язав стосунки з представниками російських державних медіа — телеканалом RT та іранським HispanTV. Він також заснував Іспанський інститут геополітики, де публікують аналітичні матеріали відставні військові. Водночас український аналітичний центр Center for Defense Reforms пов’язує цю структуру з операціями російських спецслужб.

Особливу увагу викликає його співпраця з Енріке Аріасом Хілем, відомим під псевдонімом «Російський дезінформатор». Аріас, який нині переховується у Москві, розшукується Європолом за підозрою в кібератаках на стратегічні іспанські підприємства, зокрема Indra — компанію, де працює сам Агіллар. Аріас прямо називає його «другом і товаришем», який надихнув його на написання книги, присвяченої дезінформації.

Минуле Агіллара тісно пов’язане з ультраправими рухами. З кінця 1970-х до початку 2000-х він балотувався від партій Falange Española de las JONS, Plataforma España 2000 і Movimiento Social Republicano, а також мав зв’язки з неонацистським угрупованням Blood & Honour. Попри це, у 2005 році він став резервістом іспанської армії, де служив у бригаді Guadarrama XII, яка регулярно активувала його для роботи з інформаційними системами.

У 2021 році Агіллар видав книгу «Somos lo que defendemos» під псевдонімом Інякі Аґірре, у якій пропонує оновити доктрину фалангістської ідеології, спираючись на погляди російського філософа Александра Дугіна — «ідеолога путінізму», відомого закликами до знищення українського народу.

Саме завдяки своєму статусу резервіста Агіллар потрапив до Асоціації іспанських резервістів (ARES), через яку познайомився з представниками російських військових структур. На фотографіях із міжнародних зустрічей IAC його видно у формі іспанської армії поруч із прапором Іспанії, прикрашеним георгіївською стрічкою — символом російського мілітаризму.

Розслідування також встановило, що IAC тісно пов’язана з російським ГРУ. Її засновник Каншин створив спільне підприємство з колишнім офіцером ГРУ Олегом Духовницьким, який очолював Федеральну агентію зв’язку «Россвязь». Обидва фігурують у бізнес-реєстрах Росії як партнери у сфері комунікацій та інвестицій.

Окрім військових зв’язків, Агіллар активно діє у профспілковому русі. Він є членом комітету працівників компанії Indra від профспілки UGT, хоча раніше належав до CGT, звідки його виключили через звинувачення у спробі «інфільтрації ультраправих».

Наразі Агіллар знову планує поїздку до Москви — 29 жовтня він має взяти участь у форумі Dialog about Fakes як «експерт із фактчекінгу» від російської мережі GFCN, створеної за підтримки Міністерства закордонних справ Росії, державної агенції ТАСС та фонду Dialog, який, за даними незалежних медіа, пов’язаний із Міністерством оборони РФ. Мета цієї мережі — «боротися із західними фейками» та просувати російську версію «альтернативної правди».

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.