Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

08 Квітня станом на 1139 день повномасштабної війни наша редакція зафіксувала:

2733
Фейк
817
Маніпуляція
774
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк, що Європа протримається у війні проти Росії два місяці

Російські пропагандисти поширюють фейкове відео, яке нібито створив AIxCC — відділ Агентства передових оборонних дослідницьких проєктів Міністерства оборони США (DARPA). У ролику стверджується, що аналітики змоделювали перебіг війни між Росією та Європою і начебто дійшли висновку, що Європа зазнає краху вже за два місяці. Цей фейк викрили у VoxCheck.

Насправді жодних подібних відео DARPA не публікувало. «На сайті DARPA чи у соцмережах агентства немає ні цього відео, ні інших публікацій, у яких пророкували б швидку поразку Європи в разі конфлікту з рф», — зазначають фактчекери.

У VoxCheck пишуть, що підрозділ AIxCC взагалі не займається політичними прогнозами: «Його напрям діяльності — це дослідження штучного інтелекту та зміцнення кібербезпеки США».

Крім того, у фейковому відео пропагандисти використали вигаданий коментар експерта DARPA Віла Корві. Заявили, що він нібито прогнозує більш агресивні дії Росії в Європі, ніж в Україні. Але жодних доказів існування такого прогнозу немає. «Віл Корві займається вивченням штучного інтелекту та комп’ютерної лінгвістики і не пов’язаний із моделюванням військових конфліктів», — пояснюють у VoxCheck.

Подібними фейками Росія намагається демонструвати власну «непереможність» та дискредитувати західних партнерів України.

Як ШІ-чатбот Grok впливає на президентську виборчу кампанію в Польщі

На платформі X (Twitter) штучний інтелект Grok втручається в політичні суперечки та поширює дезінформацію, попереджають польські фактчекери з проєкту Demagog.

Після того, як наприкінці 2022 року Ілон Маск придбав Twitter, він радикально змінив політику модерації контенту, скоротив частину персоналу й перейменував платформу на X. А вже наприкінці 2023 року Маск представив користувачам новий чатбот на основі штучного інтелекту — Grok. За словами розробників, його головна особливість — здатність отримувати інформацію в режимі реального часу завдяки доступу до постів на платформі X.

«Унікальною та фундаментальною перевагою Grok є те, що він має знання про світ у реальному часі через платформу X», — підкреслили автори інструменту.

Grok розроблений для того, щоб допомагати користувачам відповідями на запитання чи виконанням завдань. Чатбот може спілкуватися з людиною в особистому чаті або відкрито — під постами інших користувачів. Водночас його творці визнають, що відповіді Grok можуть бути неточними або навіть неправдивими. Вони закликають самостійно перевіряти отриману від нього інформацію.

Попри ці застереження, користувачі активно використовують Grok у політичних суперечках, а часом навіть вважають його відповіді вирішальним аргументом. Проте фактчекери наголошують: Grok часто помиляється або видає власні суб’єктивні судження.

Один із показових випадків стався нещодавно в Польщі. Користувач запитав Grok про відео з людьми, які святкують Рамадан на вулицях Гданська. Чатбот категорично заявив, що це відео зняте у Франції у 2017 році. Навіть коли йому вказали на помилку, Grok наполягав на своєму та звинувачував інших у дезінформації.

Ще більш резонансною була ситуація у США перед виборами. Grok неправдиво повідомив користувачам, що строк для голосування вже минув. Помилку виправили лише через 10 днів, після чого американські чиновники закликали компанію X підключати Grok до офіційних урядових джерел.

У Польщі Grok уже став учасником політичної кампанії. Зокрема, віцеміністр цифровізації, депутат від партії «Польща 2050» Міхал Граматика запитав у Grok, чому кандидат від «Конфедерації» Славомір Менцен уникає дебатів із Шимоном Головнею. У відповідь користувачі продовжили ставити Grok політичні запитання — наприклад, хто з кандидатів кращий на посаду президента Польщі. Одного разу Grok навіть відповів, що, на його погляд, «Тшасковський здається кращим вибором на президента Польщі», ніж Менцен.

Фахівці попереджають, що такі можливості ШІ можуть кардинально змінити хід публічної дискусії. Як зазначила в коментарі для Demagog докторка соціології Агнєшка Зєнтек з Університету Марії Кюрі-Склодовської в Любліні: «Генеративний ШІ змінює правила гри. Він може посилити демократію, але лише тоді, коли буде вбудований у цінності прозорості, плюралізму та відповідальності. Якщо ж не подбати про етику, освіту й належне регулювання — нас чекає епоха автоматизованої масової пропаганди».

Водночас професор інформатики Варшавського університету Пйотр Санковський зауважив, що ШІ може бути справжнім інструментом перевірки фактів — за умови, що його моделі будуть тренуватися на правдивих даних. Проте він попереджає про можливі ризики: «Організації, які конструюють ці моделі, можуть навмисно маніпулювати інформацією, на якій їх тренують, аби вона не відповідала дійсності».

Центр досліджень «Детектора медіа» проаналізував, як п'ять найпопулярніших чатботів, включно із Grok, відповідають на упереджені запити чи запити без відповіді. Що з того вийшло, читайте за посиланням.

Автор: Олексій Півторак,

«Ви записані на прийом». Ще одна фішингова смс-розсилка для викрадення ваших даних

Шахраї вигадали нову фішингову схему. Вони розсилають смс із текстом «Ви записані на прийом». Про це повідомили в Центрі протидії дезінформації при Раді національної безпеки і оборони України.

У повідомленнях навмисно не зазначають, на який саме прийом нібито записано користувача. Це робиться для того, щоб люди з цікавості натиснули на прикріплене посилання.

«Якщо перейти за таким посиланням, зловмисники можуть отримати повний доступ до вашого телефона: особистих даних, фото, паролів та банківських додатків», — попереджають у Центрі.

Фахівці закликають українців бути уважними та обережними: «У жодному разі не переходьте за підозрілими лінками з SMS від невідомих користувачів, не вводьте свої дані на невідомих сайтах та блокуйте відправника таких повідомлень».

Більше про фішингові атаки, які зафіксували фактчекери і представники держави, читайте за посиланням.

Автор: Олексій Півторак,

Фактчекери викрили фейк про «масові протести» в Україні, який поширюють у німецькомовному сегменті соцмереж

Фактчекери з австрійського проєкту «Mimikama» спростували поширене в німецькомовних соцмережах відео, в якому нібито показані масові протести українців проти президента Володимира Зеленського. Насправді автори фейку використали кадри понад десятирічної давності — з часів Революції гідності 2013–2014 років.

«Alte Bilder, neue Lügen» — так назвали цей випадок автори розслідування, що перекладається як «Старі фото — нова брехня».

У ролику показані начебто багатотисячні мітинги в Києві, Львові та Одесі з коментарями про нібито «повстання народу проти Зеленського». Проте фактчекери наголошують, що більшість із зображень стосуються подій 2013-2014 років.

Кілька фото з відео дійсно зроблені у 2023 році — але це невеликі акції у грудні, під час яких вимагали демобілізації військових.

«Немає жодних доказів сучасних загальнонаціональних масових протестів», — пишуть у Mimikama.

Мета цього фейку — посіяти сумніви в легітимності президента Зеленського. Автори відео просувають наративи про те, що буцімто «українці його більше не підтримують» і «вибори не проводилися». Втім, фактчекери нагадують, що в Україні діє воєнний стан, а за міжнародними нормами у такій ситуації вибори законно відкладаються.

Згідно з даними Київського міжнародного інституту соціології, оприлюдненими у березні 2025 року, рівень довіри до президента Зеленського в лютому 2025 року становив 57%.

Конспірологічні теорії Теорія змови про «еліксир молодості» і вигаданий російський спецзагін «Адренохром» у Гренландії

Балканські фактчекери з проєкту «Вистиномер» викрили чергову теорію змови, яка активно поширюється в соцмережах. Йдеться про фейкову історію про те, що нібито російські військові на Гренландії виявили масові поховання дітей, яких катували з метою добування адренохрому — так званого «еліксиру молодості».

У публікаціях стверджувалося, що начебто «елітний підрозділ Путіна під назвою "Адренохром"» виявив «масові могили з понівеченими тілами дітей», а один з військових нібито назвав це місце «різнею невинності». Автори фейкової теорії також писали, що Гренландія нібито була «нервовим центром глобальної торгівлі дітьми».

Однак фактчекери наголошують: це повна вигадка. «Не існує жодного російського елітного підрозділу "Адренохром" на Гренландії. На острові немає жодних російських військових. Оборона Гренландії — відповідальність Королівства Данія», — підкреслили у «Вистиномер».

Теорія про адренохром — одна з найпоширеніших конспірологічних вигадок, яку роками просувають прихильники руху QAnon. Раніше схожі фейки вже поширювалися щодо України, а також у США — наприклад, у 2020 році в мережі вигадували історію про нібито знайдену в магазині Abercrombie & Fitch лабораторію для добування адренохрому. Усі ці історії неодноразово спростовували світові фактчекери.

«Ідея про те, що адренохром необхідно добувати з живої людини, не має жодного наукового підґрунтя. Це сюжет з художніх книг і фільмів, зокрема з фільму "Страх і ненависть у Лас-Вегасі"», — пояснюють фактчекери.

Насправді адренохром — це хімічна сполука з формулою C9H9NO3, яка утворюється шляхом окислення адреналіну. Вона використовується в медицині як засіб для зупинки кровотеч. Твердження про її «омолоджувальні властивості» є нічим не підтвердженою вигадкою.

«Якби на Гренландії справді виявили масове поховання дітей, це стало б новиною номер один у світі. Ми не знайшли жодного авторитетного джерела, яке б це підтвердило», — резюмували у «Вистиномер».

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.