Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

07 Травня станом на 1168 день повномасштабної війни наша редакція зафіксувала:

2733
Фейк
817
Маніпуляція
774
Меседж
559
Викриття
Русскій фейк, іді на***!

Обсяг створеної ШІ дезінформації може перевищити можливості їй протидіяти. Новий звіт DFRLab

Зловмисники використовують швидкий розвиток генеративного штучного інтелекту для створення синтетичних медіа, що полегшує їм діяльність. Ця тенденція трансформує створення візуального контенту для обманних цілей і можливо ускладнює ідентифікацію медіа, створеного за допомогою ШІ. Хоча експерти та користувачі часто можуть виявляти характерні шаблони в такому контенті, останні випадки реалістичних зображень і дипфейків з різних куточків світу свідчать про те, з якою легкістю зловмисники можуть створювати та поширювати оманливий візуальний контент. У звіті DFRLab зосередилася на ролі візуальних генеративних моделей у створенні зображень профілів, щоб зрозуміти прогрес інструментів ШІ та дослідити їхнє використання в майбутніх операціях впливу.

Нижче переповідаємо ключове зі звіту DFRLab

Генеративний штучний інтелект та дифузійні моделі

Технологія генеративного штучного інтелекту, яка дозволяє створювати різні типи контенту на основі навчальних даних, існує вже десятиліттями. Однак поява генеративно-конкурентних мереж (GAN) стала поворотним моментом, оскільки ці просунуті моделі машинного навчання значно покращили та демократизували створення синтетичних медіа, які можуть бути фотореалістичними та невідрізними від створених людьми.

Крім того, досягнення в багатомодальних системах ШІ, що лежать в основі таких інструментів, як Midjourney, Dall-E та Stable Diffusion, та їхній дешевий або безкоштовний доступ дали користувачам доступ до створення зображень і відео з текстових описів.
Далі DFRLab розповідає про підвид моделей машинного навчання дифузційні дифузійні моделі. І їх роль у поширенні неавтентичного контенту.

This Person Does Not Exist

До широкого поширення дифузійних моделей дослідники документували використання генеративно-конкурентної мережі (GAN) для створення високоякісних синтетичних облич. Вони широко використовувалися для генерації зображень профілів неавтентичними акаунтами в різних онлайн-операціях, від комерційної діяльності до політичної пропаганди. Однак з ростом уваги до цих тактик дослідники та користувачі навчилися розпізнавати поширені помилки та шаблони, які видавали походження таких зображень.

Запущений у 2019 році проект ThisPersonDoesNotExist.com, заснований на популярній архітектурі StyleGAN (а пізніше StyleGAN2), знайшов широке застосування в обманних кампаніях. Як свідчить назва, ThisPersonDoesNotExist навчався на наборі даних людських фігур і міг генерувати унікальні синтетичні зображення неіснуючих людей.

GAN проти дифузійних моделей проти мультимодальних моделей

На відміну від GAN, які просто продають зображення користувачам, сучасні інструменти на основі дифузії надають здавалося б необмежений художній контроль. Текстово-графічний формат генерації зображень дозволяє точно контролювати деталі зображення. Деякі дифузійні моделі, такі як Midjourney, дозволяють користувачам налаштовувати навіть найдрібніші деталі зображення та його суб'єктів; ці тонкі деталі часто видавали автентичність зображення GAN.

Приклади використання неавтентичних зображень для поширення інформації, які виділяють DFRLab:

1. Проукраїнські акаунти на COP28

Перед самітом ООН COP28 з питань клімату, який відбувся наприкінці 2023 року в Об'єднаних Арабських Еміратах (ОАЕ), неавтентична мережа в X використовувала суміш GAN-генеруваних і можливо мультимодальних зображень профілів для просування президента саміту Султана Аль-Джабера. DFRLab документувала випадки, які підкреслюють роль синтетичних зображень у кампанії, сигналізуючи про раннє прийняття останнього покоління інструментів ШІ.

2. Неавтентичні акаунти Facebook підривають проєвропейський уряд Молдови

Неавтентична рекламна кампанія в Facebook, спрямована на підрив проєвропейського уряду Молдови та просування проросійської партії країни, слугує ще одним прикладом розвитку використання мультимодальних моделей. У цій кампанії використовувалися такі інструменти, як DALL-E 2, для створення синтетичних зображень профілів, які не тільки показували обличчя, але й включали верхню частину тіла, щоб виглядати більш реалістично.

3. STOIC: неавтентична кампанія? націлена наамериканців і канадців

Розслідування DFRLab виявило спробу створити здавалося б реалістичні профілі X через синтетичні зображення профілів на основі дифузії. Кампанія, приписувана ізраїльській маркетинговій фірмі STOIC і профінансована Міністерством діаспори Ізраїлю, використовувала як GAN-генерувані зображення, так і зображення, створені дифузійними моделями.

4. Проізраїльські "користувачі" X видають себе за американців і канадців

DFRLab виявила проізраїльську мережу в X, яка використовувала як GAN-генерувані, так і гіперреалістичні зображення профілів, щоб видавати себе за американців і канадців. Хоча ця мережа не має зв'язків зі STOIC, вона використовувала схожі текстово-графічні моделі для створення аватарів.

5. Інструменти ШІ використовувалися в Кенії, щоб дискредитувати протестувальників і стверджувати про російські зв'язки

Після протестів у Кенії влітку 2024 року DFRLab виявила операцію впливу, яка використовувала зображення, створені ШІ, на яких зображені молоді кенійці, які протестують з російськими прапорами та одностатеві пари, які цілуються, у спробі дискредитувати протести.

Підходи до протидії

1. Виявлення візуальних шаблонів

Зображення, створені дифузійними моделями, мають дещо однорідну естетику, часто кінематографічні, з якістю малюнка та високим контрастом і м'яким освітленням. Вони часто виглядають «жахливими» або «занадто досконалими», з ідеалізованими нормами краси та нереалістично однорідними текстурами шкіри. Фони часто виглядають загальними та розмитими, а одяг і руки можуть містити артефакти.

2. Боротьба із дипфейками

Дипфейки — це складний синтетичний медіаконтент, створений ШІ, де зловмисники змінюють візуальні матеріали, щоб зобразити осіб в уявних сценаріях. Такі тактики використовуються для криптовалютних шахрайств, порнографії, політичної пропаганди та нападів на політиків.

Погляд у майбутнє

Зловмисники тепер мають під руками дешеві інструменти для швидкого створення різноманітного та цілеспрямованого медіаконтенту. Хоча методи перевірки розвиваються, у DFRLab припускають, що обсяг дезінформації може перевищити можливості виявлення, створюючи тривожне майбутнє.

100 днів Трампа на посаді. Американські фактчекери розповіли, як політик втілює передвиборчі обіцянки

Повернення Дональда Трампа до Білого дому у 2025 році ознаменувалося стрімкими змінами. У перші 100 днів другого президентського терміну він запровадив масштабні реформи в економіці, імміграції та зовнішній політиці. Втім, попри обіцянки «найуспішніших 100 днів в історії США», частина ініціатив Трампа зазнала юридичних і політичних труднощів. Обіцянки Трампа проаналізували аналітики FactCheck.org.

Митні тарифи: удар по імпорту — і по гаманцях американців

У квітні Трамп виконав свою передвиборчу обіцянку — запровадив 10% універсальний тариф на імпорт товарів. Для деяких країн, зокрема Китаю, тарифи зросли до 145%, попри те що ці податки фактично оплачують американські імпортери. Зростання тарифів викликало падіння фондових індексів, що змусило адміністрацію тимчасово призупинити підвищення ставок на 90 днів (крім Китаю). Також зберігаються старі 25% тарифи на сталь, алюміній, автомобілі та запчастини.

Війна в Україні: мир за 24 години виявився жартом

Трамп десятки разів заявляв, що зможе «завершити війну в Україні за один день». Але за понад три місяці при владі конфлікт триває. У березні загинули щонайменше 160 українських цивільних, понад 900 були поранені. Попри посередництво США в перемовинах, президент США то звинувачував Зеленського, то засуджував Путіна за атаки під час перемир’я. Нещодавно держсекретар Марко Рубіо заявив про «обережний оптимізм» щодо перемовин, але пригрозив припинити підтримку, якщо війна затягнеться. Сам Трамп зізнався, що його слова про «день» були перебільшенням і «жартом».

Імміграція: жорсткий контроль, але ціною судових процесів

Ще в день інавгурації Трамп оголосив надзвичайний стан на кордоні та відправив військових. У лютому-березні незаконні перетини кордону скоротились на понад 80%, а лише 9 мігрантів були звільнені в США за два з половиною місяці — рекордно низький показник. Але правозахисники вказують на незаконність обмеження права на притулок. Трамп також запустив масштабну програму депортацій (135 тис. осіб), хоча обіцяного мільйона ще не досяг. Щоб прискорити процес, він використав закон 1798 року, але Верховний суд тимчасово зупинив його застосування.

Право на громадянство: указ під загрозою скасування

20 січня Трамп підписав указ, яким скасовується автоматичне громадянство дітям нелегальних мігрантів, народженим у США. Судді в чотирьох штатах вже заблокували дію документа, а остаточне рішення чекають від Верховного суду влітку. Більшість конституціоналістів вважають, що така зміна можлива лише через поправку до Конституції.

Економіка: не той «Трамп-ефект», який обіцяли

Трамп приписує собі зростання ринку, але вже через три місяці індекси Dow Jones, S&P 500 і Nasdaq втратили 7,5%, 8% і 11,5% відповідно. Президент почав говорити про «довгострокову перспективу», заявивши, що «не можна судити по кварталах».

Ціни та інфляція: зростання триває

Трамп обіцяв «знизити ціни з першого дня». Але в березні споживчі ціни на продукти знову зросли, незважаючи на падіння оптових. Ціни на бензин також не знизились. Хоча інфляція уповільнилася до 2,4% у річному вимірі, це означає лише, що зростання цін стало повільнішим, а не що вони знижуються. Аналітики попереджають: нові тарифи можуть знову пришвидшити інфляцію.

Фейк Марії Захарової, що 9 травня Україна і ЄС відродять нацизм

У черговому випуску пропагандистської програми «Время покажет» на російському «Першому каналі» речниця МЗС РФ Марія Захарова назвала заплановану на 9 травня зустріч президента України Володимира Зеленського з лідерами держав ЄС у Києві «реінкарнацією нацизму». На її думку, захід є не актом дипломатії, а «дипломатично-силовим заходом», який нібито пов’язаний із популяризацією нацистської символіки в Україні. Фейк пояснюють у StopFake.

Насправді, нічого спільного із нацизмом ця ініціатива не має. Як повідомив заступник глави Офісу президента Андрій Сибіга, який передав офіційні запрошення партнерам під час зустрічі голів МЗС ЄС у Люксембурзі, мета зустрічі — «демонстрація солідарності та рішучості перед обличчям найбільшої агресії в Європі з часів Другої світової війни».

Також варто наголосити, що подія 9 травня не пов’язана з Днем Перемоги — як в Україні, так і в країнах ЄС його відзначають 8 травня. А 9 травня у цих державах — це День Європи, що припадає на річницю Декларації Шумана 1950 року. Саме ця декларація започаткувала процес європейської інтеграції, що згодом привів до створення Європейського Союзу. Для України як країни-кандидатки це свято має глибокий символізм європейської єдності та спільного майбутнього.

Що ж до заяв про популяризацію нацистської символіки, то це також  неправда. В Україні з 2015 року діє закон «Про засудження комуністичного та націонал-соціалістичного (нацистського) тоталітарних режимів» та заборону їхньої символіки. Українське законодавство чітко засуджує будь-які прояви нацизму — на відміну від російських практик героїзації радянського минулого.

Мета таких заяв — дискредитувати міжнародну підтримку України та відвернути увагу від факту, що 9 травня в Москві проходитиме військовий парад, який дедалі більше виглядає ізольованим — адже більшість європейських лідерів проігнорують його. Єдиним підтвердженим учасником з ЄС поки є прем’єр-міністр Словаччини Роберт Фіцо.

Хіт-парад брехні від Марії Захарової читайте за посиланням.

Роль соцмереж у виборах прем’єра Канади: як дезінформація і блокування поширення новин від Meta вплинули на результат

28 квітня 2025 року лідер Ліберальної партії Марк Карні переміг на виборах прем’єр-міністра Канади, випередивши свого суперника з Консервативної партії П’єра Пуальєвра. Ключовою темою кампанії несподівано стала проблема суверенітету — на тлі суперечливих заяв колишнього президента США Дональда Трампа про бажаність Канади як «51-го штату Америки». У ситуації зростаючої міжнародної напруги та внутрішньої економічної кризи роль соціальних медіа у виборчому процесі виявилася критичною. У темі розібрались аналітики DFRLab.

Блокування новин Meta створило інформаційний вакуум

З червня 2023 року Meta заблокувала доступ до новин для користувачів у Канаді — у відповідь на закон Bill C-18, що зобов'язує техгігантів платити місцевим медіа за контент. Це рішення, яке залишилося чинним до дня виборів, призвело до серйозних змін у медіапейзажі: канадці бачили менше достовірної інформації, натомість переважала емоційна й часто маніпулятивна риторика.

«Ми спостерігали падіння новинного трафіку на понад 11 мільйонів переглядів щодня у Facebook та Instagram», — йдеться у звіті Media Ecosystem Observatory.

У січні 2025 року Meta також припинила програму фактчекінгу, що ще більше ускладнило боротьбу з фейками. Попри формальне партнерство з виборчою комісією Канади, компанія не змогла (чи не захотіла) заблокувати фальшиві новини — в той час як справжні джерела інформації залишались недоступними.

Штучний інтелект та шахрайство на основі фейкових ЗМІ

Кампанія, яка поєднувала використання ІІ, фейкових сайтів та шахрайських схем, поширювалась на платформах X (колишній Twitter) і Facebook. Зокрема, у мережі ширився фейковий інтерв’ю з Пуальєвром, де той нібито рекламує «Quantum AI» — шахрайську криптоплатформу.

Також виявлено щонайменше сім deepfake-відео з Марком Карні, стилізованих під інтерв’ю CBC або CTV, які перенаправляли користувачів на фішингові сайти. Фальшиві заголовки повідомляли, що Карні, Пуальєвр або Джагміт Сінг заарештовані чи поранені.

«25% опитаних канадців бачили ці фейкові новини, і хоча 59% розпізнали їх як підробку, інші могли сприйняти дезінформацію за правду», — зазначають у звіті CDMRN.

Роль Canada Proud та ботів на X

Правоконсервативна мережа Canada Proud виявилася потужним інструментом впливу: до виборів вона витратила близько 270 тисяч CAD на рекламу, що спрямовувалась проти Карні. Після офіційного початку виборчої кампанії платна реклама припинилась, але контент мережі продовжував ширитись у формі скриншотів, мемів та дописів — без жодних обмежень.

Паралельно, на платформі X діяла мережа ботів, що поширювали дезінформацію, спрямовану переважно проти Ліберальної партії. Особливої популярності набули фейкові зображення, що нібито пов’язували Карні з Джеффрі Епштейном і Гіслейн Максвелл — включаючи ІІ-згенеровані фото з басейнів та ресторанів.

Іноземне втручання: Китай, Індія та Росія

Хоча домінували внутрішні інформаційні кампанії, іноземне втручання теж було зафіксоване. Зокрема, китайський акаунт Youli-Youmian на WeChat — пов’язаний із Компартією Китаю — поширював маніпулятивні наративи, спрямовані на китайську діаспору Канади. Утім, аналітики CDMRN виявили, що Канада була лише одним із багатьох об’єктів його публікацій.

Також Китай, за повідомленням SITE, провів онлайн-кампанію проти кандидата-консерватора Джо Тея, який публічно підтримував демократичні рухи в Гонконгу.

Нові виклики для демократій

Аналітики наголошують: канадські вибори стали прикладом того, як цифрове середовище може викривлювати політичний процес. Поєднання алгоритмічного посилення, брак прозорості з боку платформ, маніпулятивного контенту й потенційного іноземного втручання створює серйозну загрозу для виборчої цілісності.

«Це не просто виклик безпеки — це виклик демократії», — підсумовує команда DFRLab.

«Польський вітер, польський атом і польське золото». Маніпуляції і погляди кандидатів у президенти Польщі на енергетику

Під час президентської кампанії в Польщі енергетика стала однією з найбільш суперечливих, але водночас об’єднуючих тем. Більшість кандидатів, які 18 ттравня позмагаються за посаду президента держави погоджуються, що енергія має бути «польською» — незалежною, стабільною і виробленою на місці. Проте є значні розбіжності щодо джерел цієї енергії. У деталях поглядів кандидатів розібрались фактчекери проєкту Demagog.pl.

Попри те, що, за даними Forum Energii, частка вугілля в енергобалансі Польщі знижується, воно досі забезпечує понад половину виробництва електроенергії. І хоча з фінансового погляду підтримка вугільних блоків уже скоро стане збитковою, деякі кандидати відкрито захищають вугілля. «Вугілля — це, панове, польське золото», — заявив Марек Якубяк під час дебатів у Коньських, повторивши міф про запаси вугілля на 900 років.

Його підтримує Кароль Навроцький із гаслом: «Федрувати, видобувати, розвивати». Григорій Браун теж не бачить майбутнього без вугілля: «Польща лежить на вугіллі, Польща стоїть на вугіллі». Славомір Менцен звинувачує ЄС у високих цінах на електроенергію і вважає, що без європейських регуляцій видобуток знову стане вигідним. Проте OKO.press вказує, що аргументи Менцена — маніпулятивні: польське вугілля дороге не через ЄС, а через об’єктивні економічні чинники.

Усіх прихильників вугілля об’єднує опозиція до Європейського Зеленого курсу. Але навіть скептики визнають, що президент не має повноважень скасовувати ухвалені в ЄС закони. «Акти права ЄС були ухвалені, бо політики так вирішили», — нагадує кандидат Марек Вох.

Разом з тим більшість кандидатів погоджуються: енергетична трансформація повинна бути справедливою. «Це не лише питання енергетики, а й традиції, гордості і місцевої ідентичності», — зазначив Рафал Тшасковський, говорячи про Сілезію. «Дитина шахтаря має такі ж права, як і дитина еколога», — підкреслив Сzymon Hołownia. А представниця лівих Магдалена Бєйат запевнила: «Відповідальність лівої президентки — зробити так, щоб трансформація не відбувалась коштом звичайних людей».

Більшість кандидатів також підтримують розвиток атомної енергетики. Сейм Польщі нещодавно виділив понад 60 млрд злотих на будівництво АЕС, і 92,5% опитаних громадян це схвалюють. Адріан Зандберг бачить в атомі ключ до незалежності: «Або ми дійсно швидко будуємо 8 ядерних блоків, або залежимо від диктатур». Він пропонує 15-річний план атомної індустрії — амбітніший, ніж урядовий, який передбачає лише дві АЕС до 2043 року.

Складнішою є ситуація з відновлюваними джерелами енергії. Шимон Головня назвав їх частиною «польського шляху»: «Польський вітер, польське сонце, польський атом». Рафал Тшасковський бачить у відновлювальних джерелах енергії прояв енергетичного патріотизму. Магдалена Бєйат хоче, щоб інвестиції в енергетику не враховувались у дефіциті бюджету ЄС.

Натомість Марек Якубяк назвав вітрову енергію «фантазією» і поширював неправду про морські вітрові станції. А Артур Бартушевич, відомий критик Зеленого курсу, брав участь у заході разом із прихильником псевдомедицини, де засуджував інвестиції у вітрову енергетику.

Попри науковий консенсус щодо зміни клімату, більшість поляків не вважають її пріоритетною темою виборів, свідчать дані соціологів із CBOS. Проте вона залишається викликом, який вимагає уваги політиків — незалежно від того, чи обирають вони «польський вітер», «польський атом» чи «польське золото».

Європейські фактчекери проаналізували, як Кремль намагається водити всіх за ніс своїми «перемир'ями»

Після більш як трьох років повномасштабної війни проти України, Кремль несподівано почав активно використовувати риторику миру. Проте ці заклики — не більше ніж цинічна маніпуляція, спрямована на перекладання відповідальності за війну на Україну та Європу. Водночас Москва розгортає нову хвилю історичного ревізіонізму напередодні 80-річчя завершення Другої світової війни. У темі розібрались аналітики EUvsDisinfo.

Хоча Росія й заявляє про бажання припинити бойові дії, її ракети продовжують нищити українські міста. Як зазначає звіт, Путін «нібито відкрив для себе слово “перемир’я”, але, схоже, не потрудився дізнатись його справжнє значення». У день оголошеного Кремлем «великоднього перемир’я» російські війська обстріляли Херсон, Миколаїв та Київ. Це стало ще одним прикладом того, як Москва «імітує мир заради війни».

Кремль також анонсував нове «перемир’я» на 8–10 травня — символічні дати для Росії, які Москва традиційно використовує для пропаганди. Водночас, у день оголошення цього кроку, внаслідок російської атаки безпілотником у Дніпропетровській області загинула 12-річна дівчинка.

Паралельно з військовими діями, пропагандистська машина РФ  працює над формуванням образу Путіна як «миротворця». ЗМІ підконтрольні Кремлю називають його кроки «жестами доброї волі», звинувачують Україну в саботажі миру, а також розповсюджують брехню про «терористичну державу Україну».

Європу в черговий раз зробили «винною» — Росія поширює хибну тезу, нібито ЄС блокує мирні ініціативи через «ненависть до РФ». Це звучить абсурдно, враховуючи щоденні погрози Москви на адресу європейських країн, зокрема погрози ядерною атакою.

Окрему увагу Кремль приділяє історії — з наближенням річниці закінчення Другої світової війни Москва активізувала спроби переписати минуле. Пропагандисти просувають міф, нібито тільки Росія боролась проти нацизму, викреслюючи внесок мільйонів українців у перемогу. «Кремль перетворив тему нацизму на інформаційну зброю», — підкреслюють аналітики.

Москва також намагається дискредитувати Європу, звинувачуючи її у «фальсифікації історії» та навіть у «поширенні нацистської ідеології в Україні». Ігнорування Заходом параду в Москві 9 травня подається як доказ «фашистського мислення ЄС».

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.