Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

04 Липня станом на 1226 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
774
Меседж
559
Викриття
Русскій фейк, іді на***!

Чергові фейкові обкладинки Charlie Hebdo

Російські пропагандистські телеграм-канали продовжують поширювати підробні обкладинки французького сатиричного журналу Charlie Hebdo. Цього разу агітпроп використав як інформаційні приводи для створення підробок зустріч лідерів Туреччини та Вірменії, а також проведення в російському Санкт-Петербурзі економічного форуму. «Детектор медіа» дослідив свіжі приклади підробок.  

Скриншот телеграм-каналу, що поширив фейкову обкладинку Charlie Hebdo

Пропагандисти висміювали візит прем'єр-міністр Вірменії Нікола Пашиняна до Туреччини 20 червня з метою налагодження дипломатичних відносин на тлі бойових дій між Ізраїлем та Іраном. Західні медіа (BBC, Deutche Welle, RFI) називали цей візит «історичним», натомість підробна карикатура намагалася зобразити дії Пашиняна перед Ердоганом як «плазування». Перевірка офіційного сайту Charlie Hebdo показала, що випуску журналу за 24 червня, яке вказано на підробній обкладинці, просто не існує. 

Скриншот пропагандистського телеграм-каналу, який поширив фейкову обкладинку Charlie Hebdo

Інший приклад маніпуляції стосувався обкладинки, яка зображає лідерів держав G7, які нібито із «заздрістю» споглядають через паркан на проведення у Санкт-Петербурзі Міжнародного економічного форуму. Як повідомляло Financial Times, Росії не вдалося запросити до участі у форумі західні компанії. При цьому пропагандисти для карикатури використали давніший склад лідерів «Великої сімки», адже на підробній карикатурі канцлеркою Німеччини зображена ще Ангела Меркель, лідером Франції — Франсуа Олланд, президентом США — Барак Обама, а прем'єром Італії замість нинішньої Джорджі Мелоні зображено Романо Проді.

Скриншот офіційного сайту Charlie Hebdo із зображеннями справжніх обкладинок останніх номерів журналу

На офіційному сайті Charlie Hebdo також не вдалося виявити подібну обкладинку. Останні номери сатиричного видання на перших шпальтах містили карикатури на лідерів Ірану та США. 

На «Хроніках дезінформації» ми розповіли про понад 30 випадків поширень фейків начебто від імені Charlie Hebdo та сотню фейкових обкладинок відомих медіа. 

Шахраї розсилають фейкові листи від імені банків та податкової

Російські хакерські угруповання активно надсилають українцям підроблені сповіщення від імені податкової служби, «ПриватБанку», «бухгалтерії» чи «фінансового моніторингу». Ці листи містять PDF-файли з посиланням на архів або шкідливий файл. Після відкриття цих файлів на ваш пристрій непомітно встановлюється шпигунська програма, програмне забезпечення, яке дозволяє контролювати ваш комп'ютер віддалено.

Про розсилку фейкових повідомлень та їх небезпечність застерігають фахівці Лабораторії цифрової безпеки. Зловмисники обходять поштові фільтри та антивіруси, адаптуючи свої атаки до актуальних тем.

Приклад фейкового запиту від шахраїв. Джерело: Цифролаба

Як убезпечити себе:

  • Не відкривайте підозрілі листи.
  • Не натискайте та посилання та/або вкладені до підозрілих листів файли. 
  • Завжди перевіряйте інформацію – телефонуйте до банку або податкової напряму, використовуючи офіційні номери.
  • Попередьте своїх близьких, оскільки ці кампанії є масовими.

Фейк: українці «зізналися» у підриві Каховської ГЕС — як Росія перекладає провину за свій злочин

Російські медіа, проросійські телеграм-канали та блогери активно поширюють дезінформацію про те, що Україна нібито «зізналася» в руйнуванні Каховської греблі у 2023 році. Однак, як показують фактчекери StopFake у розслідуванні цього кейсу, так і міжнародні розслідування, — підрив Каховської ГЕС є актом екоциду та воєнним злочином, скоєним Росією з метою зриву українського контрнаступу.

Скриншот телеграм-каналу, що поширює фейк. Джерело: StopFake

Нинішній фейк з'явився після інтерв'ю блогера та громадянина Ізраїлю Арті Гріна, який раніше брав участь у бойових діях на боці ЗСУ. У розмові з іншим блогером Грін нібито заявив, що «підрив Каховської ГЕС був необхідний» і що він був здійснений українською стороною з тактичних міркувань. Пропагандисти вирвали ці слова з контексту, представивши їх як офіційне визнання України винною в руйнуванні греблі у червні 2023 року.

Спростування фейку:

  • Неофіційний статус джерела. Арті Грін є блогером та колишнім добровольцем, а не офіційною особою, яка представляє Україну, ЗСУ чи будь-які державні інституції. Його слова не відображають офіційну позицію України. Більше того, його вже неодноразово помічали в поширенні сумнівної інформації.
  • Маніпуляція контекстом. Насправді Арті Грін в інтерв'ю говорив про підрив моста, який вів до ГЕС, здійснений українськими силами за рік до трагедії з дамбою. Ці дії ЗСУ мали оборонний характер і не призвели до руйнування самої ГЕС. Катастрофа 2023 року стала результатом окремої диверсії Росії.
  • Докази відповідальності Росії. За даними української влади, розвідки та міжнародних джерел, відповідальність за підрив Каховської ГЕС повністю лежить на російських військових. Вони замінували та підірвали греблю, щоб зупинити український контрнаступ та спровокувати гуманітарну катастрофу.
  • Розслідування New York Times за участі американських та українських інженерів підтвердило, що руйнація була спричинена внутрішнім вибухом у технічному тунелі біля основи греблі. Конструкція ГЕС була розрахована на зовнішні удари, але не на детонацію зсередини. Супутникові знімки показали, що перед підривом російські війська мінували об’єкт, а в машинному залі фіксувалися переміщення військових із вантажами.

Підрив Каховської ГЕС є актом екоциду та воєнним злочином Росії. Докази включають інженерні експертизи, перехоплені повідомлення, супутникові дані та свідчення місцевих жителів. Наслідки цієї катастрофи мають довгостроковий характер, від гуманітарної кризи до незворотної шкоди екосистемі півдня України. 

Цей фейк є частиною спроб російської пропаганди перекласти провину за екоцид і руйнування Каховської ГЕС з Росії на Україну, підірвати довіру до України на міжнародній арені та поставити під сумнів докази відповідальності Росії.

Фейкові зображення поширюються соціальними мережами після атаки США на Іран. Як відрізнити справжні кадри від підробних

Зображення та відео вибухів, пожеж, протестів та різноманітних типів озброєння активно поширювалися після початку атаки Ізраїлю на Іран і стали вірусними після удару Сполучених Штатів 21 червня по трьох іранських ядерних об'єктах. Але багато з них не показували того, що насправді відбувалося. Натомість вони були згенеровані штучним інтелектом, вирвані з контексту або записані з відеоігор чи авіасимуляторів. Багато з них були поширені акаунтами X із синіми галочками, які раніше асоціювалися з акаунтами людей або організацій з підтвердженою ідентичністю, але тепер їх можна придбати. Видання PolitiFact перевірило деякі оманливі зображення та відео про атаку США та реакцію на неї.

Згенеровані ШІ зображення часто містять візуальні невідповідності

Акаунт із синьою галочкою на X під назвою "Ukraine Front Line" опублікував 22 червня відео, яке показує блискавку, що вдаряє у стовп диму, після вибуху. Підпис попереджав про ядерну війну: «Будь ласка, зверніть увагу на блискавку! Це найвірніша ознака того, що вибух справді був ядерним». Але відео не показує реальну подію. Воно було завантажене 18 червня на ютуб з підписом «ai video». В описі акаунту зазначено: «Всі відео на цьому каналі створені за допомогою штучного інтелекту».

Деякі генеративні моделі ШІ дозволяють людям писати запити для створення реалістичних відео, і результати стають усе більш досконалими. Але вони не ідеальні, і уважний погляд на відео часто виявить візуальні невідповідності. Одне відео з підписом «Готуємося до (сьогоднішнього) удару» показувало вантажівки з іранськими прапорами, що везуть ракети. Ближчий погляд показав, що лінії на дорозі були нерівними, шина на другій вантажівці, здавалося, мала вирваний шматок, і символи на прапорах також не відповідали справжньому іранському прапору.

Хані Фарід, професор Каліфорнійського університету в Берклі, який спеціалізується на цифровій криміналістиці, написав у LinkedIn, що багато згенерованих ШІ відео часто тривають вісім секунд чи менше або складаються з восьмисекундних кліпів, змонтованих разом. Це тому, що Google Veo 3, модель перетворення тексту на відео, має обмеження у вісім секунд. Деякі відео мають видимі водяні знаки, але користувачі можуть їх обрізати.

Під час цієї війни і проізраїльські, і проіранські акаунти поширювали зображення ШІ. Емманюель Саліба, головний офіцер з розслідувань компанії цифрової криміналістики Get Real Labs, сказала BBC Verify, що це «перший раз, коли ми побачили генеративний ШІ, який використовується в такому масштабі під час збройного конфлікту».

Дезінформатори продовжують поширювати старі зображення та відео поза контекстом

Поряд зі збільшенням використання ШІ не бракувало зображень та відео, які поширювалися з неправильним контекстом.

«Масові протести спалахнули по всій Америці, коли громадяни вийшли на вулиці в обуренні після того, як США завдали удару по Ірану», — таким був підпис до публікації в X від 22 червня. Але відео було завантажено 14 червня, в день протестів «No Kings» по всій країні.

Приклад використання реального контенту для створення фейкових повідомлень. Джерело: PolitiFact

Інше відео в X, поширене вночі після атак США, показувало великий стовп вогню та диму. «Більше кадрів БОМБ, що падають на Іран раніше», — таким був підпис до відео. Але це неправда; відео було взято з новини про атаку українських безпілотників у 2024 році.

Зворотний пошук зображень може розкрити, чи публікувалося відео в інтернеті раніше і який був оригінальний контекст. Інструменти як Google Lens та TinEye можуть показати, де зображення або відео поширювалися на платформах, хто їх публікував і коли була зроблена найраніша публікація. Підписи до зображень, опублікованих новинними виданнями, ймовірно, покажуть, коли і де вони були зроблені.

Кадри з відеоігор використовують сценарії попередніх конфліктів

Зображення, записані з авіасимуляторів та військових відеоігор, також неправильно представляють конфлікт. «Це B2 Spirit Stealth Bomber злітає в Каліфорнії!» — із таким підписом був зроблений пост у X від 21 червня акаунту з синьою галочкою, перед атакою на Іран. За винятком того, що це не був справжній бомбардувальник B2. Перевірка водяного знаку відео веде до акаунту в тіктоку, який опублікував відео 15 травня з хештегом #microsoftflightsimulator, симуляційною грою, доступною на Xbox.

Геймплей з відеогри «Arma» також піддається неправильному використанню під час збройних конфліктів. PolitiFact перевірив твердження, які використовували кадри «Arma» під час війни Росії з Україною та війни Ізраїлю з ХАМАСом. Пошук за ключовими словами на відеоплатформах, таких як ютуб, може показати, чи відповідають відео кадрам з відеоігор, які раніше були завантажені.

Прості способи аналізу акаунтів на предмет надійності

Перевірка профілю та біографії акаунту допоможе розкрити, чи є він надійним. Багато хибних та оманливих тверджень надходили від акаунтів з іранським прапором як фото профілю та іменами, які можна сплутати з тими, що дають легітимні новинні оновлення.

Такі акаунти включають «Iran Updaes Commentary» (з помилкою) та «Iran News Daily Commentary». Інший акаунт — з синьою галочкою — називається «Iran's Reply».

Скриншоти акаунтів на Х, що поширюють маніпулятивний та ШІ-генерований контент. Джерело: PolitiFact

Але вони не пов'язані з іранським урядом або будь-яким надійним джерелом. PolitiFact виявив, що публікації на цих акаунтах отримують сотні тисяч, якщо не мільйони переглядів, але містять низькоякісний контент, такий як згенеровані ШІ зображення.

Авторка публікації на PolitiFact —  Loreben Tuquero

Фейк: арешт поляків в Україні нібито за зберігання польської символіки

У фейсбуці, телеграмі, а згодом й у польськомовних соціальних мережах активно поширювався відеозапис, який нібито демонструє арешт групи поляків в Україні співробітниками Служби безпеки України (СБУ). В описі до відео стверджується, що причиною затримання стала наявність у затриманих польської національної символіки. На одному популярному профілі у фейсбук відеозапис набрав понад 616 000 переглядів. Відео поділився, серед інших, член парламенту Польщі від партії Конфедерація Анджей Запаловський (Andrzej Zapałowski). Однак, як встановили польські фактчекери Demagog, цей запис є сфабрикованим та частиною провокації, спрямованої на розпалювання ворожнечі між поляками та українцями.

Скриншот акаунту у фейсбуці, який поширив сфабриковане відео. Джерело: Demagog

Дослідники наводять наступні аргументи для розвінчання маніпуляції:

Відсутність офіційних підтверджень затримання. На офіційному сайті СБУ та в соціальних мережах (українською чи англійською мовами) немає жодної інформації чи відеозаписів, що стосуються цієї події. Крім того, у жодному авторитетному українському медіа фактчекери також не знайшли повідомлень, які б підтверджували, що таке затримання відбулося насправді.

Підозрілі деталі відео. Сервіси зворотного пошуку зображень (TinEye та GoogleImages) не дозволили встановити походження відеозапису. У відео також відсутня польська мова. На відеозаписі, попри нібито арешт поляків, не пролунало жодного слова польською мовою. 

Професор університету Миколи Коперника в Торуні Роман Бекер, у коментарі польському суспільному телеканалу (TVP) щодо цього відео, перелічив кілька неточностей: «Я припускаю, що люди зображені на відео не знали польської мови, а польський прапор (розміщений на розфарбованому та подряпаному вікні) та табличка з текстом «Мазурек Домбровський» були навмисно виставлені на показ». Експерт також вказав на відсутність безперервності у зйомці, як ознаку монтажу, та на те, що коли люди у формі заходять до кімнати, ті, кого вони мають затримувати, вже лежать на підлозі.

Подібні сфабриковані відео є класичним прикладом російських інформаційно-психологічних операцій. Їхня мета – посіяти розбрат, недовіру та взаємну неприязнь між українцями та поляками.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.