Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

08 Серпня станом на 1261 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
774
Меседж
559
Викриття
Русскій фейк, іді на***!

Підготовка до нового злочину: російська пропаганда вигадала фейк про пологовий будинок в Краматорську

Російські пропагандистські медіа поширюють неправдиву інформацію про нібито розміщення українських військових та «іноземного контингенту» в пологовому будинку міста Краматорськ. Це може свідчити про підготовку злочинного удару по цивільному об'єкту.

Про це повідомляє Центр протидії дезінформації.

За словами пропагандистів, військові нібито перебувають у пологовому разом із пацієнтками та медичним персоналом.

Українська сторона категорично заперечує ці звинувачення, називаючи їх черговою вигадкою кремлівської пропаганди. Такі фейки можуть слугувати «інформаційним алібі» — заздалегідь підготовленим виправданням для можливих атак російських військ на цивільні об'єкти. В 2022 році Росія вже обстрілювала пологовий будинок в Краматорську.

Тактика поширення брехні та звинувачень у бік України є системним інструментом російської інформаційної війни. Вона дозволяє Кремлю маніпулювати громадською думкою та намагатися легітимізувати свої злочинні дії, зокрема удари по цивільній інфраструктурі.

Фейк: Росія захопила у полон «високопоставлених британських офіцерів»

Кремлівські медіа поширили інформацію про те, що російський спецназ нібито захопив у полон двох високопосадових британських офіцерів – полковників Едварда Блейка та Річарда Керролла. ТАСС опублікував матеріал під заголовком «Найманці ЗСУ з Британії прибувають до Миколаєва та Херсона», посилаючись на норвезьке видання Steigan. Втім, як дослідили фактчекери The Insider, це фейк. 

Поширюване фото "полонених британських офіцерів", згенероване ШІ

Видання Steigan – це блог норвежця Пала Стейгана, який сам визнав, що не провів ретельної перевірки фактів і видалив публікацію про британських офіцерів 4 серпня, в той же день, коли її опублікував. Сам Стейган посилався на публікацію сайту coreinsightsintl.com від 2 серпня. Це сайт британської компанії з кібербезпеки з малою відвідуваністю – лише 750 переглядів за липень. Автор публікації – Гел Тернер, американський блогер з Нью-Джерсі, який відомий расистськими поглядами та запереченням Голокосту та який у 2010 році був засуджений за погрози федеральним суддям. Раніше Тернер поширював фейки про застосування хімічної зброї Україною.  

4 серпня російське видання EADaily опублікувало фото цих "полонених офіцерів" з британськими паспортами. Експертиза виявила очевидні ознаки підробки із використанням інструментів генеративного штучного інтелекту:

  • Порушення фізики – незрозуміло, які сили утримують паспорти в такому положенні
  • Неточна форма – однострої лише віддалено нагадують британські
  • Штучне освітлення – надто рівномірне, що видає роботу ШІ

Інформація про захоплення британських офіцерів не підтверджується жодними достовірними джерелами. Це дезінформація, створена за допомогою штучного інтелекту та поширена через мережу сумнівних блогерів і пропагандистських медіа.

П'ять способів розпізнати відео згенеровані штучним інтелектом

Фатіма Квадрі, фактчекер The FactCheckHub

Те, що ви бачите в інтернеті, може виявитися неправдою – в епоху штучного інтелекту він може легко вас обдурити.

Ця стаття допоможе вам навчитися розпізнавати відео, створені за допомогою таких інструментів, як DALL·E (який генерує зображення, часто змонтовані у відеопослідовності) та Veo (який створює цілі відеосцени за запитом).

З швидким розвитком штучного інтелекту інтернет наповнюється відеороликами, які виглядають справжніми, але насправді такими не є. Від фейкових інтерв'ю до синтетичних новинних сюжетів – діпфейки стали настільки складними для виявлення, що вже не видають себе незграбними посмішками чи скутими жестами. Тепер вони настільки переконливі, що для їх розпізнання потрібно більше, ніж просто помічати нерівності або дивні посмішки.

Такі інструменти, як DALL·E та Veo 3, можуть створювати приголомшливі візуальні ефекти та кінематографічні відео лише за простим запитом. Хоча ця технологія відкриває нові творчі можливості, вона також несе значні ризики. Проблема полягає в тому, що ці відео часто майже неможливо відрізнити від справжніх.

Скріншот відео з X

Наприклад, уважний розгляд відео, опублікованого користувачем X у червні, яке показувало журналістку, що повідомляє про повінь в нігерійському місті Абеокута, виявляє окремі, але показові ознаки створення штучним інтелектом. Попри людиноподібні рухи та природне звучання мови, деякі невідповідності видали підробку. Зокрема, під час швидкого повороту ведучої в її руці раптом з'явилася парасолька, хоча секундою раніше її там не було.

Крім того, її байдужа реакція на падіння людини поруч – інцидент, який зазвичай викликав би занепокоєння – також свідчить про неавтентичну людську поведінку у відео. Існує багато прикладів таких відео, які стали вірусними.

Скріншот відео з Facebook

Інший приклад – це відео, що показує обвал естакади. Хоча пейзаж і конструкція виглядають реалістично, поведінка білого автомобіля, що їде до обваленої ділянки, неправдоподібна – це не та поведінка, яку можна очікувати перед обличчям небезпеки.

Розпізнання контенту, створеного штучним інтелектом, – це не просто корисна навичка, це критично важлива навичка.

Шукайте візуальні аномалії

Відео, створені штучним інтелектом, хоча й стають дедалі досконалішими, часто виявляють свою штучну природу через тонкі збої та невідповідності. Зверніть увагу на дивне освітлення або невідповідні тіні, спотворені руки або пальці (поширене явище в перетвореннях зображення у відео DALL·E), неприродні рухи очей або кліпання, а також деформовані об'єкти на задньому плані.

В інструментах на кшталт Veo 3 роботоподібні рухи тіла, надто плавні переходи, змінені або незв'язні субтитри та звук, який звучить надто ідеально або не має фонового шуму, – все це може сигналізувати про синтетичний контент. Навіть складні сцени можуть містити об'єкти, які непослідовно розміщені або освітлені, тому ретельне спостереження є важливим.

Бездоганно, але це підробка

Veo, особливо в останній версії (Veo 3), може генерувати кінематографічні сцени з гіперреалізмом, але результати часто містять тонкі ознаки підробки. Зверніть увагу на надто ідеальні середовища, такі як бездоганно чисте небо, дзеркально гладка вода або неприродно плавний рух.

Переходи між сценами або кутами камери також можуть здаватися різкими або роботоподібними. Самі актори можуть не кліпати, не дихати або рухатися не зовсім природно, створюючи моторошне відчуття. Veo 3 навіть може створювати сценарії, які суперечать логіці або фізиці – подумайте про неймовірні події, бездоганних персонажів або фони з дивними повторюваними візерунками, які не належать до реальних умов.

Контекст також важливий. Veo 3, наприклад, є платним інструментом, тому раптовий потік коротких високоякісних відео навколо екстрених новин може сигналізувати про залучення штучного інтелекту.

Недавнім прикладом є аварія на естакаді в міста Насарава у центральній Нігерії, де циркулювали зображення, створені штучним інтелектом, щоб підтвердити це твердження. Однак The FactCheckHub виявив, що ці візуальні матеріали були оманливими.

Аналогічно, якщо відео нібито показує важливу подію, але про неї не повідомляє жодне авторитетне видання, це може бути тривожним сигналом.

Перевіряйте метадані

Такі інструменти, як InVID, можуть допомогти перевірити автентичність відео шляхом витягування метаданих, таких як часові позначки, GPS-координати та інформація про пристрій. Відео, створені штучним інтелектом, часто не містять цих даних або включають розпливчасті, загальні теги. Якщо у вас є доступ до оригінального файлу відео, перевірте його метадані на предмет таких ознак, як «Veo», «Gemini» або «Google AI».

Пам'ятайте, що метадані можуть бути видалені або змінені, тому це не повинно бути єдиним способом перевірки.

Використовуйте інструменти виявлення ШІ

Кілька інструментів можуть допомогти виявити медіаконтент, створений або змінений штучним інтелектом. Deepware Scanner призначений для виявлення дипфейкових змін обличчя, тоді як Hive Moderation використовує виявлення штучного інтелекту для позначення ймовірно синтетичних зображень або кадрів відео. InVID особливо корисний для перевірки відео, дозволяючи покадровий аналіз та витягування метаданих. Ще один зручний інструмент – AI or Not, який допомагає визначити, чи було зображення або відео створено за допомогою штучного інтелекту.

Шукайте дисклеймери

Деякі творці добровільно позначають або ставлять водяні знаки на контент, створений штучним інтелектом, тому варто уважно подивитися. Шукайте фрази на кшталт «створено за допомогою штучного інтелекту», «створено за допомогою DALL·E» або «Veo3» у підписах, назвах файлів або описах проєктів, особливо якщо вони містять мову у стилі запитів.

Google вбудовує як видимі, так і невидимі водяні знаки в кожне відео Veo 3. Ви можете помітити маленькі логотипи або текст «Створено штучним інтелектом» у кадрі. Більш тонко, відео Veo 3 містять SynthID – невидимий цифровий підпис, який можна виявити лише спеціалізованими інструментами. Хоча широка громадськість не має доступу до сканерів SynthID, деякі фактчекери та організації можуть використовувати їх для перевірки походження відео.

Висновок

Виявлення контенту, створеного штучним інтелектом, стає все складнішим, оскільки технологія продовжує розвиватися. Однак, поєднуючи пильне спостереження з правильними інструментами та ставлячи під сумнів контент, якому не вистачає достовірного контексту або джерел, ми можемо залишатися на крок попереду дезінформації, керованої штучним інтелектом. Пам'ятайте: бути поінформованим – це не лише споживання контенту, але і його перевірка.

Оригінал публікації на сайті The FactCheckHub

Відеофейк: підробний ролик Politico про роботу ТЦК

Пропагандистські телеграм-канали поширили підробний відеоролик нібито від видання Politico, в якому стверджується, що «у липні ТЦК стали на 72% частіше проникати у помешкання». З посиланням на начальника Одеського обласного Територіального центру комплектування та соціальної підтримки Юрія Пуйка пропагандисти заявили, що це дало змогу збільшити показники мобілізації на 25%.

Втім, аналіз «Детектора медіа» показав, що поширюваний ролик є сфальшованим. 

Скриншот телеграм-каналу, що поширив сфальшоване відео

Перевірка офіційного сайту Politico не виявила розслідувань чи публікацій про роботу ТЦК. У соцмережах як Politico, так і іншого медіа, що висвітлює європейську політику — Politico.EUROPE, зокрема сторінок у фейсбуку (Politico.EUROPE) та іксі (Politico.EUROPE) — подібних роликів також немає. 

Ба більше, стиль, який використали пропагандисти у підробному ролику, суттєво відрізняється від стилю справжніх роликів Politico та Politico.EUROPE. Білу букву P у червоному квадраті використано авторами анонімного телеграм-каналу, натомість оригінальне брендування містить повну назву видання у червоному кружечку. 

Приклад оригінального стилю та брендування яке використовує Politico
Приклад оригінального логотипа, який використовує Politico.EUROPE

Оригінальне відео за участі начальника Одеського обласного Територіального центру комплектування та соціальної підтримки Юрія Пуйка — це його інтерв'ю для медіа Ukrainian Witness від 23 вересня 2024 року. У ньому Пуйко не наводив згаданих пропагандистами цифр чи фактів. На відеоряд були накладені вигадані агітпропом показники мобілізації у відсотках. 

Скриншот з інтерв'ю Юрія Пуйка для Ukrainian Witness

Дезінформація та відеофейки спрямовані на дискредитацію роботи ТЦК використовуються російською пропагандою для посилення соціального напруження в Україні та зменшення боєздатності Сил оборони. 

Дезінформаційна кампанія Кремля до річниці Курської операції ЗСУ, — ЦПД

До річниці активних бойових дій у Курській області Росія посилила свою дезінформаційну кампанію. Ця кампанія має на меті дискредитувати Сили оборони України, викривлюючи реальність та представляючи їх як агресорів. Дану кампанію зафіксував Центр протидії дезінформації при РНБО. Детальніше із прогнозом загроз та кампаній впливу він ЦПД на першу половину серпня можна ознайомитися за посиланням

Джерело: телеграм-канал ЦПК

Пропаганда поширює такі наративи:

  • «Віроломне вторгнення окупантів». Російські пропагандисти та чиновники намагаються подати дії українських військових на території Росії як «вторгнення». Це відверта брехня, що ігнорує той факт, що Росія сама розв'язала повномасштабну війну та окупувала українські території.
  • Вигадані злочини. Посилено поширюються типові фейки про нібито масові розстріли мирного населення, вживання наркотиків та участь іноземних «найманців» з боку ЗСУ. Усі ці твердження не підкріплені жодними доказами та є повністю сфабрикованими.

Ця пропагандистська кампанія є спробою Кремля виправдати продовження війни та відвернути увагу від власних злочинів. Замість того, щоб визнати свою відповідальність за розв'язання конфлікту та численні злочини проти людяності на тимчасово окупованих територіях, російська влада намагається виставити Україну агресором.

Ці маніпуляції покликані деморалізувати українське суспільство, посіяти паніку та підірвати міжнародну підтримку України, спотворюючи саму суть конфлікту.

Фейк: Bolt у Польщі буцімто запустив послугу «українець для українця»

У соціальних мережах, зокрема фейсбуку та іксі, активно поширюється скриншот із застосунку Bolt з нібито новою послугою «українець для українця». Як стверджує один із користувачів, ця послуга мала би пропонувати дешевший проїзд, доступний виключно для громадян України. Зафіксовані коментарі у фейсбуку свідчать про те, що деякі користувачі повірили в цю інформацію та висловили обурення, сприйнявши її як дискримінацію поляків. Один з таких дописів в іксі набрав значної популярності, його переглянули понад 700 тисяч разів. Однак ця інформація є повністю сфабрикованою — фактчек провели фахівці польського порталу demagog.org.pl

Насправді це зображення є підробкою, а сама послуга — вигаданою. На офіційному сайті Bolt немає жодної інформації про таку послугу. Фактчекери Demagog створити новий акаунт у додатку для перевірки даного фейку. В додатку з обліковим записом, прив’язаним до українського номера телефону, опція «Українець для українця» була відсутня.

PR-менеджерка компанії Bolt Poland Мартина Курковська офіційно заявила, що Bolt ніколи не планував запроваджувати й не запроваджував такої категорії, та закликала не поширювати цю неправдиву інформацію. 

До того ж у назві вигаданої послуги на сфабрикованих знімках з екрану (Ukrainiec dla Ukraíńca) використано літеру «í», якої немає в польському алфавіті. Це є прямим доказом того, що зображення було відредаговано. 

Фейк про послугу «Українець для українця» є частиною ширшої хвилі дезінформації та маніпуляцій, що поширюється навколо української спільноти, яка проживає в Польщі. Такі вкиди мають на меті розпалити ворожнечу та посіяти недовіру. 

Фейк: Естонія нібито передасть ЗСУ консерви із м'яса хворих кабанів

Пропагандистські медіа й телеграм-канали поширили неправдиву інформацію про те, що Естонія нібито передасть Україні м’ясо диких кабанів, хворих на африканську чуму свиней (АЧС), у вигляді консервів для Збройних сил. Цей наратив є черговою маніпуляцією, спрямованою на дискредитацію союзників України. Його розвінчали фактчекери StopFake

Насправді інформація про передачу зараженого м’яса не відповідає дійсності. Пропагандисти свідомо спотворили суть заяви міністра регіонального розвитку та сільського господарства Естонії Хендріка Йоханнеса Терраса. Він справді виступив з пропозицією про викуп м’яса диких кабанів у мисливців. Однак ішлося виключно про здорових тварин, відстріляних у рамках заходів з боротьби із африканською чумою свиней (АЧС).

У заяві від 30 липня Хендрік Йоханнес Террас повідомив, що держава планує викупити 30% м’яса відстрелених кабанів, які не заражені АЧС. З цього м'яса передбачалося виготовити пів мільйона банок консервів, які потім будуть використані для потреб Сил оборони Естонії, а також передані Україні як державна продовольча допомога.

Керівник відділу здоров’я та благополуччя тварин у Департаменті сільського господарства та продовольства Естонії Олев Калда також підтвердив, що м’ясо тих тварин, у яких під час тестування був виявлений вірус АЧС, обов'язково утилізується і не використовується для переробки.

Поширення таких фейків має на меті створити враження, ніби Україні постачають небезпечні та непридатні продукти, що є частиною стратегії дезінформації, спрямованої на підрив міжнародної підтримки України.

У Радбезі ООН Китай заявив, що США призвели до війни в Україні, — російські ЗМІ просувають фейк

Російські видання, зокрема «Вести», «Комсомольская правда», Lenta.ru та «Газета.ru», переказали матеріал із китайського порталу Sohu, присвячений дискусії між представниками США та Китаю на брифінгу Ради Безпеки ООН та перекрутили його зміст. На це звернули увагу автори The Insider. У статті йшлося про те, як американська дипломатка Дороті Ші звинуватила Китай у постачанні Росії товарів подвійного призначення, які використовуються у виробництві безпілотників, зброї та військової техніки.

Російські ЗМІ, посилаючись на Sohu, стверджують, що заступник постпреда Китаю при ООН Ген Шуан «не лише уникнув пастки опонента, а й кількома словами змусив його замовкнути». За їхніми словами, Ген Шуан нібито спантеличив Ші питаннями про причини війни, російсько-американське протистояння та військову допомогу США Києву, після чого в залі запанувала тиша.

Насправді Sohu — це не ЗМІ, а китайська інтернет-платформа, яка агрегує новини з різних джерел, включно з авторитетними агентствами, як-от Сіньхуа, та користувацькими блогами, де перевіреність інформації не гарантується. Російська пропаганда часто використовує подібні платформи, видаючи блоги за «китайські видання».

Більшість статей на Sohu про виступ Ген Шуана лише переказують його промову з посиланням на Сіньхуа. У ній китайський дипломат різко критикує США за звинувачення, але не згадує «витоки» російського вторгнення в Україну чи американську підтримку Києва. Текст промови, опублікований на сайті місії КНР в ООН, підтверджує, що Ген Шуан звинуватив США у подвійних стандартах, зокрема через торгівлю з Росією, але не в допомозі Україні. Це узгоджується з офіційною трансляцією його виступу англійською мовою.

Водночас, як стверджують автори видання The Insider, на Sohu є статті, де Ген Шуану приписують більш агресивні висловлювання, написані в художньому стилі. Наприклад, одна з них стверджує, що його слова «прозвучали як грім», а представник США «тремтів, гортаючи документи». У матеріалі також ідеться про те, що з 65 мільярдів доларів американської допомоги Україні 37% пішло на «адміністративні витрати» Пентагону, а 55% — на премії оборонним підрядникам. Проте ці твердження, ймовірно, є думкою автора, а не цитатами дипломата. Джерелом вказана блог-платформа Baidu Baijiahao, де автор позиціює себе як «виробник військової техніки» та пише в розважальному стилі.

Інша стаття на Sohu приписує Ген Шуану слова про те, що США — «найбільший торговець зброєю та головний ініціатор конфлікту». Джерелом є платформа Toutiao, де статті, судячи з їхньої кількості (15–16 на день), ймовірно, генеруються штучним інтелектом.

Автор однієї з таких заміток посилається на китайські видання Global Times і «Женьмінь Жибао», але в жодному з них подібних тверджень немає. Це свідчить про маніпулятивний характер російських переказів, які використовують неперевірені блоги для просування пропаганди.

Видаючи блогові статті за позицію Китаю, Росія намагається створити ілюзію підтримки своїх дій з боку впливової держави, щоб послабити ізоляцію на міжнародній арені.

Фейки про нібито звинувачення Китаєм США у «розпалюванні війни» спрямовані на підрив довіри до західної підтримки України, зображуючи Вашингтон як головного винуватця війни.

Українці та британці готують «теракт» проти російського тіньового флоту — розвінчано фейк

Російська Служба зовнішньої розвідки (СЗР) знову поширила безпідставні звинувачення, стверджуючи, що Україна разом із західними союзниками, зокрема Великою Британією та країнами НАТО, готує диверсію проти російського танкера. За їхньою версією, планується «серйозна провокація» — підпал або розлив нафти з судна, щоб звинуватити Росію та посилити тиск на її танкерний флот, повідомляє Центр протидії дезінформації (ЦПД). У Москві заявляють, що до цієї операції нібито залучені українські силовики.

Скриншот ЦПД

Насправді ці звинувачення є вигадкою. Раніше СЗР уже робила схожі бездоказові заяви, зокрема про «підготовку Україною торпедної атаки на американське судно», що не підтвердилося.

Такі фейки Росія використовує, щоб очорнити Україну та її партнерів, виправдати проблеми свого тіньового флоту через санкції та перекласти відповідальність за можливі аварії, спричинені технічною несправністю суден, на «недружні країни».

ЦПД нагадує, що саме Росія неодноразово була причетна до диверсій у країнах ЄС і НАТО, зокрема в Балтійському морі. Центр уже спростовував подібні вигадки про «криваві провокації» України та Великої Британії, підкреслюючи, що Росія сама вдається до морських диверсій, щоб дискредитувати Україну та завадити підтримці її союзниками.

Такі вкиди спрямовані на те, щоб зобразити Україну та країни Заходу як агресорів, які нібито планують провокації. Це допомагає Росії формувати негативний імідж України на міжнародній арені. Фейки використовуються для мобілізації російського населення, посилення антизахідних настроїв і підтримки наративу про «оточену ворогами Росію».

Спростовано фейк про нібито захоплення росіянами КПП «Гоптівка» на Харківщині

Російські пропагандистські джерела почали поширювати неправдиву інформацію про нібито захоплення російськими військами контрольно-пропускного пункту «Гоптівка» на Харківщині. На це звернули увагу аналітики Центру протидії дезінформації.

Скриншот ЦПД

Місцева влада спростувала ці заяви, повідомивши, що українські військові успішно відбили спробу штурму. За словами начальника Дергачівської міської військової адміністрації Вячеслава Задоренка, російські окупанти дійсно намагалися атакувати КПП. Проте бійці 58-ї окремої мотопіхотної бригади дали відсіч, знищивши понад десять загарбників. Решта нападників змушені були відступити на територію Росії.

«Російська пропаганда почала поширювати фейки про те, що армія окупантів нібито захопила КПП «Гоптівка». Оскільки ця новина починає набирати суспільного резонансу, вважаю необхідним повідомити вам про те, що окупанти дійсно здійснили штурм цього контрольно-пропускного пункту. У результаті бійці 58-ї окремої мотопіхотної бригади ліквідували більше десяти загарбників, а десятки інших втекли назад до росії», — зазначив Задоренко.

Поширюючи фейки про «перемоги», Росія намагається приховати власні військові провали, як-от невдалу спробу штурму, про що свідчить відступ окупантів після атаки на КПП.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.