Spilnota Detector Media

Фейк: українці брали участь в організації теракту в Парижі

У соціальних мережах поширюється публікація, в якій стверджується, що французьке видання Le Figaro нібито повідомило про участь українських біженців в організації теракту в штаб-квартирі Bank of America в Парижі. Повідомлення супроводжується відеороликом, стилізованим під новинний сюжет з логотипом медіа, що має створити враження достовірності. Насправді ця інформація є неправдивою.

Про це повідомляє StopFake.

Відео, яке активно розповсюджують у мережі, ймовірно, було створене за допомогою інструментів штучного інтелекту та не має жодного стосунку до реального контенту видання.

На офіційних ресурсах Le Figaro, зокрема на сайті та у верифікованих акаунтах у соцмережах (іксі, інстаграмі, фейсбуку і тіктоку), немає жодних згадок про подібний інцидент. Сам ролик лише імітує стиль новин, але не відповідає стандартам оформлення матеріалів медіа.

Зокрема, у відео не вказані типові для журналістських сюжетів елементи — дата, місце події та рубрика. Викликає сумнів і мова: ролик поширюється англійською, тоді як основний контент Le Figaro публікується французькою.

Жодне авторитетне міжнародне медіа, французькі державні органи чи офіційні особи також не повідомляли про причетність громадян України до підготовки цього злочину. Відсутність підтверджень із надійних джерел є ключовою ознакою дезінформації.

Натомість французька прокуратура з боротьби з тероризмом заявила, що четверо підозрюваних у справі про спробу теракту пов’язані з проіранським угрупованням HAYI.

Відомо, що 28 березня французька поліція затримала чоловіка, який встановив саморобний вибуховий пристрій біля будівлі американського банку в Парижі. Справу розслідують як спробу теракту. За інформацією агентства AFP, затриманий повідомив, що був завербований через соціальну мережу Snapchat і мав отримати 600 євро за організацію вибуху. Разом із ним на місці перебував ще один чоловік, якому вдалося втекти до прибуття правоохоронців.

Подібні інформаційні вкиди є частиною системної кампанії з дискредитації українських біженців за кордоном. Пропагандистські ресурси регулярно поширюють неправдиві звинувачення, формуючи образ українців як загрози для європейських суспільств. Мета таких вкидів — сприяти зростанню соціальної напруги, ксенофобських настроїв та підірвати підтримку України з боку міжнародних партнерів.

Тактики «Вован» і «Лексус». Або як росіяни використовують пранкерів для поширення своєї пропаганди

Російські пранкери Володимир Кузнєцов, відомий як «Вован», і Олексій Столяров, який використовує псевдонім «Лексус», здобули популярність завдяки телефонним розіграшам світових лідерів і знаменитостей. Вони телефонують від імені вигаданих осіб — нібито російських, українських або західних політиків — і публікують у соцмережах вибіркові фрагменти розмов. Хоча такі дії подаються як розвага, насправді вони мають виразний політичний характер і системно просувають наративи, вигідні Кремлю. Про тактику російської пропаганди розповіли EUvsDisinfo.

Спочатку пранкери орієнтувалися на місцевих знаменитостей, однак після незаконної анексії Криму у 2014 році змінили фокус і почали цілеспрямовано атакувати Україну та її союзників. Їхніми цілями ставали, зокрема, тодішній президент України Петро Порошенко та мер Києва Віталій Кличко. Згодом вони вийшли на міжнародний рівень: у 2015 році ввели в оману Елтона Джона, переконавши його, що він спілкується з Володимиром Путіним щодо прав ЛГБТ, а пізніше почали регулярно контактувати із західними політиками та журналістами.

Попри публічні заперечення зв’язків зі спецслужбами, характер їхніх дій свідчить про системність: мішенями стають переважно опоненти Кремля, а змонтовані записи поширюються через мережі, пов’язані з російськими інформаційними операціями. З часом пранкери зосередилися на дискредитації опозиційних рухів у пострадянських країнах, просуваючи тезу про їхню нібито залежність від Заходу. Наприклад, під час протестів у Білорусі у 2020 році вони видали себе за Світлану Тихановську в розмові з представниками американської організації National Endowment for Democracy, а вирвані з контексту фрази використали для маніпуляцій щодо «зовнішнього впливу».

Подібні методи застосовувалися і в інших країнах. У 2025 році окремі фрагменти розмови з президенткою Грузії Саломе Зурабішвілі було подано як «доказ» зовнішнього керування протестами. У Європі пранкери також регулярно атакують політиків і посадовців, просуваючи вигідні Москві меседжі. Зокрема, у 2023 році вони, видаючи себе за Володимира Зеленського, спілкувалися з президенткою Європейського центрального банку Крістін Лагард та іншими лідерами, після чого публікували змонтовані уривки, що нібито свідчили про «контроль» з боку України.

Такі розіграші використовують і для просування наративу про «втому від України» на Заході. Наприклад, у розмові з прем’єр-міністеркою Італії Джорджією Мелоні її слова були подані як підтвердження зниження підтримки України. У березні 2026 року пранкери також телефонували міністерці закордонних справ Гренландії Вівіан Моцфельдт, просуваючи тезу про відсутність загрози з боку Росії. У той самий період вони намагалися дискредитувати іранського опозиціонера Резу Пахлаві, видаючи себе за представників уряду Німеччини.

EUvsDisinfo стверджують, що діяльність «Вована» і «Лексуса» дедалі більше інтегрується у ширші інформаційні операції Кремля. Їхній контент поширюється прокремлівськими медіа, а з 2016 року вони мають власне шоу на телеканалі НТВ. Після повномасштабного вторгнення Росії в Україну їх почав транслювати державний «Перший канал». Крім того, їхній телеграм-канал, який має сотні тисяч підписників, використовується для збору коштів на потреби російської армії. У 2024 році вони отримали державну нагороду Росії «Орден дружби».

Отже, попри образ «коміків», діяльність цих пранкерів є частиною скоординованих інформаційних операцій. Їхні «розіграші» — це інструмент впливу, спрямований на дискредитацію опонентів Кремля, маніпуляцію громадською думкою та просування геополітичних наративів Росії.

Пропагандисти вигадали кількість українських військових, які втекли під час лікування у Франції

У мережі поширюється відео з логотипом французького тижневика Le Point, у якому англомовний закадровий голос стверджує, що «кожен третій військовослужбовець ЗСУ, який проходив лікування у Франції у 2025 році, не повернувся до України», а загальна кількість тих, хто нібито «залишився», перевищує 20 000 осіб. У ролику також заявляють, що французька поліція буцімто фіксує масове залучення українських військових до кримінальних угруповань, а представниця партії «Lutte Ouvrière» Наталі Арто нібито попереджала про загрозу через «20 000 солдатів із ПТСР». Авторство матеріалу приписують Борису Ганзелю та відеографу П’єру Ле Муелліку. Дезінформаційні повідомлення проаналізували у фактчекінговому проєкті StopFake.

Насправді це відео є фабрикацією. Видання Le Point не публікувало подібних матеріалів, ані французькою, ані будь-якою іншою мовою. Ба більше, цей тижневик працює виключно французькою і не створює відеоконтенту англійською мовою у форматі, який поширюється в мережі. Жодної публікації про «20 000 українських дезертирів у Франції» не існує ні у відкритому доступі, ні в архівах видання.

Особа, зазначена як автор, — Борис Ганзель — насправді є професором медицини Університету Париж Сіте, а не політичним журналістом. Він співпрацює з Le Point лише як автор матеріалів про здоров’я та науку. Пропагандисти використали фрагменти з його реальних відео та додали їх до вигаданого політичного сюжету, створивши ілюзію достовірності.

Також неправдивими є твердження про нібито заяви французької поліції. Жодних офіційних повідомлень про масове залучення українських військових до кримінальних угруповань не існує. Навпаки, французькі правоохоронці співпрацюють з Україною, зокрема в межах міжнародних розслідувань і протидії злочинності за участі Europol.

Не відповідає дійсності й інформація про заяви Наталі Арто. Представниця «Lutte Ouvrière» не робила подібних заяв, а жодних підтверджень цього немає ні в медіа, ні в офіційних джерелах.

Окремо варто наголосити, що наведені у відео цифри є математично неможливими. За даними Міністерства охорони здоров’я України, загальна кількість медичних евакуацій українців за весь час повномасштабної війни становить 6273 особи у всіх країнах разом. При цьому Франція не є серед країн, що прийняли найбільшу кількість пацієнтів. Тобто, твердження про «20 000 військових, які залишилися у Франції», не має жодного підґрунтя.

Отже, відео є черговою інформаційною маніпуляцією, створеною з використанням айдентики авторитетного медіа для поширення неправдивих і дискредитаційних наративів про Україну.

Арсеній Яценюк із «цифрових Мальдів» підняв за Україну чарку на паску

Увечері 12 квітня 2026 року українські телеграм-канали поширили відео, де колишній прем’єр-міністр України Арсеній Яценюк у трусах-боксерках вітає українців з Великоднем. На задньому плані – пісок, море і пальми.

Зображення з відео, яке поширювали в телеграмі

На використання генеративного інтелекту вказує статичність фону, різноспрямовані рухи листя пальм на вітрі та відсутність руху тіні від руху листя. Також доріжка із голосом Арсенія Яценюка містить «булькання» і шуми, не властиві тому, як слова вимовляють люди.

Інструмент виявлення слідів роботи генеративного штучного інтелекту Deepware вказує, що відео з політиком є «підозрілим».

Інструмент Hive Moderation надає ролику 99,9% шансу, що відеоряд був створений з використанням штучного інтелекту. А також 7,3%, що згенерували аудіо.

Судячи зі сторінки Арсенія Яценюка на фейсбуці, у цей час він, найімовірніше, перебував в Україні.

Відеофейк про трьох українців, які кібератакували Єврокомісію

У мережі поширюється інформація, нібито троє громадян України здійснили кібератаку на Європейську комісію: буцімто вони влаштувалися туди на роботу, заразили комп’ютери шкідливим програмним забезпеченням і зникли. Стверджується також, що правоохоронці не змогли їх затримати, а самі підозрювані переховуються в Єгипті та перебувають у міжнародному розшуку Інтерполу. Дезінформаційні повідомлення проаналізували у фактчекінговому проєкті StopFake.

Першоджерелом цієї історії став відеоролик з логотипом видання Wired, у якому також наводиться нібито коментар фахівця з кібербезпеки Лоренса-Яна Клоппенбурга. У ньому стверджується, що українці, які вчиняють кіберзлочини в Європі, уникають відповідальності через поблажливе ставлення до них як до жертв війни, а також що вони нібито формують злочинні мережі на території ЄС.

Насправді  видання Wired, яке спеціалізується на темах технологій, політики та міжнародної безпеки, не публікувало такого відео і не використовує подібний формат подачі матеріалів. Сам ролик є сфальшованим і створений для імітації авторитетного джерела.

Крім того, жодних підтверджень цієї історії немає в офіційних повідомленнях Європейської комісії чи інших авторитетних міжнародних інституцій. Перевірка бази Інтерполу також не підтверджує ці повідомлення: станом на зараз громадяни України не перебувають у міжнародному розшуку в Бельгії за кіберзлочини, як це стверджується у фейковому сюжеті.

Особа, яку цитують у ролику, також використана маніпулятивно. Лоренс-Ян Клоппенбург не є публічним експертом чи коментатором з політичних питань. Він працює в приватному секторі в нідерландській організації Cyber Campus, що займається розвитком цифрової стійкості малого та середнього бізнесу. Його фото було взяте з відкритих джерел, а приписані йому слова — вигадані. Жодних коментарів щодо цієї історії він не робив.

Варто зазначити, що використання айдентики відомих медіа, зокрема Wired, є типовим прийомом пропаганди для створення ілюзії достовірності. Про що розповідають «Хроніки дезінформації».

Новий фейк про втручання України у вибори в інших державах

У соціальних мережах і прокремлівських телеграм-каналах поширюється відеоролик з логотипом аналітичної компанії NewsGuard, у якому стверджується, що Україна з 2023 року нібито «активно втручається у вибори суверенних держав», зокрема у США, Німеччині, Франції, Румунії, Молдові та Вірменії. Як «докази» наводяться твердження про використання українськими спецслужбами ботоферм і DDoS-атак для підтримки «антиросійських сил». Як спростовувати це і схожі дезінформаційні повідомлення, показали у фактчекінговому проєкті StopFake.

Відео від нібито NewsGuard є підробкою. Компанія NewsGuard не публікувала жодних матеріалів чи звітів про «втручання України у вибори суверенних держав». Ба більше, формат поширеного ролика не відповідає діяльності компанії: вона спеціалізується на аналітичних дослідженнях та оцінюванні надійності медіа, а не на створенні коротких відео для соціальних мереж. NewsGuard також не має офіційних акаунтів для публікації подібного контенту у форматі відеороликів.

Проте твердження, озвучені у фейковому відео, є прикладом типової пропагандистської тактики — приписування опоненту власних дій. Описані методи, зокрема використання бот-мереж, DDoS-атак і створення підроблених відео з імітацією авторитетних медіа, добре задокументовані як інструменти російських інформаційних операцій. Зокрема, відома операція «Матрьошка», що координує мережі ботів на соціальних платформах для поширення фейкового контенту, а також проєкт «Допельгенгер», у межах якого створювалися копії сайтів провідних західних медіа для розміщення дезінформації. Саме подібні механізми використали і для створення цього ролика з логотипом NewsGuard.

Поява такого фейку збігається в часі з важливими політичними подіями. Зокрема, триває підготовка до парламентських виборів у Вірменії та Угорщині, що супроводжується активізацією інформаційних кампаній. У цих умовах поширення наративів про «українське втручання» є частиною ширшої стратегії дискредитації України та просування вигідних Кремлю політичних сил.

Отже, відео з логотипом NewsGuard є сфальсифікованим, а його зміст — маніпулятивним. Його мета — створити хибне уявлення про нібито українські операції впливу та відвернути увагу від реальних випадків втручання Росії в інформаційний простір інших держав.

Відеофейк про «український флешмоб у тіктоку» зі спалювання прапорів Угорщини

У соціальних мережах поширюють відео з логотипом видання WIRED, у якому стверджується, нібито українці запустили в TikTok флешмоб зі спалювання прапорів Угорщини. Відео подають як матеріал авторитетного західного медіа, щоб створити ілюзію достовірності. Насправді ця інформація не відповідає дійсності — дезінформаційні повідомлення проаналізували VoxCheck.

Приклад поширення фейку. Джерело: VoxCheck

Жодних підтверджень існування такого флешмобу немає. WIRED не публікував подібного відео ні на своєму офіційному сайті, ні в соціальних мережах — зокрема в Instagram, Facebook, YouTube, TikTok чи X. Відсутність будь-яких згадок у надійних джерелах свідчить про те, що відео є вигаданим.

Аналіз ролика показує, що пропагандисти намагалися відтворити стиль відео WIRED, однак допустили характерні помилки. У справжніх відео журналу на початку обов’язково зазначають ім’я людини, яка озвучує текст, а також тему ролика на чорному тлі. Крім того, усі матеріали озвучуються реальними дикторами, тоді як формат із музикою та субтитрами без голосу для цього медіа не характерний.

Отже, поширюване відео є підробкою, створеною для маніпуляції аудиторією та дискредитації українців. Використання логотипів відомих міжнародних медіа — типовий прийом дезінформації, покликаний надати фейковому контенту вигляду достовірності.

В Росії сфальсифікували переклад інтерв’ю Лаврова з французькою журналісткою

Міністерство закордонних справ Росії спотворило зміст інтерв’ю глави відомства Сергія Лаврова французькій журналістці Лії Саламе. У російській версії перекладу запитання журналістки було змінено таким чином, щоб вони відповідали наративам кремлівської пропаганди.

Про це з посиланням на FranceInfo повідомляє Центр стратегічних комунікацій.

Зокрема, у перекладі було змінено формулювання запитань журналістки. Оригінальну репліку про те, що «не чути, щоб Росія захищала Іран», у російській версії подали як твердження: «ви багато захищали свого союзника — Іран».

Також було викривлено інформацію про втрати серед цивільного населення України. Якщо в оригіналі йшлося про «десятки тисяч загиблих мирних жителів», то в перекладі цю цифру зменшили до «сотень».

Крім того, у перекладі з’явилася фраза «розумію вас», яку журналістка насправді не озвучувала. Така вставка створює хибне враження про нібито підтримку нею позиції російського міністра.

Таким чином, російська сторона не лише переклала інтерв’ю з неточностями, а й фактично змінила зміст запитань, приписавши журналістці вигідні для Кремля формулювання. Це є прикладом маніпуляції інформацією з метою просування пропагандистських наративів.

Згенеровані ШІ інфлюенсери із соцмереж допомагають шахраям виманювати гроші. Як не попастися?

У сучасному цифровому просторі набирає обертів новий вид шахрайства, де замість реальних людей аудиторію обманюють віртуальні інфлюенсери, створені за допомогою штучного інтелекту. Зловмисники вибудовують цілі цифрові особистості з бездоганною зовнішністю, професійними відео та підробною соціальною активністю. Ці Deepfake-персони імітують повсякденне життя, реагують на тренди та поступово втираються в довіру до підписників, щоб згодом просувати сумнівні інвестиції, криптосхеми або неякісні товари через фейкові магазини. Про дезінформаційні повідомлення розповів Том Ванненмахер із проєкту Mimikama.

Викриття таких схем базується на розумінні того, що високе охоплення та тисячі лайків у соцмережах більше не є гарантією автентичності. Шахраї використовують "соціальні рутини" — повторювані публікації, куплені коментарі та імітацію особистого спілкування в директі — для створення ілюзії надійності. Аналітики наголошують, що такі платформи, як Meta, видаляють мільйони підозрілих акаунтів, проте технологічний бар'єр постійно знижується. Тепер для створення переконливого образу не потрібні великі кошти, що дозволяє злочинцям масштабувати обман, запускаючи цілі мережі штучних профілів, які підтримують один одного.

Для того, щоб не стати жертвою маніпуляції, фахівці радять звертати увагу на специфічні ознаки підробки. Це може бути візуальна "надто ідеальна" картинка, яка при цьому не збігається зі стилістикою різних відео на одному каналі, або розмитість деталей навколо обличчя та неприродні рухи. Також варто насторожитися, якщо популярний блогер має розмиту біографію, уникає прямих відповідей про походження товарів, які рекламує, або агресивно підштовхує до швидких фінансових рішень у закритих месенджерах. У разі підозри на шахрайство експерти закликають негайно фіксувати всі докази, повідомляти платформу про підробний профіль та у жодному разі не передавати дані своїх криптогаманців чи банківських карток.

ВІдеофейк із логотипом DW і вимогою не допускати Україну на Олімпійські ігри

У соціальних мережах розпочалося поширення сфальсифікованого відеоролика з логотипом авторитетного німецького видання Deutsche Welle, у якому стверджується про масові протести в Італії. Згідно з фейковим сюжетом, мешканці Мілана напередодні Олімпійських ігор нібито вимагали відсторонити збірну України від змагань через підтримку українською владою продовження війни. Насправді це відео є технічною підробкою, де реальні кадри змонтовані з вигаданими субтитрами та закадровим текстом для створення хибного наративу про міжнародну ізоляцію України. Про дезінформаційні повідомлення розповіли VoxCheck.

Зразок повідоомлення із поширенням фейку із логотипом DW. Джерело: VoxCheck

Викрити маніпуляцію вдалося завдяки інструментам зворотного пошуку відео, які дозволили знайти оригінальний матеріал Deutsche Welle. Справжній сюжет справді описував протести в Мілані після церемонії відкриття Ігор, проте їхні причини не мали жодного стосунку до України. Мітингувальники висловлювали занепокоєння екологічними наслідками Олімпіади, навантаженням на державний бюджет Італії, а також критикували присутність американських спецслужб, що супроводжували команду США. Закликів щодо недопуску українських атлетів під час цих акцій не звучало.

Технологія створення цього фейку полягала у використанні перших трьох кадрів справжнього репортажу для введення глядача в оману щодо автентичності джерела. Після цього автори підробки змінили зміст ролика, додавши кадри з відкритих джерел, які супроводжувалися субтитрами з абсолютно вигаданими тезами. Використання впізнаваного бренду міжнародного медіа є класичним прийомом дезінформації, що має на меті підвищити рівень довіри до неправдивого контенту та спровокувати внутрішні конфлікти в українському суспільстві.

Фейкові матеріали від Reuters і BBC про українців, які гріються біля мобільних крематоріїв

У мережі поширюють відео, яке нібито є сюжетом міжнародного агентства Reuters. У ролику стверджується, що британський мовник BBC начебто показав матеріал про українців, які під час відключень електроенергії змушені грітися біля мобільних крематоріїв. Автори відео намагаються представити це як доказ гуманітарної катастрофи в Україні та як підтвердження нібито цинічного ставлення української влади до громадян.

Розповіли – VoxUkraine

Скриншот допису.

Насправді це фейк. Жодне з авторитетних міжнародних медіа не публікувало таких матеріалів. Ні Reuters, ні BBC не випускали відео або новин про українців, які нібито змушені грітися біля мобільних крематоріїв. Подібні сюжети відсутні як на офіційних сайтах медіа, так і на їхніх сторінках у соціальних мережах. Аналіз відео показує, що його автори намагалися імітувати стиль інформаційних роликів Reuters (що вже систематично зʼявляється в інформаційному просторі).

Нещодавно також поширювали ще один подібний фейк з таким ж використанням логотипу та стилю Reuters.

Фейк про українську зброю, якою нібито атакували Ізраїль

У мережі шириться сюжет, нібито опублікований USA Today, про те, що серед уламків ракет, якими атакували Ізраїль та американські військові бази на Близькому Сході, було знайдено фрагменти зброї, переданої Україні як військова допомога. З посиланням на Паркера Гампела, експерта з Інституту вивчення війни, припускають, що зброя могла потрапити до Ірану через чорний ринок. Однак, за даними «Вокс Україна», цей матеріал є фейком.

Скриншот допису

По-перше, оформлення сюжету відрізняється від стандартного оформлення матеріалів USA Today. У справжніх сюжетах за вимогами авторського права завжди вказується автор матеріалу, взятого з відкритого джерела. Також медіа завжди зазначає локацію і дату події в кадрі. Проте в цьому відео такої інформації немає.

Скриншоти з оригінального відео USA Today

По-друге, схожої інформації немає ані на офіційному сайті медіа, ані на його сторінках у фейсбуці, іксі, інстаграмі, тіктоці та ютубі. Водночас жодна офіційна структура США або Ізраїлю не публікувала інформації про знайдення зброї, що була передана Україні, серед знайдених у регіоні уламків ракет.

Щодо Паркера Гампела, то він також не робив заяв про надходження зброї з України через чорний ринок.

Фейк: У Дубаї поліція затримала 19 українців за пограбування ювелірних магазинів

У польськомовних соціальних мережах (зокрема, фейсбуку) масово шириться відео, стилізоване під новинний сюжет відомого європейського телеканалу Euronews. У ньому стверджується, нібито українські банди скористалися хаосом після атак іранських безпілотників та масово грабують ювелірні магазини в Дубаї. У сюжеті також додають, що місцева поліція вже затримала 19 злодіїв українського походження. Втім, сюжет виявився сфальшованим. Виявили фейк експерти Demagog

Скриншот допису на фейсбуці, що поширював дезінформацію 

Відео Euronews було сфальсифіковано

Пропагандисти справді використали реальні кадри з ефіру Euronews, щоб надати своєму фейку правдоподібності. Фактчекери знайшли оригінальний запис на офіційній сторінці редакції у фейсбуку за 28 лютого. На ньому дійсно присутня та сама репортерка (Джейн Візерспун), однак текст її репортажу кардинально відрізняється. В оригінальному відео журналістка розповідає виключно про атаку іранських дронів на один із готелів у Дубаї і зазначає, що місцеві мешканці залишаються пильними. Жодного слова про українців, банди чи пограбування ювелірних крамниць в оригінальному сюжеті немає.

Відсутність офіційних підтверджень

У відкритих джерелах немає жодних підтверджень цього інциденту. Інформація про затримання «19 українців» відсутня як на офіційному сайті телеканалу Euronews, так і в пресрелізах чи на сайті поліції Дубая.

Типова тактика російських спецслужб

Центр протидії дезінформації при РНБО України неодноразово фіксував подібні інформаційні вкиди. Мімікрія під авторитетні світові медіа (використання їхніх логотипів, графіки та реальних кадрів із накладанням фейкових титрів чи озвучення) — це один з найпоширеніших методів російської пропаганди. Мета таких дій прозора: дискредитувати українських біженців та громадян за кордоном, зобразивши їх злочинцями, і посіяти недовіру до них з боку міжнародної спільноти.

Історія про «українські банди в Дубаї» є фейком. Зловмисники просто вкрали сюжет Euronews про атаку безпілотників і додали до нього вигаданий текст.

Кадри вечірки у Дніпрі виявились відео з вечірки у Дрездені

Користувачі соціальних мереж обурювались відео, на якому нібито зафіксовано розважальну вечірку в одному з нічних клубів Дніпра під час комендантської години. На кадрах чітко чутно російськомовну музику та видно назву закладу — «Імперія», що змусило багатьох користувачів повірити в моральний занепад та порушення закону в прифронтовому місті. Однак перевірка встановила, що поширені матеріали не мають жодного стосунку до реального стану справ у Дніпрі, а є типовим прикладом інформаційної атаки. Про дезінформаційні повідомлення розповіло «Суспільне Дніпро».

Журналісти відвідали адресу, за якою раніше в місті функціонував однойменний клуб, і з'ясували, що заклад закритий ще з 2018 року, а зараз у цьому приміщенні розташована квест-кімната. Поліція Дніпра також офіційно спростувала інформацію про діяльність клубу, підтвердивши результати перевірки. Насправді відео було зняте за кордоном — у дрезденському нічному клубі «Imperia Russian Night», який спеціалізується на російськомовних вечірках для емігрантів. Це підтверджується ідентичним інтер'єром та неоновою вивіскою, яку можна знайти на офіційних сторінках німецького закладу.

Експерт із протидії дезінформації «Детектор медіа» Роман Дерезенко пояснив механіку поширення цього фейку:

«Також фейки можуть створюватися навмисно для маніпуляцій або інформаційних атак. У контексті війни Росії проти України такі відео часто мають на меті створити враження хаосу, морального занепаду або внутрішніх конфліктів у країні. Для цього використовують реальні назви міст чи закладів, щоб інформація виглядала правдоподібною. У цьому випадку використали назву клубу "Імперія", який колись дійсно існував у Дніпрі, але давно не працює».

Скриншоти відео, яке поширили в соцмережах Дніпра. Джерело: Суспільне Дніпро

Роман Дерезенко сказав, що саме емоційний контент, який викликає миттєве обурення, найшвидше поширюється мережею без жодної верифікації з боку користувачів.

Викриття фейку стало можливим завдяки увазі до деталей, зокрема до логотипа клубу на відео. Як зазначив Роман Дерезенко, порівняння кольору підсвітки та елементів сцени з фотографіями в інтернеті чітко вказує на Дрезден. Експерт закликає громадян бути критичними до анонімних повідомлень у тіктоці чи телеграмі та використовувати інструменти зворотного пошуку зображень, адже здатність фільтрувати інформацію сьогодні є не просто корисною навичкою, а елементом громадянської безпеки.

Старі і згенеровані ШІ матеріали подають як приклади атак на Близькому Сході

Соціальні мережі та інформаційні ресурси сколихнула хвиля дезінформації після початку координованих військових дій США та Ізраїлю проти Ірану наприкінці лютого 2026 року. Користувачі масово поширюють застарілі фото- та відеоматеріали, видаючи їх за кадри поточних подій для нагнітання паніки та просування політичних наративів. Зокрема, значного поширення набули відео ракетних ударів, які насправді були зняті під час попереднього 12-денного конфлікту у червні 2025 року. Про дезінформаційні повідомлення розповіли FactCheck.bg.

Для викриття цих маніпуляцій розслідувачі використали інструменти зворотного пошуку зображень, такі як Google Reverse Image Search та Google Lens. Завдяки цьому вдалося встановити, що кадри «ізраїльсько-американських ракет», які активно поширювали болгарські політики та медіасайти, насправді є архівними записами річної давнини. Іншим прикладом став відеоролик із пожежею в будівлі, який підписували як «Тель-Авів під ударом». Перевірка за допомогою інструменту InVID довела, що це відео вперше з’явилося ще у жовтні 2024 року і демонструвало побутову пожежу, не пов’язану з військовими діями.

Окрім використання старих матеріалів у мережі зафіксували випадки розповсюдження контенту, створеного штучним інтелектом. Одним із найбільш віральних став ролик із нібито атакою на авіаносець у відкритому морі, що супроводжувався підписами про початок Третьої світової війни. Фахівці виявили характерні для ШІ візуальні дефекти та підтвердили маніпуляцію за допомогою сервісу AI or Not.

Болгарські фактчекери наголошують, що подібні техніки дезінформації спрямовані на радикалізацію суспільства та закликають користувачів завжди перевіряти автентичність візуального контенту перед поширенням.

Російська пропаганда підробила репортаж Deutsche Welle про втрати Сил оборони України

Російські пропагандистські ресурси розпочали масоване поширення фальшивого відеосюжету, який видають за репортаж німецького мовника Deutsche Welle. У підробленому ролику стверджується, нібито військові втрати України сягнули приголомшливої цифри у два мільйони осіб, що є свідомою дезінформацією. Зловмисники використали реальний відеоряд німецького видання, але за допомогою монтажу змінили закадровий текст, додавши вигадані дані про кількість ідентифікованих та невідомих загиблих. Метою такої атаки є поширення паніки, деморалізація українського суспільства та створення ілюзії критичного виснаження української армії. Чому це фейк, розповіли StopFake.

Викрити підробку вдалося завдяки порівнянню розповсюджуваного відео з оригінальним матеріалом Deutsche Welle, який вийшов 2 лютого 2026 року. Справжній репортаж присвячений роботі судових медиків в Одесі та процесу ідентифікації тіл, повернутих із Росії, проте він не містить жодних згадок про загальну кількість втрат ЗСУ. У підробці лише перші тридцять три секунди збігаються з оригіналом, після чого вставлено фальсифікований двадцятисекундний уривок. Уважний аналіз дає змогу почути різку зміну тембру закадрового голосу на місці склейки, а коментарі медичних експертів, наявні у справжньому сюжеті, у фейковій версії повністю видалені або перекриті вигаданим текстом.

Окрім технічних невідповідностей, маніпулятивність новини підтверджується офіційними даними та оцінками міжнародних аналітичних центрів, які суттєво відрізняються від пропагандистських вигадок. На початку 2026 року президент України озвучив цифру у п'ятдесят п'ять тисяч загиблих військовослужбовців, не враховуючи зниклих безвісти. Водночас експерти Центру стратегічних та міжнародних досліджень оцінюють втрати у межах від ста до ста сорока тисяч осіб за весь час повномасштабного вторгнення. Створення відео-двійників іноземних медіа залишається улюбленим інструментом Кремля, оскільки авторитетний бренд західного ЗМІ допомагає надавати неправдивій інформації вигляду достовірності.

Відеофейк про розпад ЄС із використанням фото і відео Урсули фон дер Ляєн

Фактчекери VoxCheck звернули увагу на відео, яке ширилося з логотипом агентства новин Reuters, з нібито промовою президентки Європейської комісії Урсули фон дер Ляєн під час Всесвітнього економічного форуму в Давосі. На плашці на відео був напис, нібито політикиня «підтвердила інсайдерську інформацію про швидкий розпад ЄС». 

Фактчекери наголошують, що Reuters не публікувало такого відео в жодній зі своїх соціальних мереж чи на сайті, а президентка Європейської комісії не робила заяв про розпад ЄС. 

Автори фейкового відео намагались відтворити оформлення оригінальних відеороликів агентства Reuters. Однак у своїх відео видання не використовує логотипу, при цьому на фейковому ролику він був присутній. 

Фейк: Трампа закликали провести спецоперацію проти Макрона через «розкрадання допомоги Україні»

У соціальних мережах активно поширюється відеоролик з логотипом французького телеканалу France 24, у якому стверджується, що генеральний директор організації «Репортери без кордонів» (Reporters Without Borders, RSF) Тібо Бруттен нібито звернувся до президента США Дональда Трампа із закликом провести «спеціальну операцію» проти президента Франції Емманюеля Макрона.

Про це повідомляє StopFake.

У відео також заявляється, що Макрон разом із президентом України Володимиром Зеленським нібито причетні до розкрадання американської фінансової допомоги, наданої Україні. Жодних доказів цих тверджень автори ролика не наводять.

Насправді ця інформація є вигаданою. Ані France 24, ані будь-які інші авторитетні міжнародні медіа не публікували подібних матеріалів і не випускали такого відеосюжету. Ролик лише імітує візуальний стиль та подачу французького телеканалу — це поширений прийом у дезінформаційних кампаніях, коли фейковий контент маскують під продукцію відомих ЗМІ, щоб підвищити рівень довіри до неправдивих повідомлень.

Раніше France 24 уже повідомляв про випадки використання свого бренду та фірмового стилю для поширення фейків, зокрема щодо президента України та західної допомоги.

Тібо Бруттен, який нині обіймає посаду генерального директора RSF, не робив жодних заяв із подібними звинуваченнями — ані на офіційних ресурсах організації, ані у публічних виступах чи соціальних мережах. У разі, якби керівник однієї з найвідоміших міжнародних правозахисних організацій справді закликав до силових дій проти президента європейської держави, це спричинило б масштабний міжнародний скандал і набуло б широкого розголосу у світових медіа.

Останні публічні згадки про Тібо Бруттена датуються початком грудня 2025 року і стосуються презентації щорічного звіту «Репортерів без кордонів».

За даними сервісу Osavul, фейковий ролик поширюється переважно в російськомовному сегменті інтернету. Поширення через анонімні та пропагандистські майданчики без подальшого підтвердження в легітимних джерелах є характерною ознакою інформаційних вкидів.

Активізація фейку збіглася в часі з резонансними міжнародними подіями. На початку січня 2026 року США провели масштабну військову операцію у Венесуелі, в межах якої американські сили атакували об’єкти в Каракасі та затримали президента країни Ніколаса Мадуро разом із його дружиною. Пропагандистські ресурси використовують цей контекст, щоб надати вигаданій історії видимості логічного продовження реальних подій.

Експерти зазначають, що подібні фейки є частиною ширшої кампанії з дискредитації Емманюеля Макрона та Володимира Зеленського. Її мета — підірвати довіру до Франції як одного з ключових партнерів України, посилити наративи про «розкрадання західної допомоги», посіяти розбіжності між США та європейськими союзниками й стимулювати втому від підтримки України.

Російська пропаганда підробила сюжет «France 24» про «спецоперацію» проти Макрона через «розкрадання допомоги» Україні

У мережі активно поширюється відеоролик, стилізований під новинний сюжет французького телеканалу «France 24». У відео стверджується, що генеральний директор правозахисної організації «Репортери без кордонів» Тібо Бруттен нібито звернувся до президента США Дональда Трампа із закликом провести «спецоперацію» проти президента Франції Емманюеля Макрона. Причиною такого кроку пропагандисти називають вигадане «розкрадання американської допомоги», яку Макрон нібито привласнює разом із Президентом України Володимиром Зеленським. Проте ця історія є цілковитою фальшивкою, а дезінформаційне повідомлення спростували StopFake.

Приклад поширення фейку. Джерело: StopFake

Насправді телеканал «France 24» ніколи не випускав подібного сюжету, а сама «новина» не з’являлася в жодному авторитетному світовому медіа. Зловмисники використали фірмове графічне оформлення та логотипи відомого мовника, щоб надати фейку ваги. 

Генеральний директор «Репортерів без кордонів» Тібо Бруттен також не робив жодних подібних заяв. Останні публічні згадки про нього на момент підготовки спростування стосуються щорічного звіту організації про свободу преси, опублікованого наприкінці 2025 року. Заклик до силових дій проти лідера європейської держави з боку голови відомої правозахисної групи став би світовою сенсацією, проте жодних підтверджень таким словам на офіційних ресурсах організації чи в соцмережах Бруттена немає.

Головна мета цієї кампанії, пишуть StopFake, — дискредитація Франції як одного з провідних союзників України та посилення брехливого наративу про «тотальну корупцію» навколо західної військової допомоги. Намагаючись посіяти розбрат між США та європейськими країнами, Кремль прагне послабити міжнародну підтримку України та створити ілюзію глобальної політичної нестабільності.

Відеофейк: Данія нібито відбирає в України F-16 для відправки у Гренландію

Кремлівські пропагандисти підробили звукову доріжку сюжету регіонального данського телебачення - дезінформацію розвінчали фактчекери Укрінформу

Скриншот російського медіа. Джерело: Укрінформ

Російські медіа, проросійські телеграм-канали та бот-акаунти в соцмережі X розповсюджують відеоролик із символікою данської телекомпанії TV2 Nord. У цьому відео ведуча, посилаючись на «інсайдерів» із данського Міноборони, заявляє, що раніше передані Україні данські винищувачі F-16 начебто планують повернути та перекинути для захисту Гренландії через територіальні домагання США до цього острова.

Це брехня. Дезінформатори за допомогою програм для редагування підмінили звукову доріжку в одному з випусків новин за участю ведучої TV2 Nord Пії Белтофт.

Інформації про те, що Україну нібито позбавлять F-16 для їх передислокації до Гренландії немає ні на офіційному веб-сайті телеканалу, ні в його соціальних мережах. Подібних повідомлень також немає на офіційних платформах Міністерства оборони Данії.

TV2 Nord — це регіональна медіакомпанія, яка працює в північних областях Данії та на Фарерських островах. Більшість її новинного контенту зосереджена на регіональних подіях. Хоча на сайті цього медіа є секція про війну в Україні, таких матеріалів небагато. Телеканал переважно орієнтується на розважальні програми, а не на політичну чи міжнародну аналітику.

Ба більше, TV2 Nord поширили новину зі спростуванням цього фейку, яку розповідає сама ведуча Пія Белтофт.  

TV2 Nord опублікували власне спростування відеофейку Скриншот сайту TV2 Nord

Данія справді нарощує військовий контингент у Гренландії через загострення відносин із США, зокрема направляє туди винищувачі F-16. Проте ці винищувачі виділяються з власних данських резервів, а не вилучаються з України.

Водночас Данія продовжує постачання F-16 Україні: вже були поставлені 12 із 19 обіцяних бойових машин.

Фальшивка російських пропагандистів має на меті показати вигадану «втрату ентузіазму» західних партнерів щодо підтримки України через власні проблеми.

У мережі поширюється фейкове відео про Мбаппе та українських біженців

Російські телеграм-канали поширюють фейкову інформацію про французького футболіста Кіліана Мбаппе, використовуючи підроблений відеоролик, стилізований під контент відомого спортивного видання L'Équipe.

Про це повідомляє «Укрінформ».

У дописах пропагандистських ресурсів стверджується, що українець, який нібито працював у будинку капітана збірної Франції та гравця «Реал Мадрид», пограбував футболіста на 2 мільйони євро. Також автори фейку заявляють, що після цього інциденту Мбаппе буцімто опублікував допис в Instagram зі словами «підтримки» президента РФ Володимира Путіна в контексті війни проти України.

Ця інформація не відповідає дійсності. Видання L'Équipe не публікувало подібного відео ані на своєму офіційному сайті, ані у соцмережах. Крім того, формат і стилістика поширюваного ролика не характерні для контенту медіа, яке зазвичай готує відеосюжети французькою мовою та дотримується чітких редакційних стандартів.

Остання новина L'Équipe, що стосувалася Кіліана Мбаппе на момент виходу фактчеку, датована 14 січня та була присвячена вильоту мадридського «Реалу» з Кубка Іспанії.

Також жодних дописів із підтримкою Володимира Путіна французький футболіст у своїх соціальних мережах не публікував. Останній пост Мбаппе в Instagram присвячений співпраці з французьким модним брендом.

Варто зазначити, що інформація про нібито пограбування та «інцидент» за участі українця не згадується в жодному авторитетному міжнародному медіа, що додатково підтверджує фейковий характер цієї історії.

Пропагандисти створюють фейкові «новинні відео» для дискредитації українських біженців

Російські телеграм-канали та акаунти в соцмережах поширюють серію фейкових відео, нібито створених авторитетними міжнародними медіа та правозахисними організаціями, з метою дискредитації українських біженців у країнах Європейського Союзу.

Про це повідомляє Укрінформ.

Зокрема, пропагандисти розповсюджують відео з логотипом телеканалу Euronews, у якому йдеться про трагедію на гірськолижному курорті Кран-Монтана у Швейцарії. У ролику стверджується, що пожежа в барі курорту, яка забрала життя 40 осіб, була нібито скоєна українським біженцем на ім’я Олег К. через ревнощі.

Насправді це фейк. Російська сторона використала оригінальний сюжет Euronews про пожежу, додавши до нього змонтовані кадри. Справжній відеоматеріал триває 1 хвилину 16 секунд, тоді як підроблений ролик має більший хронометраж і містить сцени, яких немає в оригінальному випуску новин.

За інформацією швейцарської прокуратури, найбільш імовірною причиною пожежі стали бенгальські вогні, від яких зайнялася покрівля будівлі. У справі перебувають під вартою двоє менеджерів бару, яких підозрюють у порушенні правил пожежної безпеки. Жодних згадок про причетність українських біженців слідство не робило.

Окрім цього, в соцмережах поширюється відео з логотипами міжнародної правозахисної організації Human Rights Watch, у якому стверджується, що під час новорічних свят українські біженці нібито вчинили в Європі стільки ж злочинів, як і мігранти з Близького Сходу.

Ця інформація також не відповідає дійсності. Такого відео немає ані на офіційному сайті Human Rights Watch, ані на сторінках організації в соціальних мережах. Від початку року HRW опублікувала лише два відеоматеріали, присвячені протестам в Ірані та питанням британського законодавства.

Крім того, російські боти в соцмережах Х і Telegram поширюють ще один сфабрикований ролик — цього разу з логотипом BBC. У ньому заявляється, що українські біженці нібито масово зникають у Європі та стають жертвами торгівлі людьми.

Як з’ясувалося, відео було підроблене на основі формату YouTube Shorts. У ролику вказана дата 5 січня, однак на офіційному ютуб-каналі BBC такого матеріалу немає.

Експерти зазначають, що поширення подібних фейків є частиною системної інформаційної кампанії Росії, спрямованої на дискредитацію українців за кордоном. Її мета — сформувати негативне ставлення до українських біженців у західної аудиторії та посилити антиукраїнські настрої в країнах ЄС.

У тіктоку масово поширюються ШІ-відео про «протести» в Україні

У українському сегменті тіктоку за останні місяці помічено різке зростання кількості відео, згенерованих штучним інтелектом (ШІ), які нібито показують масові протести в українських містах. Журналісти виявили понад пів сотні таких роликів, що разом зібрали більше 6 мільйонів переглядів.

Про це повідомляє Texty.org.ua.

Відео публікують кілька анонімних акаунтів. На деяких показано «репортажі журналісток» про протестні акції в Києві, Одесі та Харкові, яких насправді не було — це легко перевірити за стрічками новин авторитетних ЗМІ. Багато роликів мають маркування тіктоку як такі, що «містять медіа, згенеровані ШІ».  Ролики також мають вотермарку відеомоделі Sora від OpenAI, яка допомагає створювати реалістичні ШІ-відео з простих текстових описів.  

У фейкових відео фігурують натовпи людей, поліцейські проблискові маячки, бронетехніка, а вигадані репортерки емоційно описують «ситуацію», не надаючи жодних перевірених фактів. Найбільше переглядів — понад 2,2 мільйона — набрало відео нібито з Києва.

Один з акаунтів просуває явно проросійські меседжі, де в описі зазначено «Кошмарю Укpaшиcтoв» і використовується російський прапор як частина візуального контенту. Інший користувач з Нідерландів регулярно публікує відео з натовпами на центральних площах українських міст, де звучать заклики на кшталт «Одеса сила! Зеленский, уходи!» або «Київ хоче бути з Росією!».

Аналітики наголошують, що алгоритми тіктоку можуть просувати відео незалежно від достовірності інформації, а частоту переглядів можуть штучно підсилювати боти. У підсумку це створює хибне враження про нібито масові антиурядові настрої в Україні, що відповідає традиційним російським пропагандистським наративам про «Майдан 2.0».

Росіяни поширюють безглузді фейки про теракт в Сіднеї та Україну

У проросійському сегменті соцмереж активно поширюється відеоролик із логотипом німецького видання Welt, у якому стверджується про нібито дипломатичний інцидент в Україні. Автори відео заявляють, що під час висловлення співчуттів жертвам теракту в Сіднеї українські дипломати переплутали Австралію з Австрією.

Про це повідомляє StopFake.

У ролику також йдеться про те, що це начебто не перший подібний випадок: нібито раніше в Офісі Президента Джей Ді Венса помилково назвали «Діджей Венсом». Крім того, у відеосюжеті висувається безпідставне припущення про те, що австралійські правоохоронці розглядають «український слід» у теракті та підозрюють, що зброя й інструкції для нападників могли походити з України.

Перевірка показує, що і сам ролик, і інформація в ньому є фейком. Видання Welt переважно публікує матеріали німецькою мовою, а англомовний контент на сайті востаннє з’являвся ще у 2018 році. У жодній з мовних версій видання немає сюжету про те, що українські дипломати нібито переплутали Австралію з Австрією.

Також жодне інше авторитетне іноземне чи українське медіа не повідомляло про подібну «помилку» ані з боку МЗС, ані з боку Офісу Президента щодо імені Джей Ді Венса.

Насправді українська влада офіційно відреагувала на трагедію в Сіднеї, однак не через сторінку МЗС. Співчуття оприлюднив Президент України Володимир Зеленський у соцмережі X:

«Співчуваємо родинам і близьким загиблих та бажаємо якнайшвидшого й повного одужання всім пораненим. Терор і ненависть ніколи не повинні брати гору – вони мають програвати скрізь і завжди».

Крім того, трагедію прокоментувала Юлія Свириденко, опублікувавши заяву в Telegram. Вона наголосила на солідарності України з народом Австралії та висловила співчуття родинам загиблих і постраждалих. Її слова були оприлюднені в дописі, присвяченому запаленню Ханукії в Будинку Уряду разом із представниками єврейських громад.

Ознакою маніпуляції є й сама побудова відеосюжету: більша його частина присвячена вигаданому «дипломатичному курйозу», тоді як серйозне звинувачення про нібито постачання Україною зброї терористам згадується лише побіжно — наприкінці ролика.

Ця інформація не має жодного підтвердження. Австралійські правоохоронні органи не розглядають версію про причетність України до теракту. Відомо, що старший з нападників володів зброєю легально — як офіційний член стрілецького клубу.

Нагадаємо, стрілянина під час святкування Хануки на пляжі в Сіднеї 14 грудня забрала життя 16 людей, зокрема десятирічної дівчинки з родини емігрантів з України. Одного з нападників було застрелено на місці, інший отримав тяжкі поранення та впав у кому. Зловмисниками виявилися батько і син, які дотримувалися радикальної ісламістської ідеології.

Розвінчано черговий російський фейк про українську ракету «Фламінго»

В соцмережах активно поширюють відео, яке нібито «викриває» Міністерство оборони України у використанні комп’ютерної графіки, кадрів із старих фільмів про Другу світову війну та американських запусків Tomahawk замість реальних кадрів української крилатої ракети FP-5 «Фламінго».

На це звернули увагу аналітики проєкту VoxCheck.

Насправді це свідома дезінформація. Жодної такої відеопрезентації ні Міністерство оборони України, ні розробник ракети – компанія Fire Point – ніколи не публікували.

  Скриншот допису

Фейк створили пропагандисти самостійно: вони взяли реальний ролик The Wall Street Journal про характеристики «Фламінго», перефарбували колірну гаму з помаранчевої на блакитну, додали кадри з інших джерел і згенерували голос диктора за допомогою штучного інтелекту.

Перевірка фактів:

  • На офіційних ресурсах Міноборони України (сайт, фейсбук) такого відео немає.
  • Компанія Fire Point не має ні сайту, ні сторінок у соцмережах, тож опублікувати ролик від її імені неможливо.
  • Зворотний пошук кадрів через Google Lens одразу вказує на оригінальний матеріал The Wall Street Journal.

Порівняння кадрів:

Як стверджують автори матеріалу VoxCheck, аудіо у фейковому відео має явні ознаки ШІ-генерації: монотонний роботизований голос, численні граматичні помилки, нетипові для українськомовної людини («велико дальності» замість «великої дальності», «нового поколинна» замість «нового покоління» тощо). Аналіз у сервісі Hive Moderation підтвердив: імовірність синтезованого голосу – висока.

Отже, замість «викриття підробки» пропагандисти самі змонтували фейк, щоб дискредитувати українські розробки озброєння.

У російській пропаганді вже три роки лунає: «Україна — бідна, нічого не може, все розкрадено». Коли з’являються докази зворотного (нові ракети, дрони, РЕБ), це руйнує всю картинку. Тому доводиться кричати «фейк!» і знімати «викриття», щоб своя аудиторія не почала ставити незручні питання. Поки українські ракети («Нептун», РК-360МЦ, а тепер і «Фламінго») реально топлять їхні кораблі, б’ють по Криму й НПЗ, росіянам психологічно легше переконувати себе й свою аудиторію, що «цього всього насправді немає», що це «мультики».