Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

16 Травня станом на 1542 день повномасштабної війни наша редакція зафіксувала:

2738
Фейк
823
Маніпуляція
776
Меседж
559
Викриття
Русскій фейк, іді на***!

Фейк: російський винищувач збив літак Saab-340 над Україною

Російські медіа, Telegram-канали, z-воєнкори у соцмережі X та мережі ботів у Facebook поширюють повідомлення про нібито знищення шведського літака радіолокаційної розвідки та управління Saab-340 над східною Україною. Для підкріплення цих тверджень окремі ресурси посилаються на грецькі та французькі медіа. Однак жодних доказів на підтвердження цієї інформації наразі не існує.

Про це повідомляє «Укрінформ».

У публікаціях стверджується, що російський винищувач Су-57 буцімто збив літак ракетою Р-37, а сам інцидент називають «першим випадком» ураження західного літака такого класу. 

Повідомлення про нібито «збиття» Saab-340 ґрунтуються виключно на дописах проросійських акаунтів у соцмережах і неперевірених джерелах. Одним із перших фейк поширив анонімний X-акаунт GeoStrat Bharat, який позиціонує себе як індійський військовий блог, що спеціалізується на російській авіації. Саме там повідомлення з’явилося 10 травня о 13:19 за київським часом.

У дописі не було жодних фото чи відео збиття літака — лише старе зображення Saab-340 із маркуванням шведських ВПС, якому щонайменше 12 років. Сам акаунт має характерні ознаки проросійського інформаційного ресурсу: на аватарці зображені Володимир Путін та прем’єр-міністр Індії Нарендра Моді, а контент сторінки переважно складається з матеріалів, що прославляють російське озброєння, а також репостів RT, Sputnik, МЗС РФ та російських z-воєнкорів.

Також існує YouTube-канал із такою ж назвою, який має невелику аудиторію та публікує переважно відео про російську військову техніку.

Ще одним раннім джерелом поширення дезінформації став X-акаунт турецького науковця та колишнього військового Месута Хаккі Джашина. Його публікація про нібито «збиття» Saab-340 з’явилася 10 травня о 16:04 за київським часом і також не містила жодних доказів.

Джашин відомий як автор матеріалів про Росію та прихильник тісніших відносин між Анкарою і Москвою. На його сторінці регулярно публікуються відео Міністерства оборони РФ та інший контент, пов’язаний із російською тематикою. У профілі акаунта він зображений на тлі собору Василія Блаженного в Москві.

У своїх дописах Джашин посилався на грецьке видання Pro News. Це медіа неодноразово публікувало матеріали, співзвучні російським пропагандистським наративам щодо війни проти України. Автор статті про нібито «збиття» літака Теофраст Андреопулос систематично висвітлює події війни з позицій, близьких до російського інформаційного порядку денного.

Ще одним ресурсом, який поширив цю інформацію, стало маловідоме французьке медіа BSEAN MEDIA ACTU. Повідомлення про Saab-340 з’явилися лише в соцмережах видання — Facebook та Instagram — без жодних підтверджень або посилань на незалежні джерела.

Раніше це видання вже звинувачували у трансляції російських наративів. Зокрема, на його сайті публікували відео з матеріалами, що позитивно висвітлювали діяльність президента РФ Володимира Путіна. Потім відео були видалені.

Водночас про нібито інцидент із Saab-340 не повідомляли ні Міністерство оборони України, ні Міноборони РФ. На відсутність офіційного підтвердження звертали увагу навіть деякі російські ресурси.

Крім того, немає жодних фото, відео, супутникових знімків чи інших OSINT-даних, які б підтверджували втрату літака такого класу над територією України. Для події подібного масштабу така повна відсутність вторинних ознак є нетиповою.

Натомість під час повномасштабної війни Росія сама неодноразово втрачала літаки дальнього радіолокаційного виявлення сімейства А-50. Один із них був пошкоджений у лютому 2023 року на аеродромі Мачулищі в Білорусі. Ще два літаки Росія втратила взимку 2024 року над Азовським морем і в Краснодарському краї. Також щонайменше два літаки А-50 були уражені під час спецоперації СБУ «Павутина» 1 червня 2025 року.

Подібні інформаційні кампанії є типовим елементом російської пропаганди. Їх використовують для створення враження про нібито «технологічну перевагу» російського озброєння та демонстрації вигаданих військових успіхів без жодного незалежного підтвердження.

«Звільнення могил через три роки»: росіяни вигадали фейк про поховання військових

У соціальних мережах поширюють відео з твердженням, що українська влада нібито офіційно дозволила «звільняти» могили на кладовищах, якщо родичі не відвідували їх понад три роки. Автори публікацій стверджують, що звільнені місця буцімто використовуватимуть для поховання загиблих військовослужбовців. Однак ця інформація не відповідає дійсності.

Про це повідомляє StopFake.

На відео показано процес ексгумації, а закадровий голос говорить: «Звільняєм могилу. Три роки ніхто родича не відвідував, значить могила без хазяїна. Треба ж де-небудь захисників ховати».

Насправді в Україні не існує жодного закону чи нормативного акта, який дозволяв би перепоховання через відсутність відвідувань могили протягом трьох років. Ані Верховна Рада, ані профільні міністерства не ухвалювали подібних рішень.

Натомість Закон України «Про поховання та похоронну справу» прямо забороняє здійснювати підпоховання без згоди користувача місця поховання. Крім того, державні санітарні норми передбачають, що повторне використання місця поховання можливе лише щонайменше через 20 років і залежить від низки умов, зокрема типу ґрунту та особливостей поховання. Таким чином, згаданий у відео «трирічний термін» не має жодного стосунку до українського законодавства.

Окрему увагу привертає закадровий коментар. У ньому помітні неправильні наголоси, російський акцент та неприродна інтонація, що свідчить про спробу імітації української мови. Це вказує на те, що аудіодоріжку могли створити спеціально для надання відео більшої правдоподібності.

Також вдалося встановити походження самого ролика. За допомогою зворотного пошуку з’ясувалося, що відео було опубліковане в TikTok-акаунті ритуальної служби. В оригінальній версії жодних згадок про «звільнення могил» чи поховання військових немає. Ролик використовували як рекламу послуг ексгумації — законної процедури, яка може проводитися, наприклад, для перепоховання в іншому місті або країні.

Отже, поширене відео є черговим прикладом маніпуляції. Пропагандисти взяли нейтральний рекламний ролик, додали до нього сфабрикований аудіосупровід і вигадану інформацію про неіснуючий закон. Мета таких повідомлень — дискредитація українських державних інституцій, створення образу деградації суспільства та маніпулювання темою втрат війни.

Відео про іммігрантів, які перуть речі в річці в Івано-Франківську, зняли в Індії

У соціальних мережах і телеграм-каналах поширюють відео, автори яких стверджують, нібито в Івано-Франківську «індійські та бангладеські мігранти» перуть одяг просто в річці Бистриця. У дописах це подають як доказ того, що Україна нібито масово завозить трудових мігрантів із країн Азії, які «приносять свої традиції» та перетворюють «центр Європи на середньовіччя». Фейк викрили StopFake.

Насправді відеоролики, які використовують у таких публікаціях, не мають жодного стосунку до нинішньої ситуації в Івано-Франківську чи до мігрантів в Україні. Автори маніпуляцій змонтували два окремі відео, вирвавши їх із контексту та додавши неправдиві пояснення.

Приклад дезінформаційного повідомлення. Джерело: StopFake

Перша частина ролика показує групу молодих людей біля річки. Через низьку якість відео неможливо встановити їхню національність чи походження. На кадрах видно, що люди просто відпочивають біля водойми та спілкуються між собою. Закадровий голос стверджує, що події відбуваються на Івано-Франківщині, однак це відео не є новим — його опублікували ще два роки тому в тіктоку, а тепер повторно використали для створення маніпулятивного контенту.

Одне з оригінальних відео. Джерело: StopFake

Друга частина відео демонструє двох людей, які перуть одяг на березі річки та сушать речі просто неба. Саме ці кадри пропагандисти видають за «доказ» того, що в Україні нібито з’явилися мігранти з Індії та Бангладеш. Однак оригінальне відео, опубліковане в тіктоку користувачкою Viktoria Tkach126, містить чітке зазначення локації — Нью-Делі, Індія. У підписі до ролика також вказано: «Подорож до Індії: культура, враження, аюрведа».

Коментарі до одного з оригінальних відео. Джерело: StopFake

Крім того, авторка відео окремо відповідала в коментарях користувачам, які запитували, чи справді кадри зняті в Україні. Вона пояснила, що зйомка відбувалася в Індії, біля річки Періяр неподалік міста Кумілі у штаті Керала.

Таким чином, поширюване відео є черговою маніпуляцією, побудованою на використанні старих та чужих кадрів для створення негативного образу мігрантів і поширення ксенофобських настроїв. Автори фейку навмисно поєднали непов’язані між собою відео та додали неправдиві коментарі, щоб створити ілюзію «масового завезення мігрантів» в Україну.

Відеофейки під світові медіа, що українські біженці ввозять кокаїн, крадуть тварин і розчаровують європейців

У соцмережі Х масово поширюють відео, які мають вигляд сюжетів авторитетних європейських медіа та просувають наративи про нібито «загрозу українців» для країн Європи. Для цього автори фейків використовують логотипи відомих міжнародних видань, зокрема DW та EuroNews. Ролики оформлюють у стилі новинних відеонарізок із субтитрами, графікою та фірмовим оформленням медіа. Поширення таких підробок фіксує Центр досліджень «Детектора медіа».

У фейковjму ролику із логотипом DW поширюєть тезе, що «українські біженці, які нібито активно займаються наркоторгівлею, становлять серйозну проблему для Європи».

Твіт із відео із логотипом DW. Джерело: Детектор медіа

Водночас у відео, оформлених під EuroNews, просувають маніпулятивні повідомлення про «надзвичайно високий рівень злочинності серед українських біженців у Європі», заявляють, що українці нібито «викрадають домашніх тварин і вимагають викуп», а також поширюють фейкову статистику про те, що «понад 73% молоді до 25 років вважають помилкою прийняття мільйонів українських біженців до ЄС».

Твіт із відео із лого EuroNews. Джерело: Детектор медіа

Для більшого охоплення та створення ілюзії достовірності автори таких публікацій додають до дописів хештеги інших відомих міжнародних медіа та суспільно-політичних тем, зокрема #EU, а також назви популярних видань. Це допомагає просувати контент у рекомендаціях соцмереж і створює враження, ніби йдеться про справжні журналістські матеріали.

Твіт із відео із лого EuroNews. Джерело: Детектор медіа

Перевірка офіційних сторінок DW та EuroNews у соцмережах Х і Facebook засвідчила, що ці медіа не публікували відео з такими твердженнями. Відповідних сюжетів також немає на офіційних сайтах видань. Це свідчить про те, що виробники дезінформації використали логотипи медіа без їхнього відома, щоб надати фейкам більшої переконливості.

Твіт із відео із лого EuroNews. Джерело: Детектор медіа

Подібні відео є частиною ширшої інформаційної кампанії, спрямованої на дискредитацію українських біженців у країнах Європи та посилення антиукраїнських настроїв серед європейської аудиторії. Для цього пропагандисти систематично експлуатують теми злочинності, міграції та соціальної напруги, намагаючись створити образ українців як джерела небезпеки та дестабілізації.

Маніпуляція Маніпуляція: старі відео з нелегальними мігрантами в Іспанії видають за свіжі кадри «вторгнення»

Протягом квітня–травня 2026 року в соцмережі Х масово поширювалися відео, на яких люди висаджуються з човнів на іспанське узбережжя. Дописи супроводжувалися риторикою про «вторгнення» нелегальних мігрантів і нападками на прем'єра Педро Санчеса. Перевірили ці відео фактчекери Ґвара Медіа.

Що поширювалося

Із кінця квітня в Х, Facebook, Instagram, YouTube та російських пропагандистських телеграм-каналах розлетілося відео: десятки людей вистрибують із швидкісних човнів і виходять на берег. Підписи варіювалися від «Іспанії кінець!» до «вторгнення з суші, моря та повітря».

Відео поширені в пропагандистських телеграм-каналах та на інших платформах. Джерело: Ґвара Медіа

Імовірним першоджерелом стала сторінка Radio Genoa (1,5 млн підписників у Х): 20 квітня там з'явився допис «Це Іспанія. Ось як виглядає вторгнення», який за кілька днів набрав сотні тисяч переглядів. 1 травня той самий акаунт опублікував ще одне схоже відео, що також широко розійшлося мережею.

Що з'ясував аналіз

Зворотній пошук за зображенням роведений фактчекерами Ґвара Медіа показав: обидва відео були опубліковані ще взимку 2024 року — тобто понад два роки тому.

  • Перше відео датується січнем 2024-го: понад 80 нелегальних мігрантів прибули на човнах до узбережжя міста Адра в провінції Альмерія.
  • Друге відео було опубліковане 3 лютого 2024 року і фіксує висадку мігрантів поблизу містечка Ла-Рабіта в провінції Гранада.
Акаунт Radio Genoa систематично поширює антимігрантський контент

Обидва випадки справді пов'язані з незаконним перевезенням мігрантів наркоторговцями на швидкісних човнах — але відбулися задовго до квітня 2026 року. Radio Genoa повторно поширив ці кадри, подаючи їх як актуальні події.

Навіщо і чому зараз

Тригером для нової хвилі поширення стало рішення іспанського уряду: у квітні 2026 року кабінет Санчеса затвердив спрощену процедуру легалізації для близько 500 000 мігрантів, які вже перебувають в Іспанії. Санчес охарактеризував це як «економічну необхідність», посилаючись на старіння населення та дефіцит робочої сили.

Саме цей контекст використали для нової подачі старих відео — щоб сформувати враження міграційного хаосу «просто зараз».

Хто такий Radio Genoa

Згідно з дослідженням швейцарського видання Neue Zürcher Zeitung (2023), Radio Genoa — італійська пропагандистська платформа, що систематично поширює антиміграційний контент, просуває наратив про «колапс Європи» та підтримує ультраправі рухи. Нідерландський журналістський проєкт Pointer (KRO-NCRV) зафіксував, що платформа зображує біженців, мусульман і темношкірих людей як «загрозу» для європейської культури й суспільства.

Висновок

Це маніпуляція. Відео не мають жодного стосунку до подій квітня–травня 2026 року. Кадри зняті щонайменше два роки тому й повторно поширені з метою дискредитації міграційної політики іспанського уряду та розпалювання ксенофобських настроїв.

Маніпуляція: у сфальсифікованому сюжеті DW засудженого китайського студента замінили на вигаданого «українського біженця»

Три рівні маніпуляції

В мережі Х поширюється відео, що тримує сотні тисяч переглядів, і яке імітує репортаж Deutsche Welle (DW) про судовий вирок у справі про зґвалтування в Мюнхені. У ролику стверджується, що засудженим є «Тарас Мельник» — 28-річний українець-біженець, якого нібито засуджено до 11 років і 3 місяців ув'язнення за зґвалтування сусідки з використанням медичних анестетиків. Окрім цього, у відео стверджується, що у месенджері WhatsApp існують групи «з тисячами учасників — українських біженців», які обмінюються порадами щодо вчинення подібних злочинів, а «зґвалтування німецьких жінок українськими мігрантами стало значною проблемою для Німеччини», яку «німецька влада не бажає вирішувати».

Аналітики "Детектора Медіа" розібрали цю фальсифікацію. Перевірку здійснено на підставі порівняльного аналізу транскрипту оригінального репортажу Deutsche Welle та транскрипту сфальсифікованого відео.

Зліва оригінал DW з «Zhongyi J.», справа — сфальсифікований твіт з «Taras Melnyk».

Перевірка. Що насправді

Рівень 1: Підміна особи засудженого

Оригінальний репортаж та стаття DW присвячені реальній кримінальній справі — у ній фігурує Zhongyi J., 28-річний студент із Китаю, який визнав свою вину в мюнхенському суді. Саме він застосовував великі дози медичних анестетиків, щоб ґвалтувати жертву, і саме він отримав 11 років і 3 місяці ув'язнення за дві спроби вбивства та сім епізодів кваліфікованого зґвалтування.

У сфальсифікованому відео цю реальну людину замінено на вигаданого «Тараса Мельника» — неіснуючого українського біженця. Ім'я, національність і статус — повністю вигадані. Вирок, хронологія справи та деталі злочину взяті з оригінального матеріалу DW і механічно «прикріплені» до фіктивного персонажа.

Рівень 2: Підробка під авторитетне ЗМІ

Для надання фейку видимості достовірності зловмисники використали реальні кадри та транскрипт репортажу DW — одного з найавторитетніших міжнародних медіа з потужною репутацією у сфері журналістських розслідувань. Логотип і формат оригінального матеріалу залишені без змін — щоб глядач сприйняв підробку як справжній журналістський матеріал.

Крім того, оригінальний сюжет DW помітно довший. Зловмисники цілеспрямовано обрізали його, видаливши весь контекст щодо системних проблем і способів протидії насильству над жінками — онлайн і офлайн, — а також роздуми експертів і представників влади про законодавчі прогалини. Залишили лише фрагменти, які можна було використати для маніпуляції.

Дискредитаційні наративи проти біженців у підробному ролику. Зліва: «The rape of German women by Ukrainian refugees has become a major problem for Germany», справа — «some with thousands of Ukrainian refugees as members» про нібито спільноти у WhatsApp

Рівень 3: Дискредитація українських біженців і нагнітання ксенофобії

Ключові вставки, яких немає в оригінальному репортажі DW:

  • Твердження про те, що у WhatsApp існують групи «з тисячами учасників — українських біженців», які обговорюють злочини. В оригіналі DW йдеться про групи в Telegram — і жодного слова про українців.
  • Пряме твердження: «зґвалтування німецьких жінок українцями-мігрантами стало значною проблемою для Німеччини» — у матеріалі DW цього речення немає взагалі.
  • Твердження про те, що засудження вигаданого «Тараса Мельника» є одним із «небагатьох випадків, коли злочинці з середовища українських біженців отримують реальні вироки», і що «німецька влада не бажає цим займатися» — у DW нічого подібного немає.

Ці вставки є не журналістикою, а цілеспрямованою дезінформаційною рамкою: вони формують образ українських чоловіків-біженців у Німеччині як колективної загрози та натякають на змову влади щодо приховування злочинів.

Висновок

Ця маніпуляція є типовим прикладом наративної зброї: реальна кримінальна справа використовується як «упаковка» для вигаданих тверджень, спрямованих на формування негативного ставлення до українських біженців у Німеччині та підрив суспільної довіри до них. Використання бренду Deutsche Welle надає фейку псевдолегітимності, розраховуючи на те, що глядач не буде перевіряти першоджерело.

Оригінальний репортаж Deutsche Welle присвячений системній проблемі насильства над жінками і не має жодного стосунку до українських біженців.

Фейк Не менше п'яти латвійців загинули від українських дронів поблизу Резекне? Це брехня

У проросійських телеграм-каналах (@new_militarycolumnist, Приграничье, Nina VATT, Морская пехота России та інших) одночасно з'явилися однотипні дописи: «Не менше п'яти громадян Латвії загинули в результаті сьогоднішнього падіння українських дронів поблизу Резекне». Деякі канали додавали: «НАТО помститься». Аналітики «Детектора медіа» розібрали цей синхронний вкид. 

Що сталося насправді 

7 травня 2025 року два безпілотники, що залетіли на територію Латвії з боку Росії, порушили повітряний простір країни. Один із них упав на нафтобазі Резекне й влучив у порожній резервуар, як повідомляє «Мілітарний». Пожежу оперативно загасили. Жодних жертв серед цивільного населення не було — ні латвійська поліція, ні пожежна служба, ні уряд цього не підтверджували.

Естонія водночас закликала Україну посилити контроль над дронами на тлі інцидентів з порушенням повітряного простору держав Балтії. Втім, право Києва завдавати ударів по російських цілях Естонія підтримує — про це заявив міністр оборони країни Ханно Певкур. 

Наративи та маніпуляції

Публікація містить три елементи координованої дезінформації:

  1. Фейкові жертви для ескалації. Цифра «п'ять загиблих» вигадана — жодне офіційне латвійське джерело її не називало. Такі деталі розраховані на максимальний емоційний ефект і провокацію.
  2. Росія як «жертва» та «захисник». Фраза «НАТО помститься» є частиною системного пропагандистського наративу: Москва позиціює себе жертвою «агресії НАТО» і стверджує, що діє «у відповідь». Насправді саме Росія веде загарбницьку війну та цілеспрямовано перенаправляє українські дрони у бік інших держав.
  3. Замовчування ролі російських РЕБ. Міністр закордонних справ України Андрій Сибіга публічно заявив: якщо підтвердиться, що дрони відхилилися від курсу внаслідок дії російських систем радіоелектронної боротьби (РЕБ), Україна принесе вибачення латвійській стороні. Про практику цілеспрямованого перенаправлення дронів за допомогою РЕБ він попереджав ще у березні 2025 року

Висновок

У проросійських телеграм-каналах відбулася скоординована дезінформаційна кампанія з метою посіяти розкол між Україною та союзниками по НАТО й відновити наратив про «Росію-жертву».

«Le Point повідомляє», «Wired розслідував», «Bellingcat підтвердив» — як фабрикуються фейки про рак Пашиняна

У соціальній мережі X (Twitter) поширюється серія фейкових відео та публікацій, які стверджують, що прем'єр-міністр Вірменії Нікол Пашинян нібито хворий на рак. Для надання публікаціям правдоподібності їхні автори використовують логотипи та назви авторитетних світових медіа: Le Point, Le Figaro, Wired, Politico, Bellingcat, Libération. Жодне з цих видань нічого подібного не публікувало. Аналітики «Детектора медіа» розвінчали потік сфабрикованих фейків про Пашиняна. 

Колаж постів в іксі, що поширюють фейки про хворобу Пашиняна

Кампанія є частиною масштабних скоординованих операцій впливу, спрямованих на дискредитацію Пашиняна напередодні парламентських виборів у Вірменії 7 червня 2026 року.

Що поширюється

Упродовж першого тижня травня 2026 року в іксі з'явилася низка публікацій з відеозаставками, які імітують оформлення відомих західних медіа. Ось наративи і твердження, що поширюються безапеляційно:

  • Le Point нібито повідомив, що діагноз «рак» став причиною розлучення Пашиняна з дружиною Анною Акоп'ян.
  • Wired нібито розслідував, як Meta та Alphabet видаляють інформацію про онкологічне захворювання прем'єра.
  • Politico нібито процитував прессекретаря Пашиняна, який нібито підтвердив, що «стан здоров'я прем'єра — особиста справа».
  • Le Figaro нібито повідомив про «відомого французького онколога», який проживає в Єревані вже понад два місяці для спостереження за здоров'ям прем'єра.
  • Libération нібито написала, що помічник Пашиняна регулярно їздить до Франції купувати онкологічні препарати.
  • Bellingcat нібито підтвердив на основі «медичних документів» діагноз раку.

Публікації виходять від облікових записів з малою кількістю підписників і непов'язаним контентом — типова ознака бот-мережі. У дописах масово тегуються справжні редакції цих видань (@LePoint, @bellingcat, @WIRED, @politico, @Le_Figaro, @libe), щоб імітувати поширення новини.

Перевірка

Аналітики «Детектора медіа» перевірили сайти Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération — жодного матеріалу про онкологічне захворювання Пашиняна чи будь-що пов'язане з темою раку в контексті вірменського прем'єра знайдено не було.

Офіційна реакція влади Вірменії також спростовує будь-яку змістовну основу для таких тверджень. Пресслужба прем'єр-міністра не підтвердила жодних проблем зі здоров'ям.

Контекст

Ця кампанія не є ізольованим інцидентом. Вона вписується в масштабну скоординовану операцію інформаційного впливу, яка фіксується дослідниками з початку 2025 року.

7 червня 2026 року у Вірменії відбудуться парламентські вибори. Партія Пашиняна «Громадянський договір» веде передвиборчу кампанію в умовах низьких рейтингів після втрати Нагірного Карабаху. Для захисту Вірменії від кібератак Брюссель не тільки виділяє кошти, а й надає кадрову підтримку. Верховна представниця ЄС із закордонних справ Кая Каллас 16 березня оголосила, що до Вірменії буде направлено європейську групу швидкого реагування на гібридні загрози. Експерти ЄС допоможуть апарату прем'єр-міністра, Центрвиборчкому, МВС та іншим відомствам розробити механізми антикризового управління на випадок кібератак та іноземного інформаційного маніпулювання.

Вірменська фактчекінгова організація CivilnetCheck задокументувала щонайменше сім наративів пропаганди проти Пашиняна, що поширюються через фейкові відео під логотипами CNN, Reuters, Bloomberg, Euronews, Le Point та інших. Вірменська медіаплатформа FIP.am встановила, що відео з логотипом Le Point про «70% членів "Громадянського договору" з французьким громадянством» є фабрикацією — такої публікації у Le Point не існує.

Дослідники ідентифікують у кампаніях проти Пашиняна операційні стратегії Storm-1516, Doppelgänger і «Матрьошка» — ті самі, що використовуються проти України та країн ЄС. 

Ідентична тактика вже спрацьовувала раніше: у лютому–березні 2026 року через телеграм-канали, пов'язані з проросійськими мережами, поширювалися сфабриковані перші шпальти Liberation і Le Parisien із заголовками про те, що Макрон нібито «підштовхує Пашиняна до війни проти Росії». Перевірка оригінальних сайтів видань показала: Liberation за вказаною датою вийшла з матеріалом про Трампа, Le Parisien — про ціни на паливо.

Чому це важливо

Тактика «авторитетного джерела» розрахована на рефлекторну довіру: читач бачить логотип Le Figaro чи Bellingcat і не перевіряє оригінал. Коли фейк доповнюється конкретними деталями — «онколог у Єревані вже два місяці», «помічник купує ліки у Франції» — він стає ще переконливішим.

Для українських читачів це не абстрактна тема. Ті самі технології і ті самі мережі, що атакують Пашиняна, діють і проти України. 

Висновок

Твердження про онкологічне захворювання Нікола Пашиняна є фейком. Жодне з посилань у публікаціях не підтверджується: Le Point, Le Figaro, Wired, Politico, Bellingcat і Libération нічого подібного не публікували.

Кампанія є частиною задокументованої координованої операції впливу напередодні виборів у Вірменії, що використовує добре відомі методи дезінформації — маніпулятивне «клонування» авторитетних медіа та масоване поширення через фіктивні облікові записи.

Маніпуляції на дефіциті кадрів: як російська пропаганда розпалює антимігрантські настрої в Україні

Центр протидії дезінформації фіксує нову масштабну дезінформаційну кампанію: через соцмережі масово поширюються відеоролики, які під виглядом гумору чи «прогнозів» намагаються спровокувати хвилю ксенофобії та підсилити внутрішній розбрат в Україні.

Штучний інтелект на службі хаосу

За даними моніторингу ЦПД, для поширення контенту використовується мережа новостворених акаунтів, які спеціалізуються винятково на цій темі. Ключовою особливістю є використання генеративного штучного інтелекту (ШІ) для створення відеоряду, що дає змогу швидко та масово продукувати дезінформацію.

Джерело: ЦПД

Основні наративи кампанії:

  • «Втрата національної ідентичності» через залучення іноземних працівників;
  • «Заміщення населення»;
  • Теза про «марність боротьби» з агресором на тлі демографічних змін.

Хто просуває дезінформацію?

У кампанії задіяні як системні пропагандисти, так і одіозні політики.

  • Юрій Лісовський, чиї акаунти неодноразово блокувалися за дезінформацію, випускає сатиричні пісні та ШІ-відео про мігрантів. Його метою є системна дискредитація державних інституцій через висміювання міграційної політики.
  • Артем Дмитрук — підсанкційний народний депутат, який долучився до поширення фейків, опублікувавши кадри з нібито індійськими мігрантами в українських річках. Насправді це виявилися архівні відео дворічної давнини, зняті безпосередньо в Індії.

Механіка поширення: Від ботів до реальних користувачів

Російська пропаганда вдало використовує психологію соцмереж. Завдяки «хайповому» та напівгумористичному формату деструктивний контент підхоплюють реальні користувачі, які репостять відео, чим допомагають масштабувати антимігрантську істерію.

Росія намагається перенести в Україну модель конфліктів, що вже були випробувані в країнах ЄС. Мета — змістити фокус із зовнішньої агресії на внутрішні чвари. Питання міграції є складним і потребує фахової дискусії, а не емоційних маніпуляцій чи ШІ-фейків.

Закликаємо читачів критично ставитися до «жартівливих» відео на гострі соціальні теми та перевіряти першоджерела візуального контенту.

Фейк: фотографія «мародерства» ізраїльських військових у Лівані виявилася витвором штучного інтелекту

У соцмережах поширюють зображення, на якому особи у військовій формі нібито завантажують награбоване майно ліванців у вантажівку. Пік поширення у грузиновомовному секторі фейсбуку припав на кінець квітня, паралельно такі ж фото поширювалися в різних соцмережах російською мовою. Аналіз фактчекерів Мythdetector свідчить про те, що фотографія не є документальною, а була згенерована за допомогою нейромереж.

Скриншоти публікацій грузинською та російською, що поширювали ШІ-фейк у різних соцмережах

Наприкінці квітня 2024 року в грузинському та російському сегментах соцмереж (Facebook, VK, Telegram, X) став віральним знімок, що супроводжувався підписом про «мародерство ЦАХАЛу на півдні Лівану». На фото зафіксовано «солдатів», які завантажують у кузов вантажівки килими та побутову техніку. 

  Ознаки ШІ: довжина та відображення телевізора, бампер вантажівки, нога солдата, поверхня землі

Аналіз візуальних аномалій

При детальному вивченні кадру фахівці Мythdetector виявили низку дефектів, характерних для роботи ШІ-генераторів, які зазвичай «недопрацьовують» дрібні деталі та перспективу:

1. Геометрія об'єктів: «Плазмовий телевізор» у руках солдатів має неприродні пропорції та дивне відображення на екрані, що не відповідає оточенню. 

2. Цифрові артефакти: Бампер вантажівки, поверхня землі та частини кінцівок військових сильно пікселізовані та мають ефект розмиття (blur), що не властиво реальній оптиці камери.

3. Анатомічні та формені помилки: Обличчя фігур на фото нечіткі та буквально «зливаються» з фоном. Шеврони на формі перетворені на нечитабельні плями, а написи на спорядженні — на хаотичний набір пікселів.

4. Проблеми з реквізитом: Один із солдатів тримає предмет із цифрою «9», розташування якої грубо порушує закони фізики та перспективи.

  Ознаки ШІ: обличчя солдатів, шеврон військової форми, килим, шпалери, цифра 9, зображена на предметі

Фактчекери ресурсу Myth Detector протестували зображення за допомогою спеціалізованого інструменту Hive Moderation. Результати підтвердили підозри: з імовірністю 99,1% фотографія була створена штучним інтелектом.

Важливий контекст 

Поширення цього фейку відбулося на тлі реальних дискусій у медіапросторі. 23 квітня ізраїльське видання Haaretz опублікувало статтю про свідчення щодо можливих випадків мародерства на півдні Лівану, що пізніше підхопила турецька агенція Anadolu Agency, а згодом видання The Times of Israel написало про розслідування інцидентів мародерства військовою поліцією Ізраїлю.

Висновок

Автори фейку використали реальний інформаційний привід (дискусію про дисципліну в армії та розслідування військової поліції щодо інцидентів мародерства), щоб підкріпити його сфабрикованим «візуальним доказом». Це класичний прийом дезінформації: змішування правдивого контексту з фейковим контентом для посилення емоційного впливу на аудиторію.

Нагадуємо, що навіть за наявності гострих політичних чи військових дискусій використання згенерованих зображень як «документальних фактів» є неприпустимим і слугує виключно для маніпуляції суспільною думкою.

Над хронікою працюють Маріанна Присяжнюк, Андрій Пилипенко, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.