Spilnota Detector Media
«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.

12 Грудня станом на 1387 день повномасштабної війни наша редакція зафіксувала:

2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Русскій фейк, іді на***!

Хвиля фейків про «злочини» українських військових. Як мимоволі не стати поширювачем брехні?

Цього і минулого тижня фактчекери публікують викриття фейків із нібито злочинами українських військових проти цивільних. В усіх випадках ворожі ресурси використовували реальні новини про кримінальні інциденти, змінюючи заголовки та додаючи згадки про ЗСУ.

Ось три свіжі випадки, які викрили фактчекери VoxCheck: «На Львівщині військові 95-ї ОДШБр напали на артистів ансамблю "Гуцулія"»; «На Прикарпатті військовий 82-ї ОДШБр убив господаря будинку і підпалив житло»; «У Києві затримали військового 95 ОДШБр за вбивство батька, який 7 років переховувався на службі». А тиждень перед тим пропагандисти підробили матеріал із сумських медіа, ніби військовий викинув із вікна дитину

У кожному випадку пропагандисти додали до публікацій про справжні кримінальні злочини частини про причетність до них військових, тоді як у першоджерелах і місцевих медіа про причетність військових не повідомляли. 

Щоб мимовільно не стати поширювачем ворожої дезінформації, варто звертати увагу на такі ознаки:

- Джерело інформації: Завжди перевіряйте, чи посилається новина на офіційні джерела (поліція, прокуратура, офіційні медіа). Якщо джерело — анонімний Telegram-канал або «неназване українське медіа», ставтеся до нього критично.

- Фотофейки та скріншоти: Шукайте оригінальну новину за ключовими словами у інших медіа. Часто пропагандисти просто редагують заголовок або додають згадки про військових у вже існуючий матеріал.

66,4 мільйона контактів і російська пропаганда від національних політиків: Польські фактчекери про зростання брехні щодо українців у соцмережах

Спільнота польских фактчекерів Demagog.pl спільно з польським Інститутом моніторингу медіа (IMM) опублікували дев'ятий звіт про масштаби антиукраїнської пропаганди та дезінформації в польськомовному сегменті інтернету. Звіт, що охоплює період із серпня по листопад 2025 року, зафіксував значне зростання кількості негативних публікацій, збігаючись із цілями дестабілізації Росії.

Згідно з аналізом Demagog та IMM, за чотири місяці протягом серпня–листопада 2025 року у соціальних мережах X, Facebook, Instagram, YouTube) було опубліковано 185 766 дописів із негативним змістом, що містили образливі визначення щодо України та українців.

Ця цифра означає зростання на майже 98% порівняно з попереднім звітним періодом квітень–липень 2025 року.

За оцінками IMM, кількість контактів, які користувачі соціальних мереж могли мати з цим деструктивним контентом, сягнула 66,4 мільйона, що становить зростання на 104%.

Переважна більшість антиукраїнських дописів (92,5% усіх проаналізованих матеріалів та 60,8% охоплення) походить із платформи X.

Серед користувачів соціальних мереж, які публікують ворожі щодо українців матеріали є профілі політиків. Серед них фігурують акаунти Януша Корвіна-Мікке, Ґжеґожа Брауна, Влодзімєжа Скаліка, Конрада Берковіча, а також партій KORWiN та Конфедерація Корони Польської.

Найбільший сплеск негативних дописів був зафіксований після:

1. Ветування Президентом Каролем Навроцьким закону про допомогу громадянам України, де він стверджував про нібито «привілейоване становище» українських біженців.

2. Російських провокацій: Порушення повітряного простору Польщі російськими дронами в ніч із 9 на 10 вересня та акти диверсії на залізниці між Варшавою та Любліном.

Фактчекери зазначають, що, попри невідомість інтенцій окремих авторів, їхні дії «збігаються з цілями Росії», яка прагне відрізати Україну від підтримки Заходу.

Пропагандисти і політики найбільше використовують такі методи та теми:

• Дискредитація влади в Україні: Фейки про нібито корупцію (закупівля Зеленським готелю чи ранчо), критичні заяви про причини відключень світла.

• «Бандеризація» та Волинь: Повернення історичних конфліктів для розпалювання ненависті. Навіть нейтральні символи чи події, як-от інцидент із червоно-чорною символікою на концерті чи виставка в Музеї сучасного мистецтва, подаються як «загроза бандеризму».

• «Українізація» Польщі: Створення паніки навколо присутності українців, звинувачення у нібито захопленні влади, шкіл чи території.

• Фальшиві звинувачення у злочинах: Поширення історій про те, що диверсії на залізниці чи пожежі у Варшаві скоїли «українські терористи», при цьому ігноруючи офіційні висновки про зв'язок виконавців із російською розвідкою.

• Нібито «привілейоване» становище: Нагнітання страху, що українці «обтяжують» систему охорони здоров’я та отримують допомогу «коштом поляків».

Польські фактчекери пишуть, що ці «наративи, спрямовані на налаштування поляків проти українців та України», активно циркулюють у мережі, часто використовуючи лексику, яку фактчекери визначили як ключові маркери антиукраїнської пропаганди («укри», «укрополь», «бандерівці», «упадіна» тощо).

Фейк, що військовий «Мадяр» закликав повалити Зеленського, якщо той погодиться на «капітуляцію»

Кремлівські медіа та пропагандистські ресурси знову намагаються дестабілізувати ситуацію в Україні, поширюючи неправдиву інформацію про нібито загрозу повалення влади. Як повідомляє фактчекінговий проєкт StopFake, командувач Сил безпілотних систем Збройних сил України Роберт «Мадяр» Бровді не погрожував президентові Володимиру Зеленському.

Російські джерела, включно із пропагандистським проєктом «Другая Украина», стверджують, що Роберт «Мадяр» Бровді нібито погрожує «розвернути» армію проти Володимира Зеленського. За їхніми словами, таку заяву він зробив, коментуючи обговорення нинішнього проєкту мирної угоди між Україною та Росією. На підтвердження цієї тези публікується відео з промовою Бровді.

StopFake з’ясував, що відео, яке поширюється мережею, є вирізаним фрагментом із прямого ефіру «Мадяра» на його YouTube-каналі, опублікованого ще 2 вересня 2022 року.

Промова Роберта Бровді була коментарем щодо теоретичної можливості переговорів із Росією в той час, коли війна, на його думку, перебувала у «переломному моменті» на користь української армії, після чого дійсно розпочався успішний контрнаступ на Харківщині та звільнення Херсона.

У цьому фрагменті «Мадяр» застерігав «усіх» від можливих переговорів, які не відповідають інтересам українського народу:

«...До Нового року зміниться формат війни. Ми закріпимо той переломний момент, який зараз відбувається. У будь-якому разі ці чорти (Росія – прим.ред.) будуть змушені з нами розмовляти, а розмовляти ми, швидше за все, не готові. А якщо влада збирається говорити не на користь українського народу, то отримає від нас по куполу (по голові – прим.ред.)…»

Таким чином, відео не має жодного стосунку ані до нинішніх мирних ініціатив, ані до конкретних політиків.

Пропагандисти, поширюючи фейк, навмисно не опублікували повний коментар Роберта Бровді. Буквально за кілька секунд після цитованої фрази він пояснює, що не має на увазі «конкретних людей». Таким чином, агітпроп використав застарілу, вирвану з контексту заяву для створення фейку про нібито внутрішній конфлікт і спробу дестабілізувати політичну ситуацію в Україні.

Тревел-блогер використав ШІ для расистського зображення іммігрантів як загрози в Лондоні

Популярний тревел-блогер Курт Каз (Kurt Caz), відомий своїм контентом із «дослідження бідності», використав генеративний штучний інтелект для створення оманливої та відверто расистської обкладинки (прев'ю) до свого ютуб-відео. Мета цієї фальсифікації — зобразити один з районів Лондона як небезпечне місце, «тероризоване» небілим населенням та іммігрантами, розпалюючи антиіммігрантські настрої серед мільйонів своїх підписників. Фейк викрили журналісти Futurism.com

Порівняння обкладинки та кадрів у самому відео блогера. Джерело: Futurism.com

Південноафриканський інфлюенсер Курт Каз, який має близько 4 мільйонів підписників на ютубі, опублікував 36-хвилинне відео під назвою «Avoid This Place in London» («Уникайте цього місця в Лондоні»), зняте в лондонському районі Кройдон, де 36,2% жителів є іммігрантами.

Хоча саме відео містило типові расистські випади про злочинність та імміграцію (називаючи небілих людей, які просто займаються своїми справами, «цікавими персонажами»), головна маніпуляція містилася в його обкладинці (прев'ю). 

Мініатюра, яку Каз розмістив на обкладинці відео, демонструвала:

  • Каза, який іде вулицею.
  • Вітрини магазинів із вивісками, написаними арабською в’яззю.
  • Чоловіка на велосипеді в чорній балаклаві, який загрозливо дивиться на камеру.

Проте, як звернули увагу користувачі, фактичний кадр із відео кардинально відрізнявся від прев'ю:

  • Насправді, вивіски на вітринах були англійською мовою.
  • «Загрозливий байкер» у балаклаві насправді був усміхненим чорношкірим чоловіком без маски.

Ця значна розбіжність є чіткою ознакою того, що зображення було відредаговано за допомогою генеративного ШІ, щоб штучно додати елементи, які підтверджують расистський наратив інфлюенсера: заміна англійських написів на арабські та перетворення усміхненого перехожого на зловісного персонажа в балаклаві.

Цей випадок вписується в ширшу тенденцію використання доступного ШІ для створення антиіммігрантського пропагандистського контенту у Великій Британії. Такі сфабриковані зображення стали інструментом для ультраправих пропагандистів, які прагнуть розпалити ворожнечу та страх, а ШІ дає змогу швидко створювати та поширювати такі фальшивки мільйонам користувачів без особливих зусиль.  

ШІ-фейк: Андрій Єрмак уже на фронті

У соціальних мережах, зокрема, російськомовних та грузиномовних акаунтах у фейсбуці, поширюються сфабриковані фотографії, які нібито демонструють колишнього голову Офісу Президента України Андрія Єрмака у військовій формі на передовій. Ці зображення є фейком, згенерованим штучним інтелектом (ШІ). Жодне українське чи західне медіа не публікувало підтверджених фотографій Єрмака з фронту. Зафіксували поширення згенерованих зображень грузинські фактчекери Mythdetector.  

Скриншоти акаунтів на фейсбуці, що поширювали згенеровані зображення. Джерело: Mythdetector

З 1 по 4 грудня в російськомовних та грузиномовних акаунтах у фейсбуці поширювалися підроблені фотографії колишнього керівника Офісу президента Андрія Єрмака. На одному з фото він зображений у військовій формі, стоячи перед українським танком. На іншому — стоїть у штучно створеній траншеї, оточений кількома камерами.

На другому знімку Андрій Єрмак позує перед танком, одягнений у військовий жилет. Цей жилет виглядає неприродно злитим з формою, ніби вони є одним цілим, що ускладнює розрізнення між ними.

Окрім візуального аналізу, фактчекери Mythdetector перевірили ці зображення за допомогою інструменту для виявлення ШІ. Сервіс Hive Moderation визначив усі фото як створені штучним інтелектом з високою ймовірністю (близько 90%).

Скриншоти результатів перевірки зображень сервісом Hive Moderation

Поширення цих сфабрикованих фотографій ніби підтверджує заяву Єрмака про його плани приєднатися до військових, створюючи враження, що його «поїздка на фронт» уже відбувалася, та є лише штучною піар-акцією. Ані українські, ані міжнародні медіа не публікували інформацію чи фотодокази про те, що він уже прибув на передову для участі в бойових діях.  

Маніпуляція щодо змін у правилах перетину кордону між Україною та Польщею

У польському сегменті соціальних мереж поширюється неправдива інформація про те, що польський уряд нібито «таємно» вирішив скасувати прикордонний контроль для поїздів з України, що мало б спростити в’їзд українським громадянам. Ці повідомлення є маніпуляцією. Зміни, про які йдеться, стосуються виключно організації роботи прикордонних та митних служб на українській стороні, тоді як на польському боці процедури контролю залишаються абсолютно незмінними. Розібрали маніпуляцію фактчекери Demagog

Скриншот допису у фейсбуці, що поширював маніпуляцію

У повідомленнях, які набули значної популярності, зокрема завдяки допису Кшиштофа «Атора» Возняка, стверджується, що уряд Польщі «ще більше спрощує» в’їзд українцям, але приховує цю інформацію від власних громадян. Як доказ наводилася новина про те, що «українці швидше в’їжджатимуть до Польщі», з посиланням на заяву українського прем’єр-міністра. Автор фейку пов’язав це нібито спрощення із занепокоєнням щодо зростання злочинності серед українців у Польщі

Популярний допис зібрав понад 2500 реакцій і близько 1000 поширень. Серед сотень коментарів переважали негативні висловлювання щодо польської влади: «Чому поляки досі не вийшли на вулиці та не скинули партію «Право і справедливість»?», «О Боже, я зараз збожеволію. Замість того щоб закрити кордон, вони ще більше полегшують його перетин. Скандал. Цей антипольський уряд руйнує нашу країну». «Продовжуйте голосувати за усміхнених», «Уряд має піти у відставку».

З польського боку жодних змін не відбулося

26 листопада віцепрем'єр-міністерка України Юлія Свириденко опублікувала в телеграмі повідомлення про те, що прикордонний і митний контроль на залізничних маршрутах Київ-Перемишль та Київ-Холм проводитиметься під час руху поїзда, а не на зупинках біля кордону. Наприкінці допису вона подякувала Міністерству розвитку України, Укрзалізниці та Державній прикордонній службі України за координацію. Примітно, що польські установи в повідомленні не згадувалися.

Щоб роз'яснити ситуацію, фактчекери Demagog звернулися до Міністерства внутрішніх справ і адміністрації Польщі (MSWiA) та Прикордонної служби Польщі (Straż Graniczna) з питанням, чи стосуються описані зміни також польської сторони. Обидві інституції відповіли, що з польського боку не внесено жодних змін до процедур перевірки пасажирів, які прибувають поїздом з України. 

Департамент соціальних комунікацій Міністерства внутрішніх справ і адміністрації в коментарі для Demagog, 8 грудня 2025 року:

«Усі особи, які в’їжджають на нашу територію поїздом з України, проходять повний прикордонний та митний контроль. Їхні особи перевіряються на основі проїзних документів та перевіряються в базах даних. Національна податкова адміністрація (KAS) також здійснює власну митну діяльність».

Прикордонна служба також повідомила, що польська сторона не відмовляється від перевірок, які проводяться під час зупинки поїзда на кордоні.

ВИСНОВОК

Інформація про те, що Польща нібито «таємно» спрощує в’їзд українцям, скасовуючи прикордонний контроль на залізниці, є неправдивою. Зміни стосуються лише внутрішньої організації контролю в Україні. З польського боку не було внесено жодних змін до правил перетину кордону, і пасажири, як і раніше, проходять повний прикордонний та митний контроль під час зупинок на польській території.

Самогубство, порно, казино, Путін — пропаганда вигадала фейк про буцімто найпоширеніші гугл-запити серед українських військових

У соціальних мережах активно поширюється сфабриковане відео з логотипом Microsoft, в якому стверджується, що SpaceX нібито отримала і опублікувала статистику пошукових запитів українських військових через Starlink. Серед «найпопулярніших» запитів автори відео вказують: «виступи Путіна», «способи самогубства», «здатися в полон яка радіохвиля», «онлайн-казино» та «порно».

На це звернули увагу аналітики проєкту StopFake.

Насправді відео повністю вигадане, як і наведена в ньому «статистика».

Це вже не перший випадок, коли російські пропагандисти використовують бренд Microsoft для поширення фейків. Раніше аналітики StopFake спростовували схожий ролик, створений від імені цього ж бренду. Видання Microsoft News ніколи не публікує матеріалів на політичні чи військові теми — воно присвячене виключно технологіям, штучному інтелекту, кібербезпеці та новим продуктам компанії.

Жодних згадок про таку «статистику» немає ані на офіційних ресурсах Microsoft, ані в каналах SpaceX.

З технічної точки зору зібрати подібні дані неможливо: весь трафік між користувачем і Google захищений end-to-end шифруванням. Google ніколи не передавав і не продавав деталізовану статистику пошукових запитів стороннім компаніям, зокрема SpaceX.

Для порівняння: реальні топ-запити українців у 2025 році, які публікує сам Google, виглядають зовсім інакше. Найпопулярнішими залишаються «графіки відключення світла», «Холостяк 2025», «Гра в кальмара 2», «лабубу», бій Усик–Дюбуа, «Євробачення 2025» та «НАБУ». Жоден із вигаданих пропагандою запитів до реального рейтингу не потрапив.

Поширення цього ролика — чергова спроба дискредитації ЗСУ та деморалізації українців за допомогою грубої брехні під виглядом «західних джерел».

Львівський садочок позбавив дошкільня подарунка через російську мову — розвінчано фейк

У соціальних мережах активно поширювався скриншот нібито з батьківського чату, де стверджувалося, що «Миколай не дарує подарунки “московоротим”» і що дитину принизили через мову спілкування.

На це звернули увагу в Центрі стратегічних комунікацій.

Департамент освіти та культури Львівської міської ради провів перевірку і офіційно заявив: такого випадку не було і бути не могло.

«У всіх комунальних дошкільних закладах Львова до дітей ставляться однаково, незалежно від мови, якою вони чи їхні батьки спілкуються вдома», — повідомили в департаменті.

Керівник департаменту Андрій Закалюк наголосив,  що діти не можуть і не повинні відповідати за погляди чи мовні вподобання батьків. Поширення подібних фейків — це типова російська тактика, спрямована на розпалювання ворожнечі, недовіри та розділення українського суспільства.

Міськрада закликала громадян не поширювати неперевірену інформацію та довіряти лише офіційним джерелам.

Такі інформаційні «вкиди» (фейки) про «мовне приниження» дітей у львівських садочках чи школах мають на меті створити образ «звірячих західняків-русофобів», які навіть маленьких дітей буцімто карають за російську мову. Це потрібно, щоб росіяни та проросійськи налаштовані громадяни в інших регіонах України (і за кордоном) обурювалися, сварилися між собою. Кожен такий фейк — це «доказ» для внутрішньої російської аудиторії та для міжнародної (особливо в країнах Глобального Півдня), що війна — це нібито «захист дітей від нацистів».

Фейк про «загороджувальні загони» у ЗСУ

Центр протидії дезінформації при Раді національної безпеки і оборони України спростував чергову інформаційну маніпуляцію, поширену російськими пропагандистськими телеграм-каналами. Ворожі ресурси намагалися дискредитувати Сили оборони України, публікуючи сфабриковане «радіоперехоплення» про нібито накази стріляти по власних військових.

У поширеному «перехопленні» йдеться мовляв, в українському бійцю нібито наказують відкривати вогонь по військових ЗСУ, які «відступають» з позицій під Куп’янськом.

Як зазначає ЦПД, це є черговою вигадкою російської пропаганди. «Радіоперехоплення» було змонтоване росіянами з єдиною метою — дискредитація СОУ та деморалізація українського суспільства.

«Українська армія не має і ніколи не мала загороджувальних загонів», — наголошують у Центрі.

Фахівці ЦПД пишуть, що подібні методи примусу та існування таких підрозділів є типовими саме для російської армії, де вони широко розповсюджені.

Це не перший подібний фейк, який поширює Кремль. Раніше Центр протидії дезінформації вже спростовував неправдиву інформацію про нібито наявність «загороджувальних загонів» ЗСУ на Сумщині.

Як приватні фірми продають дезінформацію авторитарним режимам

У світі пропаганди відбулася тиха революція: інформаційні операції, які раніше були прерогативою авторитарних урядів та спецслужб, тепер передаються на аутсорсинг приватним фірмам. Як зазначають у фактчекінгововому проєкті EUvsDisinfo, дезінформація та зовнішнє інформаційне маніпулювання й втручання (FIMI) перетворилися на глобальний бізнес, надаючи авторитарним режимам стратегічне охоплення з «правдоподібним запереченням» (plausible deniability).

Протягом десятиліть інформаційні операції жорстко контролювалися державами. Наприклад, Радянський Союз удосконалив «дезінформацію», а Росія інституціоналізувала її через сучасні цифрові операції, як-от «Агентство інтернет-досліджень» (IRA).

Однак, за останнє десятиліття ця модель комерціалізувалася. Дезінформація стала прибутковою послугою, яку пропонують приватні компанії з досвідом у сфері розвідки, військової справи чи маркетингу. Ці фірми продають повні пакети кампаній FIMI, які включають:

- Фейкові кампанії у соціальних мережах.

- Хакератаки та витоки даних.

- «Управління наративами» для поширення маніпульованого контенту в демократичних країнах.

Аутсорсинг як щит авторитарних режимів

Залучення не повʼязаних із державами фахівців забезпечує авторитарним державам дві ключові переваги: ефективність та можливість заперечення. Вони активно передають інформаційні операції приватним посередникам, захищаючи себе від дипломатичних та правових наслідків.

Ця модель дозволяє маніпуляторам експериментувати з ризикованими тактиками — генерацією контенту за допомогою ШІ, хакерством чи діпфейками, — які були б політично чи дипломатично вибуховими, якби їх здійснювали безпосередньо державні установи.

«Це інформаційний еквівалент використання найманців: клієнт насолоджується результатами, не несучи відповідальності», — пишуть в EUvsDisinfo.

Крім того, аутсорсинг дозволяє здійснювати «інформаційне відмивання» (information laundering), приховуючи справжнє походження дезінформації шляхом її пропуску через приватні фірми, фейкові акаунти та проксі-медіа.

Штучний інтелект: новий мультиплікатор пропаганди

Модель старих «фабрик тролів» (сотні молодих працівників, які вручну публікували пости) замінюється автоматизацією на основі ШІ. Системи, подібні до AIMS, розробки фірми «Team Jorge», можуть керувати тисячами фейкових акаунтів і генерувати багатомовний контент, адаптований до цільової аудиторії, в режимі реального часу.

Те, що раніше вимагало цілої будівлі та сотень співробітників у Санкт-Петербурзі, тепер можна здійснити за допомогою ноутбука.

Асиметрія інформаційної війни

Поява найманих фірм для операцій впливу створила асиметричний дисбаланс. Автократії, захищені цензурою та контролем, отримують максимальне охоплення з мінімальним ризиком. Демократії, обмежені прозорістю та законом, навпаки, стикаються з максимальною вразливістю і обмеженими засобами захисту.

EUvsDisinfo попереджає, що маркетизація дезінформації створює глобальну «сіру зону», де істина є опціональною, а відповідальність — невловимою. Оскільки інструменти ШІ стають дешевшими та потужнішими, ці операції, ймовірно, зростатимуть у масштабах і витонченості.

Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.