«Детектор медіа» у режимі реального часу збирає та документує хроніки Кремлівської пропаганди навколо військового наступу на Україну. Україна роками страждає від кремлівської пропаганди, проте тут ми фіксуємо наративи, меседжі та тактики, які Росія використовує з 17 лютого 2022 року. Нагадаємо, що 17 лютого почалося значне збільшення обстрілів підконтрольної Україні території з боку бойовиків, в яких російська пропаганда звинувачує українські війська.
27 Листопада станом на 1372 день повномасштабної війни наша редакція зафіксувала:
2732
Фейк
816
Маніпуляція
775
Меседж
559
Викриття
Росія звинувачує Україну в «хімічних атаках на цивільних росіян» - розвінчано фейк
Російська пропаганда продовжує кампанію з безпідставних звинувачень України у використанні хімічної зброї. На це звернули увагу аналітики Центру протидії дезінформації.
Цього разу представник російської делегації в Організації із заборони хімічної зброї (ОЗХЗ) Кирило Лисогорський заявив, що ЗСУ нібито скидають з дронів отруйні речовини та «атакують цивільне населення Росії».
Це черговий фейк без жодного доказу. ОЗХЗ та інші міжнародні структури ніколи не фіксували випадків застосування Україною хімічної зброї. Росія регулярно повторює ці звинувачення роками, але щоразу не може надати ані зразків, ані незалежних експертиз, ані навіть координат «постраждалих» населених пунктів.
Навпаки, саме російські війська систематично порушують Конвенцію про заборону хімічної зброї. З початку повномасштабного вторгнення зафіксовано сотні випадків скидання з дронів гранат із хлорпікрином, сльозогінними та іншими задушливими речовинами на позиції ЗСУ. Ці факти підтверджені ОЗХЗ, розслідуються як воєнні злочини та стали підставою для нових санкцій проти РФ.
Коли росіяни скидають на позиції ЗСУ хлорпікрин, CS, гранати К-51 і т.д., їм треба виправдання: «Ми не перші, це Україна почала». Це знижує шанси на жорстку реакцію світу і нові санкції. Внутрішній споживач чує: «Українські нацисти труять мирних росіян хімією!». Це підігріває ненависть і готовність воювати «поки не знищимо всіх».
Кожен такий вкид — це розрахунок: чим голосніше кричать «Україна застосовує хімзброю», тим легше росіянам самим це робити без серйозних наслідків.
Розвінчано черговий російський фейк про українську ракету «Фламінго»
В соцмережах активно поширюють відео, яке нібито «викриває» Міністерство оборони України у використанні комп’ютерної графіки, кадрів із старих фільмів про Другу світову та американських запусків Tomahawk замість реальних кадрів української крилатої ракети FP-5 «Фламінго».
Насправді це свідома дезінформація. Жодної такої відеопрезентації ні Міністерство оборони України, ні розробник ракети – компанія Fire Point – ніколи не публікували.
Фейк створили пропагандисти самостійно: вони взяли реальний ролик The Wall Street Journal про характеристики «Фламінго», перефарбували колірну гаму з помаранчевої на блакитну, додали кадри з інших джерел і згенерували голос диктора за допомогою штучного інтелекту.
Перевірка фактів:
На офіційних ресурсах Міноборони України (сайт, Facebook) такого відео немає.
Компанія Fire Point не має ні сайту, ні сторінок у соцмережах, тож опублікувати ролик від її імені неможливо.
Як стверджують автори матеріалу VoxCheck аудіо у фейковому відео має явні ознаки ШІ-генерації: монотонний роботизований голос, численні граматичні помилки, нетипові для україномовної людини («велико дальності» замість «великої дальності», «нового поколинна» замість «нового покоління» тощо). Аналіз у сервісі Hive Moderation підтвердив: ймовірність синтезованого голосу – висока.
Таким чином, замість «викриття підробки» пропагандисти самі змонтували фейк, щоб дискредитувати українські розробки озброєння.
У російській пропаганді вже три роки лунає «Україна — бідна, нічого не може, все розкрадено». Коли з’являються докази зворотного (нові ракети, дрони, РЕБ), це руйнує всю картинку. Тому доводиться кричати «фейк!» і знімати «викриття», щоб своя аудиторія не почала ставити незручні питання. Поки українські ракети (того ж «Нептуна», РК-360МЦ, а тепер і «Фламінго») реально топлять їхні кораблі, б’ють по Криму й НПЗ, росіянам психологічно легше переконувати себе й свою аудиторію, що «цього всього насправді немає», що це «мультики».
Фейкове ШІ-відео з «українським солдатом» створене на основі обличчя російського блогера
На початку листопада в грузинській частині фейсбуку поширювалося відео з молодим чоловіком в армійській уніформі. Він ридає, стверджуючи, що його силоміць відправляють на фронт, він не бажає гинути, та закликає глядачів розповсюдити ролик. У супровідному описі зазначено: «Клоуни змушують молодь воювати». Багато коментаторів сприйняли героя відео як українського військового. Розвінчали цей фейк грузинські фактчекери mythdetector.
Насправді це ролик, згенерований штучним інтелектом, з маніпулятивним закликом до військової допомоги. Він містить характерні для ШІ помилки, а його першоджерело — акаунт у тіктоку, який раніше завантажував подібний фейковий контент.
У відео помітні технічні вади, властиві контенту від штучного інтелекту. Обличчя мовця та його сльози виглядають штучно: зображення надто гладке, сльози на підборідді й носі неприродно сяють. Якщо придивитися до окулярів, то в деяких місцях вони наче зливаються з обличчям.
Крім того, на уніформі є шеврон, де мав би бути напис з прізвищем бійця, але замість цього видно розмиті, нечитабельні символи — типова проблема для ШІ-генерації.
Нечитабельні написи — типова ознака ШІ-згенерованих зображень та відео
За підписом, відео походить з тікток-акаунту fantomoko, який нині заблоковано. Фактчекери Myth Detector проаналізували схожі ролики, які цей користувач поширював раніше. Наприклад, в одному з ШІ-відео, що циркулювало в російськомовних і грузинськомовних спільнотах, «український солдат» заявляв, що йому 23 роки та його примусово мобілізували.
Станом на 4 листопада в акаунті fantomoko було кілька аналогічних матеріалів. Деякі показували «українських вояків», інші — фігури з російським прапором на формі. Зміст варіювався: від слізних скарг про примус до війни до сцени, де людина тримає український прапор біля Кремля.
Скриншот акаунту в тіктоці, що поширює антиукраїнські ШІ-генеровані відео. Джерело: mythdetector
Ці ролики також дослідила італійська фактчекінгова платформа Open, яка встановила особу, чиє обличчя використовували для ШІ-генерації. Виявилося, що один із «героїв», чиє обличчя стає шаблоном чи не найчастіше, — це російський відеоблогер під ніком kussia88, відомий на ютубі як KASHA STREAM. Порівняння облич підтверджує, що у фейковому відео застосовано саме його риси.
Фото російського блогера, чиє обличчя взято за основу ШІ-знегерованих фейків. Джерело: mythdetector
Російські пропагандисти та пов'язані з ними мережі поширюють такі ШІ-згенеровані фейки з метою маніпуляції громадською думкою, особливо в країнах з потенційним скептицизмом до підтримки України.
Фейк про «ожирілого українського офіцера»: ШІ-контент використовується для дискредитації допомоги Україні
У соціальних мережах, зокрема в польському сегменті фейсбуку, активно поширюють нібито фотографії чоловіка з надмірною вагою в українській військовій формі. Автори публікацій стверджують, що це офіцер, який керує мобілізацією в українській армії, і його зовнішній вигляд нібито доводить, що міжнародна допомога «не потрапляє до тих, хто її дійсно потребує». Такі публікації набирали сотні коментарів та репостів. Насправді такої особи не існує, а зображення створене штучним інтелектом з метою розпалювання антиукраїнських настроїв. Розвінчали фейк польські фактчекери з Demagog.
Скриншот акаунту на фейсбуці, що поширював ШІ-фейк. Джерело: Demagog
Знімок походить з відео, яке спочатку з'явилося в тіктоку. При детальному перегляді ролика помітні ознаки ШІ-генерації: наприклад, крісло зливається з фоном, тіні на одязі «танцюють» неприродно, а положення рук персонажа виглядає штучно. На відео нібито офіцер «житомирського ТЦК» каже: «Наш колектив виступає проти перемир'я». Звук при цьому розсинхронізований з рухами губ на відеоряді.
Щоб підтвердити це, фактчекери Demagog проаналізували кадр за допомогою спеціалізованих інструментів Hive AI та Sightengine — обидва показали ймовірність понад 90%, що контент створений штучним інтелектом.
Результати аналізу відео за допомогою інструменту Sightengine
Акаунт у тіктоку, де опубліковано це відео, наповнений подібними матеріалами проросійського та антиукраїнського спрямування. В описі профілю є посилання на закритий телеграм-канал «МАТРЁШКА». Під час спроби приєднатися до нього ставлять провокаційні питання, наприклад, «Чий Крим?», що вказує на пропагандистський характер.
Публікації з цим зображенням набрали значну популярність: одна з них отримала понад 1000 реакцій і більше 200 поширень. У коментарях багато користувачів сприймають фото за реальне. Один з коментаторів написав: «Ця людина хвора, і тільки такі служать в українській армії, бо здорові та сильні – у Польщі». Інший додав: «Ця війна дивна – вони об'їдаються, відпочивають на курортах, їздять на розкішних авто, носять гроші в пакетах для покупок, отримують посади без прав, хочуть бути в нашому уряді».
Такі фейки спрямовані на підрив довіри до України та поширення антиукраїнських наративів у польському суспільстві.
Клікбейт: нібито помер експрем'єр-міністр України Володимир Гройсман
У соціальних мережах та на деяких новинних ресурсах активно поширюється неправдива інформація про нібито смерть колишнього прем'єр-міністра України Володимира Гройсмана. Ця публікація супроводжується гучним, емоційним заголовком і часто чорно-білим фото політика, що створює враження трагічної новини. Фейковий клікбейт розвінчали експерти voxcheck.
Скриншот акаунту у фейсбуці, що поширив фейк. Джерело: voxcheck
Утім це фейк. Насправді помер батько Володимира Гройсмана — Борис Ісаакович Гройсман. Він був депутатом Вінницької міської ради і пішов із життя 6 січня 2025 року у віці 78 років. Про це написав сам Володимир Гройсман на своїй офіційній сторінці в інстаграмі, що стало приводом для створення маніпулятивного контенту. Хоч Борис Гройсман помер ще в січні 2025 року, але фейкороби вирішили актуалізувати й використати цей привід для створення клікбейту саме зараз.
Механізм клікбейту
Повідомлення про «смерть експрем'єра» — це класичний приклад клікбейту, спрямованого на штучне збільшення трафіку та охоплення.
Автори таких постів (зокрема, з посиланням на сайт Timezones) навмисно використовують шок-заголовок («Помер експрем’єр-міністр України Володимир Гройсман»), щоб читачі, побачивши ім'я відомого політика, одразу ж перейшли за посиланням дізнатися подробиці.
Тільки при уважному прочитанні самої новини стає зрозуміло, що йдеться про смерть батька, а не самого експрем'єра.
Поширення такого контенту є свідомою маніпуляцією увагою читачів для підвищення показників відвідуваності ресурсу. Перевіряйте джерела інформації та уважно читайте повний текст новини, щоб не стати жертвою клікбейту.
Фейк: Законопроєкт передбачає залучення 10 мільйонів іммігрантів в Україну до 2030 року
Низка новинних ресурсів та акаунтів у соціальних мережах поширюють неправдиву інформацію про те, що Україна нібито має план залучити до 2030 року 10 мільйонів іммігрантів, зокрема «арабів та азіатів», з метою «масово замінити українців». Цей дезінформаційний наратив, що посилається на внесений на розгляд до Верховної Ради законопроєкт «Про внесення змін до деяких законів України щодо працевлаштування іноземців та осіб без громадянства», розвінчали фактчекери stopfake.
Скриншот пропагандистського ресурсу, що поширює фейк. Джерело: stopfake
Насправді повідомлення про залучення мільйонів мігрантів для «заміни» українців є черговим викривленим пропагандистським наративом.
Законопроєкт №14211, який наразі перебуває на розгляді в комітетах ВРУ, не містить жодних планів чи квот щодо залучення 10 мільйонів мігрантів і не має на меті заміну населення.
Його головна мета — спрощення легальних процедур для іноземних громадян та осіб без громадянства, які вже висловили бажання працювати в Україні. Зокрема, йдеться про спрощення процедур видачі дозволів на тимчасове проживання та дозволів на роботу. Ці зміни спрямовані на приведення українського міграційного законодавства у відповідність до стандартів Європейського Союзу, що є важливим кроком на шляху євроінтеграції.
Цифра у 10 мільйонів, озвучувана пропагандистами, не є частиною законопроєкту і не є державним планом.
Це число було раніше озвучене окремими експертами та політиками, включаючи колишнього міністра економіки України Тимофія Милованова, лише як особиста орієнтовна оцінка. Ця оцінка відображає потенційну майбутню потребу України у трудових мігрантах після війни для стабілізації економіки та компенсації різкого скорочення працездатного населення і демографічних втрат, спричинених війною та високим рівнем еміграції українців.
Таким чином, цифра «10 мільйонів мігрантів» — це окремі оцінки, що підкреслюють поточні демографічні виклики, а не затверджений урядовий план чи законодавче зобов’язання. Законопроєкт лише легалізує та спрощує теперішні процедури для охочих працювати, не встановлюючи жодних квот.
Foreign Affairs: штучний інтелект підсилює дезінформаційну війну, а США не готові до оборони
В статті Foreign Affairs від 19 листопада 2025 року повідомляється, що іноземні уряди використовують штучний інтелект для масового створення пропаганди, а американські інституції не готові ефективно реагувати на таку загрозу.
Штучний інтелект перетворюється на потужний інструмент інформаційної війни. За даними авторів Foreign Affairs, іноземні уряди, передусім Китай та Росія, вже використовують генеративні моделі, щоб створювати персоналізовані кампанії дезінформації. Водночас Сполучені Штати демонструють слабку системну відповість — слабшають агентства, відповідальні за протидію іноземному впливу, а механізми контролю й регулювання ШІ-моделей ще не налагоджені.
Однією з найяскравіших ілюстрацій цієї загрози автори наводять приклад діпфейку на платформі Signal, де повідомлення, начебто надіслане держсекретарем США, супроводжувалося аудіозаписом, абсолютно правдоподібним на слух — проте штучно згенерованим. Така технологія може підривати дипломатичні відносини, дестабілізувати політичні меседжі та створювати ризики витоку секретної інформації. “Якби брехню не викрили, цей трюк міг би посіяти розбрат, скомпрометувати американську дипломатію або отримати конфіденційну розвідувальну інформацію від іноземних партнерів Вашингтона.” — зазначають автори статті Джеймс П. Рубін і Дар'ян Вуїца.
Ще одна небезпечна тенденція — використання ШІ для створення персоналізованих впливових кампаній. За даними авторів, китайська компанія GoLaxy використала інструменти ШІ для побудови «цифрових профілів» сотень американських законодавців і громадських діячів. Потім, маючи ці дані, вона могла генерувати адаптований контент, який максимально відповідав психологічним уподобанням і політичним нахилам кожного адресата — і робити це в масштабі мільйонів повідомлень.
Рубін і Вуїца звертають увагу, що хоча дезінформація — не новина, саме ШІ зробив її масштабнішою й ефективнішою. Вони стверджують, що держави-агресори тепер не змушені вкладати сотні мільйонів доларів у пропаганду: generative AI (генеративний ШІ) дозволяє запускати впливові кампанії зі значно меншими ресурсами.
Найсуперечніше — це відповідь Сполучених Штатів. Як зазначають автори, замість посилення інституцій, здатних боротися з іноземним впливом, уряд США послаблює оборонні механізми. Зокрема, вони критикують рішення адміністрації, яка згорнула або зменшила повноваження органів, відповідальних за боротьбу з дезінформацією. Справжня стратегія протидії, на їх думку, має включати як технологічні, так і інституційні рішення. Потрібні нові структури, які б відстежували вплив ШІ-генерованих меседжів, й аудит моделей штучного інтелекту, що використовуються для створення інформаційного контенту. Вони також закликають до відновлення інституцій, покликаних протистояти дезінформації.
У глобальному контексті ця тенденція — не виключно американська проблема. Дезінформаційні кампанії з використанням ШІ вже стають частиною протистояння між державами, а слабка відповідь однієї великої демократії може стати сигналом для інших, як це описують автори.
Публікацію підготувала Віталіна Фурман
Як «Pravda» просуває російську пропаганду в Іспанії
Російська дезінформаційна мережа «Pravda» дедалі активніше розширює свою присутність у глобальному інформаційному полі, зокрема через іспаномовний сегмент – і це становить новий виклик не лише для Європи, але й для технологічних систем, які багато хто вважає до певної міри нейтральними. Саме це підкреслює останнє дослідження проєкту ATHENA, яке фокусується на тому, як прокремлівські наративи поширюються в Іспанії та впливають на штучний інтелект (ШІ).
Російські пропагандистські медіа, на які найбільше посилаються вебсайти з дезінформаційної мережі «Pravda». Джерело: ATHENA
Мережа «Pravda», вперше виявлена в квітні 2022 року, стала, за словами дослідників проєкту ATHENA, не лише пропагандистським інструментом, а й справжньою дезінформаційною машиною. Як йшлося у нашому матеріалі від 12 березня 2025 року, мережа охоплювала понад 150 доменів у близько 49 країнах. За даними NewsGuard, більшість сайтів мережі не створює ексклюзивного контенту — замість цього вони агрегують, передруковують або перекладають прокремлівські меседжі з державних російських медіа, Telegram-каналів чи офіційних джерел.
У звіті ATHENA дослідники зазначають, що іспанська «Pravda» інтегрує в іспаномовний простір ті самі меседжі, які Росія системно повторює на глобальному рівні: нібито «фашизацію України», «занепад ЄС», та виправдання війни. Усі ці тексти створені за спільним структурним принципом — вони видають російські пропагандистські матеріали за «думки експертів» або «альтернативну точку зору», а сам сайт — за місцеве видання, що нібито «бореться з цензурою». Таке маскування й націленість на іспанську аудиторію роблять мережу небезпечним інструментом впливу.
Проєкт ATHENA виявив, що крім загальноіспанської секції, з’явилися версії каталонською, баскською та галісійською мовами. Усі вони системно тиражують адаптований під місцеву аудиторію контент, значною мірою сформований на основі російських держзасобів, а також анонімних телеграм-каналів. Ця синхронна поява кількох мовних гілок не була випадковою: перші статті каталонської, баскської й галісійської секцій були опубліковані одночасно, і ці тексти були практично ідентичними перекладами, що свідчить про централізовану фабрику контенту, яка автоматизує й масштабує дезінформацію для різних аудиторій. Система працює як багаторівневий ланцюг: у її основі — тисячі телеграм-каналів, які формують первинну добірку матеріалів, далі йдуть агрегатори та локалізовані сайти «Pravda», що миттєво перетворюють ці сигнали на публікації. Моніторинг Maldita.es, на який посилається ATHENA, показує, що велику частину матеріалів мережі складають репліки повідомлень із телеграму.
Зв'язки між телеграм-каналами що поширюють наративи пропаганди та вебсайтами мережі «Pravda». Джерело: ATHENA
Ця дезінформаційна операція має кілька стратегічних цілей. По-перше, йдеться про розширення впливу на саму Іспанію та на весь іспаномовний простір, адже матеріали, які з’являються в Іспанії, легко поширюються до Латинської Америки. По-друге, медіа прагне нарощувати «пропагандистський слід» у мережі. NewsGuard виявив, що третина відповідей провідних чатботів повторювала наративи, що просуваються мережею «Pravda», а в багатьох випадках моделі прямо посилалися на матеріали цієї мережі, що створює ризик легітимації фейкових джерел у відповідях ШІ.
Практичні наслідки цього підходу видно й у часових пиках активності мережі: «Pravda» синхронно збільшувала обсяг публікацій у моменти криз, коли суспільна увага була максимально висока — наприклад, під час масштабного відключення електроенергії, яке торкнулося Іспанії та Португалії 28 квітня 2025 року. Саме в ці дні група публікувала сотні повідомлень, часто з натяками на кібератаки або з цілком неправдивими твердженнями про масштаби перебою, що посилювало паніку або сумніви щодо спроможності державних інституцій реагувати на кризу.
ATHENA та Maldita.es простежили, як повідомлення з телеграм з’являлися на сайтах мережі протягом перших хвилин, що робить ці платформи ефективним інструментом для швидкого розповсюдження наративів у періоди невизначеності. Значна частина джерел, на які спирається «Pravda», — це ресурси, пов’язані з російською держпропагандою: RT, Sputnik, RIA Novosti та інші. Близько 40% іспанських публікацій мережі прямо цитували такі джерела; решта здебільшого походила від телеграм-ланцюжків, які самі по собі часто републікують або переробляють матеріали з цих платформ.
Ще одним інструментом легітимації є фінансова підтримка: деякі з найактивніших у дезінформаційній мережі телеграм-каналів прямо закликають до донатів через PayPal, Patreon, криптовалюти та платформи, а також використовують сервіси, пов’язані з російськими платіжними системами.
Скриншоти із різних телеграм-каналів дезінформаційної мережі, які закликать фінансово підтримати їх діяльність. Джерело: ATHENA
Для України та для європейських медіа така діяльність може підривати довіру до інституцій і сіяти сумніви в ефективності заходів чи рішень, або може бути технологічною атакою на способи отримання інформації сучасними інструментами.
Публікацію підготувала Віталіна Фурман
Розвінчання фейку: Польща не звинувачувала Україну в підриві залізничних колій
Російські пропагандисти активно поширюють неправдиве твердження про те, що нібито Польща звинуватила Україну у скоєнні диверсії на залізничній лінії Варшава-Люблін.
Цей дезінформаційний наратив спрямований на дискредитацію України та загострення напруги у стратегічно важливому партнерстві між Польщею та Україною. Маніпуляцію розвінчали фактчекери stopfake.
Скриншот російських пропагандистських медіа, що поширили фейк. Джерело: stopfake
Насправді керівництво Польщі чітко заявило, що за цією атакою стоїть Росія, а не Україна.
Прем'єр-міністр Дональд Туск і міністр закордонних справ Радослав Сікорський однозначно назвали підрив залізниці «актом державного тероризму, замовленим Росією».
Польські правоохоронні органи прямо вказали, що підозрювані, хоч і були громадянами України, виступали лише виконавцями, завербованими російськими спецслужбами. Факт їхньої втечі до Білорусі слугує вагомим доказом причетності та керівництва з боку Росії.
Інцидент із підривом колій стався в районі Міки на лінії Варшава–Люблін. Ця лінія є критично важливою для постачання військової, гуманітарної допомоги та палива в Україну, що робить її ідеальною мішенню для російської диверсії.
Президент України Володимир Зеленський повністю погодився з оцінкою польської сторони й підкреслив, що «всі факти вказують на російський слід». Та ініціював створення спільної польсько-української робочої групи для ефективної протидії російським диверсійним операціям.
Використання громадян третіх країн, зокрема України, для виконання диверсійних актів у Європі є стандартною практикою гібридної війни, яку веде Кремль.
Дезінформація про звинувачення України Польщею є відвертою брехнею, покликаною посіяти розбрат між союзниками. Обидві країни чітко ідентифікували Росію як єдиного організатора та бенефіціара цього терористичного акту.
Фейк: Португалія нібито планує депортувати 60 000 українців
Російські пропагандистські телеграм-канали стверджують, ніби через оновлення законів Португалія вижене 60 тисяч українських біженців. До того ж нібито додому мусять повернутися 5 тисяч білорусів, що мають політичний притулок. «Виглядає, що європейська привітність випарувалася саме в момент, коли за неї потрібно було розплачуватися», — з іронією коментують такі дописи. Фейк спростовують фактчекери stopfake.
Скриншот пропагандистського телеграм-каналу, що поширює фейк. Джерело: stopfake
Але ця новина — фейк. Насправді Агентство з питань інтеграції, міграції та притулку (AIMA) в Португалії запустило перевірку дозволів на проживання (здебільшого для іноземних студентів), щоб відповідати нормам Єврокомісії. Цей процес не веде до автоматичного виселення: навпаки, він дозволить студентам перейти на альтернативні легальні статуси й залишитися для продовження навчання навіть після завершення тимчасового захисту.
60 тисяч — це загальна чисельність українських біженців, які зараз перебувають у Португалії. Країна не збирається влаштовувати масові вислання, а лише планує впорядкувати юридичний статус мігрантів після закінчення періоду тимчасового захисту. На даний момент цей захист для українців у Португалії, як і в інших країнах ЄС, продовжено до березня 2027 року.
Португальський уряд справді вніс правки до законів, подовживши тимчасовий захист для українців аж до 4 березня 2027 року. Цей статус забезпечує права на проживання, працевлаштування, медичне обслуговування та освіту, як і було закладено в оригінальному законодавстві. Однак нові заявки на такий захист від українців більше не розглядаються: для в'їзду потрібно заздалегідь оформити візу в консульстві Португалії, як і для громадян інших держав, що планують переїзд.
З самого початку повномасштабної агресії Росія постійно фабрикує брехню про статус українських біженців за кордоном. Але всі ці похмурі передбачення про «тотальні депортації» чи «раптове скасування допомоги» так і не стали реальністю.
Над хронікою працюють Андрій Пилипенко, Леся Бідочко, Олександр С'єдін, Костянтин Задирака та Олексій Півторак. Авторка проєкту — Ксенія Ілюк.