Spilnota Detector Media

Фейк: Росія захопила у полон «високопоставлених британських офіцерів»

Кремлівські медіа поширили інформацію про те, що російський спецназ нібито захопив у полон двох високопосадових британських офіцерів —  полковників Едварда Блейка та Річарда Керролла. ТАСС опублікував матеріал під заголовком «Найманці ЗСУ з Британії прибувають до Миколаєва та Херсона», посилаючись на норвезьке видання Steigan. Втім, як дослідили фактчекери The Insider, це фейк. 

Поширюване фото «полонених британських офіцерів», згенероване ШІ

Видання Steigan — це блог норвежця Пала Стейгана, який сам визнав, що не провів ретельної перевірки фактів і видалив публікацію про британських офіцерів 4 серпня, в той же день, коли її опублікував. Сам Стейган посилався на публікацію сайту coreinsightsintl.com від 2 серпня. Це сайт британської компанії з кібербезпеки з малою відвідуваністю — лише 750 переглядів за липень. Автор публікації — Гел Тернер, американський блогер з Нью-Джерсі, відомий расистськими поглядами та запереченням Голокосту, який у 2010 році був засуджений за погрози федеральним суддям. Раніше Тернер поширював фейки про застосування хімічної зброї Україною.  

4 серпня російське видання EADaily опублікувало фото цих «полонених офіцерів» з британськими паспортами. Експертиза виявила очевидні ознаки підробки з використанням інструментів генеративного штучного інтелекту:

  • Порушення фізики — незрозуміло, які сили утримують паспорти в такому положенні.
  • Неточна форма — однострої лише віддалено нагадують британські.
  • Штучне освітлення — надто рівномірне, що видає роботу ШІ.

Інформація про захоплення британських офіцерів не підтверджується жодними достовірними джерелами. Це дезінформація, створена за допомогою штучного інтелекту та поширена через мережу сумнівних блогерів і пропагандистських медіа.

П'ять способів розпізнати відео, згенеровані штучним інтелектом

Фатіма Квадрі, фактчекер The FactCheckHub

Те, що ви бачите в інтернеті, може виявитися неправдою — в епоху штучного інтелекту він може легко вас обдурити.

Ця стаття допоможе вам навчитися розпізнавати відео, створені за допомогою таких інструментів, як DALL·E (який генерує зображення, часто змонтовані у відеопослідовності) та Veo (який створює цілі відеосцени за запитом).

З швидким розвитком штучного інтелекту інтернет наповнюється відеороликами, які виглядають справжніми, але насправді такими не є. Від фейкових інтерв'ю до синтетичних новинних сюжетів — дипфейки стали настільки складними для виявлення, що вже не видають себе незграбними посмішками чи скутими жестами. Тепер вони настільки переконливі, що для їх розпізнання потрібно більше, ніж просто помічати нерівності або дивні посмішки.

Такі інструменти, як DALL·E та Veo 3, можуть створювати приголомшливі візуальні ефекти та кінематографічні відео лише за простим запитом. Хоча ця технологія відкриває нові творчі можливості, вона також несе значні ризики. Проблема полягає в тому, що ці відео часто майже неможливо відрізнити від справжніх.

Скріншот відео з X

Наприклад, уважний розгляд відео, опублікованого користувачем іксу в червні, яке показувало журналістку, що повідомляє про повінь у нігерійському місті Абеокута, виявляє окремі, але показові ознаки створення штучним інтелектом. Попри людиноподібні рухи та природне звучання мови, деякі невідповідності видали підробку. Зокрема, під час швидкого повороту ведучої в її руці раптом з'явилася парасолька, хоча секундою раніше її там не було.

Крім того, її байдужа реакція на падіння людини поруч — інцидент, який зазвичай викликав би занепокоєння — також свідчить про неавтентичну людську поведінку у відео. Існує багато прикладів таких відео, які стали вірусними.

Скріншот відео з Facebook

Інший приклад — це відео, що показує обвал естакади. Хоча пейзаж і конструкція виглядають реалістично, поведінка білого автомобіля, що їде до обваленої ділянки, неправдоподібна — це не та поведінка, яку можна очікувати перед лицем небезпеки.

Розпізнання контенту, створеного штучним інтелектом, — це не просто корисна навичка, це критично важлива навичка.

Шукайте візуальні аномалії

Відео, створені штучним інтелектом, хоча й стають дедалі досконалішими, часто виявляють свою штучну природу через тонкі збої та невідповідності. Зверніть увагу на дивне освітлення або невідповідні тіні, спотворені руки або пальці (поширене явище в перетвореннях зображення у відео DALL·E), неприродні рухи очей або кліпання, а також деформовані об'єкти на задньому плані.

В інструментах на кшталт Veo 3 роботоподібні рухи тіла, надто плавні переходи, змінені або незв'язні субтитри та звук, який звучить надто ідеально або не має фонового шуму, — все це може сигналізувати про синтетичний контент. Навіть складні сцени можуть містити об'єкти, які непослідовно розміщені або освітлені, тому ретельне спостереження є важливим.

Бездоганно, але це підробка

Veo, особливо в останній версії (Veo 3), може генерувати кінематографічні сцени з гіперреалізмом, але результати часто містять тонкі ознаки підробки. Зверніть увагу на надто ідеальні середовища, такі як бездоганно чисте небо, дзеркально гладка вода або неприродно плавний рух.

Переходи між сценами або кутами камери також можуть здаватися різкими або роботоподібними. Самі актори можуть не кліпати, не дихати або рухатися не зовсім природно, створюючи моторошне відчуття. Veo 3 навіть може створювати сценарії, які суперечать логіці або фізиці — подумайте про неймовірні події, бездоганних персонажів або фони з дивними повторюваними візерунками, які не належать до реальних умов.

Контекст також важливий. Veo 3, наприклад, є платним інструментом, тому раптовий потік коротких високоякісних відео навколо екстрених новин може сигналізувати про залучення штучного інтелекту.

Недавнім прикладом є аварія на естакаді в місті Насарава у центральній Нігерії, де циркулювали зображення, створені штучним інтелектом, щоб підтвердити це твердження. Однак The FactCheckHub виявив, що ці візуальні матеріали були оманливими.

Аналогічно, якщо відео нібито показує важливу подію, але про неї не повідомляє жодне авторитетне видання, це може бути тривожним сигналом.

Перевіряйте метадані

Такі інструменти, як InVID, можуть допомогти перевірити автентичність відео шляхом витягування метаданих, таких як часові позначки, GPS-координати та інформація про пристрій. Відео, створені штучним інтелектом, часто не містять цих даних або включають розпливчасті, загальні теги. Якщо у вас є доступ до оригінального файлу відео, перевірте його метадані на предмет таких ознак, як «Veo», «Gemini» або «Google AI».

Пам'ятайте, що метадані можуть бути видалені або змінені, тому це не повинно бути єдиним способом перевірки.

Використовуйте інструменти виявлення ШІ

Кілька інструментів можуть допомогти виявити медіаконтент, створений або змінений штучним інтелектом. Deepware Scanner призначений для виявлення дипфейкових змін обличчя, тоді як Hive Moderation використовує виявлення штучного інтелекту для позначення ймовірно синтетичних зображень або кадрів відео. InVID особливо корисний для перевірки відео, уможливлюючи покадровий аналіз та витягування метаданих. Ще один зручний інструмент — AI or Not, який допомагає визначити, чи було зображення або відео створене за допомогою штучного інтелекту.

Шукайте дисклеймери

Деякі творці добровільно позначають або ставлять водяні знаки на контент, створений штучним інтелектом, тому варто уважно подивитися. Шукайте фрази на кшталт «створено за допомогою штучного інтелекту», «створено за допомогою DALL·E» або «Veo3» у підписах, назвах файлів або описах проєктів, особливо якщо вони містять мову у стилі запитів.

Google вбудовує як видимі, так і невидимі водяні знаки в кожне відео Veo 3. Ви можете помітити маленькі логотипи або текст «Створено штучним інтелектом» у кадрі. Більш тонко, відео Veo 3 містять SynthID — невидимий цифровий підпис, який можна виявити лише спеціалізованими інструментами. Хоча широка громадськість не має доступу до сканерів SynthID, деякі фактчекери та організації можуть використовувати їх для перевірки походження відео.

Висновок

Виявлення контенту, створеного штучним інтелектом, стає все складнішим, оскільки технологія продовжує розвиватися. Однак, поєднуючи пильне спостереження з правильними інструментами та ставлячи під сумнів контент, якому не вистачає достовірного контексту або джерел, ми можемо залишатися на крок попереду дезінформації, керованої штучним інтелектом. Пам'ятайте: бути поінформованим — це не лише споживання контенту, але і його перевірка.

Оригінал публікації на сайті The FactCheckHub

Росіяни сфальсифікували відеозвернення Ольги Стефанішиної стосовно виїзду жінок за кордон

Російські телеграм-канали поширюють відео з логотипом телеканалу Freedom, у якому нібито звучить аудіокоментар віцепрем’єрки з питань європейської та євроатлантичної інтеграції України, а також міністерки юстиції Ольги Стефанішиної. У записі вона начебто заявляє про намір запровадити законодавчу заборону на виїзд за кордон для жінок і дівчат віком від 18 до 27 років, мотивуючи це потребою зберегти генофонд країни.

Скриншот пропагандистського телеграм-каналу, що поширив відеофейк

Фейк розвінчала команда Укрінформ. У ході розслідування було з’ясовано, що аудіо, присутнє в ролику, було згенероване за допомогою штучного інтелекту, на що вказує, зокрема, погана якість звуку та нечітка вимова слів.

Крім того, телеканал Freedom є російськомовним каналом державного українського іномовлення, який орієнтується на російськомовну аудиторію за кордоном. Спікери ж у підробленому ролику ведуть трансляцію українською мовою. Відповідно, ролик не може мати нічого спільного з телеканалом Freedom.

Сриншот фейсбуку Катерини Федотенко

Ба більше, ведучі, які нібито беруть коментар у Ольги Стефанішиної, насправді є журналістами телеканалу «Рада» — Назар Довгий та Катерина Федотенко — які беруть участь у телемарафоні «Єдині новини». Сама ж Катерина Федотенко припинила роботу на каналі ще у 2024 році. Водночас на телеканалі Freedom працює інша команда ведучих, і цей медіаресурс не бере участі у телемарафоні.

Даний фейк має намір підірвати довіру до української влади та посіяти паніку в суспільстві. 

Матеріал підготувала Анастасія Сизоненко

Фотофейк: у соцмережах поширюється фотографія українських дітей у військовій формі створена ШІ

Фактчекери грузинського проєкту Mythdetector зафіксували активне поширення у соціальних мережах, зокрема у Facebook, сфабрикованої фотографії, на якій нібито зображені українські діти у військовій формі. Розслідування показало, що це підробка, створена за допомогою штучного інтелекту.

Скриншот профілю у Facebook, що поширював фейк. Джерело: Mythdetector

5 червня 2024 року обліковий запис у Facebook, який раніше неодноразово поширював дезінформацію, опублікував фотографію з підписом про те, що працівники дитячого садка начебто вишиковують маленьких дітей у військовій формі. На фото діти тримають плакат із проханням до президента Зеленського підписати з ними військовий контракт. Детальний аналіз фотографії показав, що вона є підробкою, створеною штучним інтелектом. 

Найраніша відома публікація цієї фотографії з'явилася 1 червня 2024 року в блозі на платформі LiveJournal – у День захисту дітей. Варто зауважити, що LiveJournal, створений у 1990-х роках в Америці, з 2016 року переніс свої сервери до Росії. Відтоді платформа неодноразово фігурувала як джерело поширення дезінформації.

З 1 червня фотографія почала з'являтися на різних ненадійних російських блогах та вебсайтах, причому без зазначення первинного джерела. Це типова схема поширення дезінформації, коли підроблений контент подається як нібито автентичний матеріал.

Результати аналізу зображення сервісом wasitai. Джерело: Mythdetector

Детальний технічний аналіз фотографії, здійснений експертами Mythdetector, виявив типові для штучного інтелекту недоліки: а) неприродні форми дитячих рук б) різні види деформацій анатомічних частин в) інші візуальні аномалії, характерні для ШI-генерованих зображень. Додатково фотографію було перевірено за допомогою спеціалізованих інструментів розпізнавання контенту, створеного штучним інтелектом, які підтвердили ці висновки.

Фотографія українських дітей у військовій формі є підробкою, створеною за допомогою штучного інтелекту з метою дискредитації України. Це черговий приклад того, як сучасні технології використовуються для створення та поширення дезінформації.