Нові відео в онлайні, нещодавно досліджені Російською та Українською службами Голосу Америки, засвідчують, як штучний інтелект, ймовірно, використовується для створення провокаційних так званих “дипфейків”, націлених на українських біженців.
В одному з прикладів відео схоже на телевізійний репортаж про українську біженку-підлітка та її досвід навчання у приватній школі в Сполучених Штатах.
Але потім відеоряд перемикається на кадри переповнених шкільних коридорів і пачок креку (кристалічна форма кокаїну), а голос за кадром звучить так, ніби дівчина називає американські державні школи небезпечними та застосовує образливі стереотипи про афроамериканців.
“Я розумію, що [у приватній школі] це досить дорого, – каже вона. – Але було б несправедливо, якби мою сім'ю змусили платити за мою безпеку. Нехай це роблять американці”.
Цей сюжет є фабрикацією. Тільки його перша частина — кадри про підлітку — справжній.
Зневажливий голос за кадром, ймовірно, був створений за допомогою штучного інтелекту, щоб реалістично скопіювати її голос, що призвело до створення продукту, відомого як “дипфейк”.
І, схоже, це частина російської інформаційної операції в онлайні під назвою “Матрьошка”, названої на честь російської іграшки матрьошки. Ця операція зараз спрямована проти українських біженців.
Голос Америки виявив, що кампанія запустила два дипфейки, які мали на меті зобразити українських біженців жадібними та невдячними, а також розповсюдили фейкові матеріали про те, ніби авторитетні західні журналісти стверджують, що Україна, а не Росія, поширює неправду.
Згідно з Antibot4Navalny, обліковим записом у мережі X, який досліджує російські інформаційні операції, і є широко цитованим провідними західними медіа, ці відео відображають найновішу стратегію російської онлайн-кампанії з дезінформації.
Готовність Росії націлитися на біженців, включно з підлітками, показує, наскільки далеко готовий зайти Кремль, який регулярно заперечує свою роль у дезінформації, намагаючись підірвати підтримку Заходу для України.
Націлюючись на жертви
Друге відео, націлене на українських біженців, починається з реальних новинних кадрів, у яких українка висловлює подяку за пожертвування одягу та підтримку, яку Данія надала біженцям.
Потім відео перемикається на загальні кадри та ймовірний дипфейк, коли голос жінки починає скаржитися, що українські біженці змушені жити в маленьких квартирах і носити вживаний одяг.
Голос Америки не поширює жодного з цих відео, щоб захистити особи біженців, зображених у дипфейках, але обидва використовували вкрадені кадри з авторитетних міжнародних ЗМІ.
Така техніка — підміна висловлювань людини шляхом імітації її голосу — нова для “Матрьошки”, повідомили Голосу Америки у Antibot4Navalny.
“За останні кілька тижнів майже всі відео були побудовані за цією схемою”, — написала дослідницька група.
Але експерти кажуть, що основна стратегія підробки справжніх повідомлень ЗМІ та націлювання на біженців не є чимось новим.
Наприклад, після смертоносного ракетного удару Росії у квітні 2022 року по залізничному вокзалу Краматорська в Україні Кремль створив фальшивий репортаж нібито від імені BBC, звинувативши українців в ударі, нагадує Роман Осадчук, фахівець Лабораторії цифрових криміналістичних досліджень Атлантичної Ради.
У цей же період, зазначив він, Росія також поширювала в Молдові дезінформацію, яка мала на меті налаштувати місцеве населення проти українських біженців.
“На жаль, біженці є дуже популярною мішенню для російських кампаній дезінформації, не лише для нападів на приймаючу громаду... але й в Україні”, — сказав Осадчук Голосу Америки.
Коли такі операції з дезінформації орієнтовані на українську аудиторію, додав він, метою часто є створити зіткнення між тими, хто виїхав з України, і тими, хто залишився.
Проте дипфейки, схоже, спрямовані на те, щоб вплинути на громадську думку в інший спосіб. Наприклад, одне відео, яке нібито містить аудіо засновника Bellingcat Еліота Гіґґінса, стверджує, що вторгнення України в російську Курську область є просто блефом.
“Весь світ спостерігає за смертельними спазмами України, – нібито каже Гіґґінс. – Нема що далі обговорювати”.
В іншому відео Шаян Сардарізаде, старший журналіст BBC Verify, здається, каже, що “Україна створює фейки, щоб організації, які перевіряють факти, звинувачували Росію”. Потім він описує це як частину “глобальної містифікації”.
Насправді обидва відео є дипфейками, створеними за тією ж формулою, що й попередні, націлені на біженців.
Гіґґінс розповів Голосу Америки, що вся аудіоімітація його власного голосу виглядає дипфейком. Він припускає, що мета відео полягала в тому, щоб залучити фактчекерів і змусити їх випадково підвищити його аудиторію.
“Я думаю, що це більше про підвищення їхньої статистики, щоб [ті, хто беруть участь в дезінформації] могли продовжувати доїти російську державу, отримуючи гроші на продовження такої діяльності”, зауважив він у коментарі Голосу Америки, отриманому електронною поштою.
Сардарізаде не відповів на запит про коментарі до цієї публікації.
Фальшиве відео, реальна шкода
Швидке поширення штучного інтелекту протягом останніх кількох років привернуло підвищену увагу до проблеми підроблених відео та зображень штучним інтелектом, особливо коли ці технології використовуються для створення зображень сексуального характеру без згоди.
Дослідники підрахували, що понад 90% дипфейків в інтернеті є відверто сексуальними. Їх використовували як проти пересічних жінок, так і проти дівчат та знаменитостей.
Дипфейки також застосовують для націлювання на політиків і кандидатів на державні посади. Однак залишається незрозумілим, чи справді вони вплинули на громадську думку або результати виборів.
Дослідники з Microsoft Theat Analysis Center виявили, що “повністю синтетичні” відео світових лідерів часто не переконливі та їх легко спростувати. Але вони також дійшли висновку, що аудіо дипфейки часто є “ефективнішими”.
Чотири відеоролики, поширені Матрьошкою, в яких в основному використовується глибоке фейкове аудіо, демонструють, що небезпека не обмежується відвертими зображеннями політиків. І якщо ваше зображення доступне в інтернеті, ви мало що можете зробити, щоб повністю захистити себе.
Сьогодні завжди є ризик “поширення будь-якої інформації публічно, включно з голосом, зовнішністю чи фотографіями”, каже Осадчук.
Шкода, завдана цим людині, може бути суттєвою.
Белль Торек, адвокатка, яка спеціалізується на технічній політиці та громадянських правах, каже, що люди, образи яких використовуються без згоди, часто відчувають почуття образи, приниження, безпорадності та страху.
“Усвідомлення того, що їхнім іміджем маніпулюють для поширення брехні чи ненависті, може посилити наявну травму, – сказала вона. – І в цьому випадку, я думаю, наслідки будуть ще сильнішими для цих спільнот [біженців], які вже й так потерпають від переміщення та насильства”.
Наскільки ефективні дипфейки?
Хоча неважко зрозуміти потенційну шкоду дипфейків, складніше оцінити їхній вплив та обсяг охоплення.
Пост у мережі X із фальшивими відео біженців набрав понад 55 000 переглядів. Це суттєво, вважає Ольга Токарюк, старша аналітикиня Інституту стратегічного діалогу.
“Це ще не вірусний контент, але вже і не маргінальний”, – каже вона.
З іншого боку, Antibot4Navalny вважає, що російські учасники дезінформаційних кампаній активно поширюють дописи X, використовуючи інші контрольовані облікові записи, і дуже мало реальних людей бачать їх.
Але навіть якщо велика кількість реальних людей переглянула дипфейки, це не обов’язково означає, що відео досягли цілей Кремля.
“Завжди важко... зі 100% кореляцією довести вплив цих дезінформаційних кампаній на політику”, – сказала Токарюк.