Штучний Інтелект (ШІ) просочується в усі сфери нашого життя, впливаючи на думки та рішення аудиторії. Нещодавно ми розповідали, як генерований штучним інтелектом клон української блогерки продає російські товари в Китаї.
Швидке вдосконалення технології, яка може створювати реалістичні аудіо та відео, викликає занепокоєння щодо того, як це може вплинути на політичний вибір людей.
Президентська кампанія у 2024 році США вперше зазнає впливу штучного інтелекту (ШІ), кажуть фахівці. Медіа та соціальні мережі розносять оманливі твердження і пропаганду, створюючи цілком правдоподібні, але неправдиві зображення подій, які ніколи не траплялися.
У січні цього року виборцям у північно-східному штаті Нью-Гемпшир було надіслано фальшиве голосове повідомлення, в якому голосом президента США Джо Байдена з його типовими інтонаціями та висловлюваннями, рекомендувалося не приходити на первинні вибори, на яких обирають кандидатів на президентські вибори в листопаді.
Голос, який було не відрізнити від голосу Байдена сказав, що "голосування цього вівторка лише дає можливість республіканцям у їхньому прагненні знову обрати Дональда Трампа".
Білий дім повідомив про підробку, але її автора досі не знайшли.
Дезінформація з'явилася і про колишнього президента Дональда Трампа - його зображення, на якому він нібито обіймає лікаря-інфекціоніста Ентоні Фаучі, якого республіканці ганять за політику протидії пандемії COVID-19, було поширено у соціальних мережах та медіа.
Ще один приклад – відео, у якому лякають світовою кризою, якщо переможе Байден.
Усе це – фейки, згенеровані штучним інтелектом, які є останніми прикладами того, як швидко за допомогою більшої кількості інструментів ШІ політики можуть зробити більш ефективними політичні нападки, стираючи межу між фактами та вигадкою.
Які найбільші загрози від ШІ під час цієї кампанії, які країни можуть втручатися у вибори найбільше, скільки коштує створити діпфейк та як його розпізнати, Голосу Америки розповіли медіаекспертка, адвокат та власник компанії, яка спеціалізується на ШІ.
Цьогорічна президентська кампанія зазнає впливу ШІ уперше – експерти
Підробні фото, відео чи аудіоматеріали в мережі – не новина. Але цьогорічна президентська кампанія у США уперше зазнає такого масштабного впливу штучним інтелектом, каже медіаекспертка Елейн Камарк Інституту Брукінгса.
За її словами, проблема не лише у кількості підробок, але й у тому, що чим ближче до виборів, тим менше часу їх перевіряти й розвінчувати.
Якщо фейк буде опублікований напередодні дня виборів, то не буде часу відбиватися від ньогоЕлейн Камарк, Інститут Брукінгса
"Було багато дезінформації про ковід та вакцинації, наприклад. Тоді був час, аби це було спростовано. Але з виборами так не працює, бо вони відбуваються у певний день. Тому, якщо за 2 дні, чи навіть 24 години до виборів хтось, опублікує діпфейк чи інший вид дезінформації, буде дуже складно відреагувати на нього. Це може вплинути на результати", – застерігає Камарк.
Вона зазначає: особливо це може вплинути на рішення виборців у так званих штатах-гойдалках, або тих, де немає чіткої переваги жодної партії.
А радник з питань свободи слова у компанії TechFreedom та адвокат Арі Кон вважає, що штучний інтелект вплине не так на результати, як на те, як і чому люди голосують.
Чому діпфейк настільки популярний – 3 головні причини
Є три головні причини, чому діпфейкові відео та аудіо зараз настільки популярні – це правдоподібність, дешевизна та легкість у створенні, каже Ріджул Ґупта, керівник компанії DeepMedia, що допомагає Пентагону виявляти діпфейки.
"Перший крок – взяти фрагмент людського голосу, покласти його на голосовий алгоритм діпфейк ШІ і створити сценарій. Цей процес займає можливо 5 хвилин. Дуже-дуже швидко, правда?" – каже він.
Цей голосовий фрагмент накладається на відео, яке опрацьовують завдяки губній реанімації діпфейк ШІ.
"Кожен з роками досвіду у програмуванні може створити спеціальний для цього компонент ще за 10 хвилин", – пояснює експерт.
Людині з навичками потрібно близько 15-ти хвилин, щоб створити 60-секундне діпфейкове відео. Існують і платні сервіси, які здебільшого пропонують свої послуги завдяки недорогій підписці. Ріджул каже, що ціна на 60-секундного аудіо та відео на таких сервісах складає приблизно 4 та 20 центів відповідно.
"Головні актори – це Росія та Китай"
Найбільша небезпека у використанні ШІ походить від інших країн, яким тепер стало ще легше впливати на американські вибори, пояснюють експерти.
"Головні актори – це Росія та Китай", – запевняє Арі Кон.
Медіаекспертка Камарк згадує й Північну Корею і зазначає, що хоч деякі діпфейки з цих країн можна визначити завдяки неоковирній граматиці, та все ж навіть такі продукти швидко просочуються в маси: люди передають це одне одному, використовуючи власну інтерпретацію.
Ба більше, відео з інших країн складніше регулювати й на правовому рівні, зазначає адвокат Арі Кон: "Вони не будуть виконувати наші закони. І вони не зобов'язані".
Експерти додають, що у США не всі закони в цій сфері прописані. Так, деякі ШІ-компанії обіцяли Білому дому публікувати свої матеріали з водяним знаком. А представники Конгресу зверталася до Meta (компанії, що серед інших володіє та керує такими сервісами, як Facebook, Instagram, Threads і WhatsApp), аби знайти шляхи правового регулювання. Та поки без успіху.
І навряд чи з цього щось вийде під час цьогорічних президентських перегонів, каже адвокат Арі Кон і додає, що він сумнівається, що законодавство, яке регулює діпфейки може бути прийняте до дня голосування у США:
У Сполучених Штатах важко регулювати політичні слова
"У Сполучених Штатах важко регулювати політичні висловлювання. Перша поправка дуже сильно захищає політичну промову. І це з поважних причин, бо ми не хочемо, щоб уряд, що при владі, впливав на вибори".
Він пояснює, що складність також полягає у тому, що важко відокремити неправдиву інформацію від просто думки чи характеристики, з якою ми можемо не погодитися.
"Особливо в політиці люди знаходять усілякі речі переконливими", – зауважує він.
Кілька простих порад як розпізнати діпфейк
Ріджул Ґупта у своїй компанії має кілька етапів перевірки, які допомагають виявити діпфейки. А звичайним користувачам він радить звертати увагу на наступне:
1. Монотонність у мовленні: "Кожна літера, кожний поворот голосу людини, створений ШІ, має тривалість 0,0125 секунди. Але в мові людини ви можете мати темпи, відмінні від цього. Тому якщо ми бачимо голос з тривалістю кожної букви в 0.0125 чи 0.0375 секунд – це діпфейк".
2. Погана якість відео.
3. Водяні знаки на відео.
4. Збій в алгоритмі відстеження обличчя.
"Якщо ви розмовляєте з кимось по відеодзвінку й припускаєте, що це діпфейк, попросіть людину покрутитися навколо свого стільця. Якщо вона цього не зробить – це може бути діпфейк", – каже експерт.
Він пояснює, що штучний інтелект для діпфейків відстежує оригінальне обличчя на екрані, вирізає й вставляє його в діпфейк.
Але в момент, коли людина повертається спиною до камери, цей алгоритм відстеження обличчя перестає працювати.
"Алгоритм відстеження обличчя дає збій, мерехтить, і ви побачите оригінальну особу", – каже Ґупта.
Користь від ШІ в політиці
Водночас штучний інтелект та діпфейки можуть бути корисними, зокрема і в політиці.
Вони можуть допомогти законодавцям легше спілкуватися з виборцями, краще пояснювати свою позицію чи навіть бути ближчим до нацменшин, адже тепер зможуть читати свої повідомлення різними мовами, кажуть експерти.
Навіть більше – ШІ вже допомагає англомовним глядачам розуміти російську пропаганду.
ШІ також може допомогти краще розуміти аудиторію, патерни її поведінки, створювати точніше націлені президентські кампанії та краще їх аналізувати.
Штучний інтелект, як й багато речей, може приносити як користь, так і шкоду. Залежно від використання цього інструменту.
З часом з’являтимуться нові методи його регулювання, але водночас створюватимуть і нові технології, що перетворить цей процес на вічні перегони.
Станом на зараз Ріджул Ґупта рекомендує державним установам звертатися до фахівців, аби виявляти діпфейки.
Ну, а звичайним виборцям експерти радять пам’ятати про власну відповідальність і критично ставитися до усього, що опубліковане в мережі.