Спеціальні потреби

Небезпека "діпфейків" примусила Пентагон діяти


Фейкові відео мають настільки високий потенціал з дестабілізації, що агенція новітніх розробок Міноборони США DARPA ухвалила рішення провести конкурс основним завданням якого буде визначення найефективніших методів розпізнавання "діпфейків", або ж "глибоких фейків" (deepfake - прим. ГА) - відеопідробок, які зроблені настільки реалістично, що можуть викликати політичний скандал, чи навіть стати причиною конфлікту. Про це повідомляє агенція новин McClatchy.

З розвитком, фейкові відео можуть викликати потрясіння, як на особистому рівні так і на рівні держав і, навіть, викликати релігійні конфлікти

У липні 10 команд винахідників із провідних американських університетів та Європи протягом 2-х тижнів змагатимуться у конкурсі на розробку технологій, які дозволять відрізнити фальшиві відео від реальних.

"Фейкові відео, які іноді називають deepfakes, створюються з використанням штучного інтелекту, можуть створити враження, що певна особа перебувала в якомусь місці, де вона не була, або робила заяви, яких насправді не було. З розвитком, фейкові відео можуть викликати потрясіння, як на особистому рівні так і на рівні держав і навіть викликати релігійні конфлікти" , - наводить думку експертів видання.

"Швидкість прогресу вражає, - заявив виданню Джефф Клюне, експерт з "діпфейків".- Зараз вони мають пристойну якість, але незабаром стануть вражаючими".

Наприклад, зараз підробки можна досить легко відрізнити за відсутністю блимання очей на картинці. На це звертають увагу на Data 61 CSIRO.

"Діпефейки стають неймовірно якісними", - писало у червні технологічне видання Gizmodo.

Фейкові відео вже набувають поширення. Минулого місяця Фламандська соціалістична партія поширила фейкове відео звернення президента США Трампа до мешканців Бельгії.

Фейкові аудіозаписи, наприклад, створюються за допомогою збору годин записів розмови реальної особи і подальшого реміксування фонем. Якість таких підробок покращується, але їх все ще досить легко розрізнити.

"Зараз вони звучать неприродньо. Але протягом 5 років аудіозаписи вже будуть здатні надурити слідчих; фейкові відео також прогресують", - розповів виданню Ґрегорі Аллен, експерт аналітичного центру Center for a New American Security з питань штучного інтелекту.

Протягом 5 років аудіозаписи вже будуть здатні надурити слідчих; фейкові відео також прогресують

Деякі експерт твердять, що часова рамка для вдосконалення фальшивих відео навіть менша і що вже зараз творці фальшивих відео мають перевагу над дослідниками, які викривають фейки.

Конкурс організований DARPA є частиною 4-річної програми Аналізу Медіа, яка покликана створити інструменти визначення наявності відеоманіпуляцій та надання деталей щодо того, як було створено підробку. У змаганні беруть участь команди університетів Dartmouth, Notre Dame та Stanford Research Institute.

Дивіться також: Комітет Палати представників із закордонних справ ухвалив резолюцію у підтримку країн Східної Європи

Розсилка

Відео - найголовніше

Фінальні звернення Гарріс і Трампа: аналіз. Відео
please wait

No media source currently available

0:00 0:09:17 0:00

Recommended

  • Підписуйтеся на Голос Америки Українською в Viber

    Підписуйтеся на Голос Америки Українською в Viber

XS
SM
MD
LG