Спеціальні потреби

“Дискусія про існування людства” – у Вашингтоні обговорили ризики залучення ШІ до сфери ядерної зброї


У Вашингтоні обговорили, чи варто долучати штучний інтелект до управління, системи командування та контролю над ядерними потужностями. REUTERS/Dado Ruvic
У Вашингтоні обговорили, чи варто долучати штучний інтелект до управління, системи командування та контролю над ядерними потужностями. REUTERS/Dado Ruvic

Чи варто долучати штучний інтелект (ШІ) до управління, системи командування та контролю над ядерними потужностями, у тому числі у разі ядерної загрози чи кризи – така тема стала предметом обговорення у Центрі стратегічних та міжнародних досліджень (CSIS) 24 січня.

Американська система контролю та зв’язку ядерного командування США, відома як NC3, покликана забезпечити здатність керувати ядерними силами навіть у найскладніших умовах, як збройні конфлікти, атаки чи стихійні лиха.

Прихильники залучення ШІ стверджують, що він дозволяє прискорити прийняття рішень під час атаки, доповнює системи раннього попередження та аналізує складні розвідувальні дані. Проте критики зауважують, що ШІ має технічні недоліки, сприяє дезінформації, потенційно підвищує ризик випадкової ескалації та вразливість до кібератак.

В жовтні командувач U.S. STRATCOM генерал Ентоні Коттон наголосив на перевагах ШІ в тому, щоб збільшити стійкість NC3 у США до ворожих дій та зміцнити систему стримування. Він також сказав, що це сприятиме конкурентоспроможності та модернізації NC3.

Генерал переконаний - штучний інтелект покращує процес прийняття рішень, але він зауважив, що необхідні і “людські рішення в циклі [прийняття рішень]”.

Аналітиків запросили проаналізувати цю тему на тлі російської агресії та китайського нарощування ядерної зброї.

“Чи варто нам взяти найнебезпечнішу зброю, яку коли-небудь створювало людство, яка може вбити мільйони, і інтегрувати в її управління та контроль абсолютно ненадійну технологію, яку ми ще не розуміємо? Ні, не треба цього робити”, – заявив у ході дискусії Пол Шарре, директор з досліджень Центру нової американської безпеки.

Він назвав “справді поганою ідеєю” інтеграцію штучного інтелекту в систему командування та додав, що вона зображується навіть у художніх творах як “одна з найдурніших речей, які тільки могло зробити людство”.

За словами Шарре, після випадку, коли високоавтоматизована система ППО Patriot могла пошкодити два літаки дружніх сил, неможливо допустити автоматизацію до сфери ядерних ракет, оскільки наслідком такої помилки була б ядерна війна.

“Ось про які ставки йдеться”, – додав експерт.

Аналітик у підсумку назвав ідею інтеграції ШІ до цієї сфери “абсолютно ненадійною” та з потенційними “найважчими наслідками”.

“Реальний ризик полягає в тому, що система штучного інтелекту може здаватися надійною в мирний час, що може змусити військових довіряти їй, але вона може вийти з ладу під час війни чи кризи. Ця крихкість є унікальною особливістю штучного інтелекту. Люди можуть гнучко реагувати на нові умови, а ШІ – ні”, – каже Шарре.

Він застеріг і про можливі наслідки рішень, прийнятих машиною без людського розуміння контексту.

ШІ погіршить наше прийняття рішень, збільшить ризик ненавмисної ескалації та підірве ядерну стабільність.
Пол Шарре

Експерт навів приклад безпілотних автомобілів, які “дуже добре їздять у певних умовах, але потім раптово й без попередження наїжджають на бетонні бар’єри, припарковані автомобілі, вантажівки чи пішоходів, спричиняючи смертельні аварії”.

Крім того, ШІ, каже він, “ніколи не зможе зрозуміти емоційну серйозність того, що поставлено на карту” у випадку застосування ядерної зброї.

“ШІ у прийнятті ядерних рішень не підвищить стійкість. Це погіршить наше прийняття рішень, збільшить ризик ненавмисної ескалації та підірве ядерну стабільність. І що гірше, це може заколисати нас помилковим відчуттям безпеки та впевненості, видаючи себе надійними в мирний час, а потім виводячи з ладу зброю”, – сказав аналітик.

До розмови долучилася і колишня співробітниця Пентагону та американської розвідки Сара Мінейро, старша юристка проєкту аерокосмічної безпеки у CSIS, яка раніше очолювала підкомітет зі стратегічних сил Комітету Палати представників Конгресу США з питань збройних сил США, а також керувала підкомітету з космічних програм Міністерства оборони та Програми військової розвідки, ядерної зброї, протиракетної оборони та гіперзвукових систем.

Я за ШІ, але лише до тих пір, де починаються повноваження щодо автоматизованого запуску зброї
Сара Мінейро

“Це буквально дискусія про існування людства”, – сказала вона.

Мінейро вважає, що ШІ може бути інтегровано як інструмент аналізу великого масиву даних та інші технічні моменти.

Але немає жодного виправдання тому, щоб ШІ замінив людське судження, каже експертка.

“Я за штучний інтелект, але лише до того, як починаються повноваження автоматизованого запуску зброї”, – заявила Мінейро.

Учасники дискусії також зауважили, що існує дуже обмежений набір даних щодо реального застосування ядерної зброї, тобто замало потенційної вхідної інформації для тренування і налаштування ШІ і його можливих реакцій на загрози.

  • 16x9 Image

    Голос Америки

    Голос Америки (VOA) надає новини та інформацію більш ніж 40 мовами. VOA, за оцінками, охоплює аудиторію у понад 326 мільйонів людей щотижня. Статті авторства Голос Америки є результатом роботи декількох журналістів і можуть містити інформацію новинних агенцій.

Розсилка

Recommended

  • Підписуйтеся на Голос Америки Українською в Telegram

    Підписуйтеся на Голос Америки Українською в Telegram

XS
SM
MD
LG