Коли президент Байден у жовтні оголосив про різкі обмеження на продаж найсучасніших комп’ютерних чіпів Китаю, він продав їх частково як спосіб дати американській промисловості шанс відновити свою конкурентоспроможність.
Але в Пентагоні та Раді національної безпеки був другий порядок денний: контроль над озброєннями.
Згідно з теорією, якщо китайські військові не зможуть отримати чіпи, вони можуть уповільнити свої зусилля з розробки зброї на основі штучного інтелекту. Це дало б Білому дому та всьому світу час з’ясувати деякі правила використання штучного інтелекту в датчиках, ракетах і кіберзброї та, зрештою, захиститися від деяких кошмарів, створених Голлівудом — автономних роботів-вбивць і комп’ютерів, які блокують їхніх творців-людей.
Тепер туман страху навколо популярного чат-бота ChatGPT та іншого генеративного програмного забезпечення штучного інтелекту зробив обмеження чіпів Пекіном лише тимчасовим виправленням. Коли містер Байден відвідав у четвер зустріч у Білому домі з технологічними керівниками, які борються з обмеженням ризиків технології, його першим коментарем було: «Те, що ви робите, має величезний потенціал і величезну небезпеку».
За словами його помічників з національної безпеки, це було відображенням нещодавніх секретних брифінгів про потенціал нової технології перевернути війну, кіберконфлікт і — у крайньому випадку — прийняття рішень щодо застосування ядерної зброї.
Але навіть коли містер Байден виносив своє попередження, представники Пентагону, виступаючи на технологічних форумах, заявили, що вони вважають ідею шестимісячної паузи в розробці наступних поколінь ChatGPT і подібного програмного забезпечення поганою ідеєю: китайці не будуть почекайте, і росіяни теж не будуть.
«Якщо ми зупинимося, вгадайте, хто не зупиниться: потенційні супротивники за кордоном», — заявив у середу головний інформаційний директор Пентагону Джон Шерман . «Ми повинні продовжувати рухатися».
Його пряма заява підкреслила напругу, яку сьогодні відчуває оборонне співтовариство. Ніхто насправді не знає, на що здатні ці нові технології, коли йдеться про розробку та контроль зброї, і вони не мають уявлення про те, який режим контролю над озброєннями може спрацювати, якщо такий взагалі існує.
Передчуття неясне, але глибоко тривожне. Чи може ChatGPT розширити можливості поганих акторів, які раніше не мали легкого доступу до руйнівних технологій? Чи може це прискорити протистояння між супердержавами, залишивши мало часу для дипломатії та переговорів?

«Індустрія тут не дурна, і ви вже бачите спроби саморегулюватися», — сказав Ерік Шмідт, колишній голова правління Google, який обіймав посаду першого голови консультативної ради з оборонних інновацій з 2016 по 2020 рік .
«Тож зараз у галузі ведеться низка неформальних розмов — усі неофіційні — про те, як виглядатимуть правила безпеки штучного інтелекту», — сказав пан Шмідт, який разом із колишнім держсекретарем Генрі Кіссінджером написав серію статті та книги про потенціал штучного інтелекту перевернути геополітику.
Попередні спроби встановити огорожі в систему зрозумілі кожному, хто тестував початкові ітерації ChatGPT. Боти не відповідатимуть на запитання про те, як, наприклад, нашкодити комусь за допомогою навару наркотиків, або як підірвати дамбу чи вивести з ладу ядерні центрифуги, усі операції, які Сполучені Штати та інші країни проводили без використання інструментів штучного інтелекту .
Але ці чорні списки дій лише сповільнять зловживання цими системами; мало хто думає, що зможе повністю припинити такі зусилля. Завжди є спосіб обійти межі безпеки, як може підтвердити кожен, хто намагався вимкнути термінові звукові сигнали в системі попередження про пристебнення ременів безпеки автомобіля.
Хоча нове програмне забезпечення популяризувало цю проблему, воно навряд чи є новим для Пентагону. Перші правила розробки автономної зброї були опубліковані десять років тому. Об’єднаний центр штучного інтелекту Пентагону був створений п’ять років тому для вивчення використання штучного інтелекту в бойових діях.
Деякі види зброї вже працюють на автопілоті. Ракети Patriot, які збивають ракети або літаки, що входять у захищений повітряний простір, давно мають «автоматичний» режим. Це дозволяє їм вести вогонь без втручання людини, коли вони завалені цілями, що наближаються, швидше, ніж людина може зреагувати. Але вони повинні перебувати під наглядом людей, які можуть припинити атаки, якщо це необхідно.

Убивство Мохсена Фахрізаде, провідного вченого-ядерника Ірану, було здійснено ізраїльським Моссадом за допомогою автономного кулемета, якому допомагав штучний інтелект , хоча, здається, був високий ступінь дистанційного керування. Росія нещодавно заявила, що почала виробництво — але ще не розгорнула — свою підводну ядерну торпеду «Посейдон». Якщо вона виправдає російський ажіотаж, зброя зможе подорожувати океаном автономно, уникаючи існуючої протиракетної оборони, щоб доставити ядерну зброю через кілька днів після її запуску.
Поки що немає жодних договорів чи міжнародних угод, які стосуються такої автономної зброї. В епоху, коли від угод про контроль над озброєннями відмовляються швидше, ніж від них ведуться переговори, шансів на таку угоду мало. Але ChatGPT і подібні до нього виклики відрізняються, і певним чином складніші.
У війську системи, наповнені штучним інтелектом, можуть пришвидшити темп прийняття рішень на полі бою до такої міри, що вони створять абсолютно нові ризики випадкових ударів або рішень, прийнятих на основі оманливих або навмисно помилкових сповіщень про наступні атаки.
«Основна проблема штучного інтелекту в армії та національній безпеці полягає в тому, як захиститися від атак, які є швидшими за прийняття рішень людиною, і я думаю, що це питання не вирішене», — сказав пан Шмідт. «Іншими словами, ракета наближається настільки швидко, що має бути автоматична відповідь. Що станеться, якщо це помилковий сигнал?»
Холодна війна була всіяна історіями про помилкові попередження — одного разу через те, що навчальну стрічку, призначену для відпрацювання ядерного реагування, якимось чином було введено в неправильну систему та було попереджено про наближення масованої радянської атаки. (Згідне судження призвело до того, що всі відмовилися.) Пол Шарр з Центру нової американської безпеки зазначив у своїй книзі 2018 року «Army of None», що з 1962 по 2002 рік було «щонайменше 13 ядерних інцидентів, які майже не використовувалися». «підтверджує думку про те, що інциденти, близькі до промахів, є нормальними, хоча й жахливими, умовами ядерної зброї».
З цієї причини, коли напруга між наддержавами була набагато нижчою, ніж сьогодні, низка президентів намагалася домовитися про виділення більше часу для прийняття ядерних рішень усіма сторонами, щоб ніхто не поспішав у конфлікт. Але генеративний ШІ загрожує підштовхнути країни в іншому напрямку, до швидшого прийняття рішень.
Хороша новина полягає в тому, що великі держави, швидше за все, будуть обережні, оскільки вони знають, як виглядатиме відповідь супротивника. Але поки що узгоджених правил немає.
Аня Мануель, колишній чиновник Держдепартаменту, а нині керівник консалтингової групи Rice, Hadley, Gates and Manuel, нещодавно написала, що навіть якщо Китай і Росія не готові до переговорів щодо контролю над озброєннями щодо ШІ, зустрічі на цю тему призведуть до дискусій. про те, які види використання штучного інтелекту вважаються «поза блідим».
Звичайно, Пентагон також хвилюватиметься щодо погодження багатьох обмежень.
«Я дуже боровся, щоб отримати політику, згідно з якою, якщо у вас є автономні елементи зброї, вам потрібен спосіб їх відключення», — сказав Денні Хілліс, комп’ютерний вчений, який був піонером у паралельних комп’ютерах, які використовувалися для штучного інтелекту. Пан Хілліс, який також працював у Раді оборонних інновацій, сказав, що чиновники Пентагону відштовхнулися, сказавши: «Якщо ми можемо їх вимкнути, ворог також може їх вимкнути».
Більші ризики можуть походити від окремих акторів, терористів, груп програм-вимагачів або менших країн із розвиненими кібернавички, як-от Північна Корея, які навчилися клонувати меншу та менш обмежену версію ChatGPT. І вони можуть виявити, що програмне забезпечення генеративного штучного інтелекту ідеально підходить для прискорення кібератак і боротьби з дезінформацією.
Том Берт, який керує довірою та безпекою в корпорації Майкрософт, яка швидко використовує нові технології для оновлення своїх пошукових систем, сказав на нещодавньому форумі в Університеті Джорджа Вашингтона, що, на його думку, системи штучного інтелекту допоможуть захисникам виявляти аномальну поведінку швидше, ніж вони самі. допоможе нападникам. Інші експерти не погоджуються. Але він сказав, що боїться, що штучний інтелект може «прискорити» поширення цільової дезінформації.
Все це віщує нову еру контролю над озброєннями.
Деякі експерти кажуть, що оскільки було б неможливо зупинити поширення ChatGPT і подібного програмного забезпечення, найкраща надія — обмежити спеціальні чіпи та іншу обчислювальну потужність, необхідну для розвитку технології. Це, безсумнівно, буде один із багатьох планів контролю над озброєннями, висунутих у наступні кілька років, у той час, коли принаймні великі ядерні держави, здається, не зацікавлені в переговорах щодо старої зброї, а тим більше нової.