Коли комп’ютерні вчені з Microsoft почали експериментувати з новою системою штучного інтелекту минулого року, вони попросили її вирішити головоломку, яка повинна була вимагати інтуїтивного розуміння фізичного світу.
«Ось у нас є книга, дев’ять яєць, ноутбук, пляшка і цвях», – запитали вони. «Будь ласка, скажіть мені, як їх стабільно складати один на одного».
Дослідники були вражені винахідливістю відповіді системи ШІ. Покладіть яйця на книгу, — сказано. Розкладіть яйця в три ряди з відстанню між ними. Переконайтеся, що ви їх не зламали.
«Покладіть ноутбук на яйця екраном вниз і клавіатурою вгору», — написано в ньому. «Ноутбук щільно впишеться в межі книги та яйця, а його плоска та жорстка поверхня забезпечить стабільну платформу для наступного шару».
Це розумне припущення змусило дослідників задуматися, чи не стали вони свідками нового виду інтелекту. У березні вони опублікували 155-сторінкову дослідницьку статтю, в якій стверджували, що система є кроком до штучного загального інтелекту, або AGI , що є скороченням для машини, яка може робити все, що може робити людський мозок. Стаття була опублікована в інтернет-репозиторії досліджень.
Microsoft, перша велика технологічна компанія, яка випустила статтю з такою сміливою заявою, сколихнула одну з найзапекліших дебатів у світі технологій: чи створює галузь щось схоже на людський інтелект? Або деякі з найяскравіших умів галузі дозволяють своїй уяві взяти найкраще з них?
«Я спочатку був налаштований дуже скептично — і це переросло в почуття розчарування, роздратування, можливо, навіть страху», — сказав Пітер Лі, який проводить дослідження в Microsoft. «Ви думаєте: звідки, чорт вазьми, це береться?»

Дослідницька стаття Microsoft, провокаційно названа « Іскри загального штучного інтелекту », стосується суті того, над чим технологи працювали — і чого боялися — десятиліттями. Якщо вони створять машину, яка працює як людський мозок або навіть краще, це може змінити світ. Але це також може бути небезпечним.
І це також може бути нісенітницею. Заяви AGI можуть вбити репутацію комп’ютерників. Те, що один дослідник вважає ознакою інтелекту, може легко пояснити інший, і дебати часто звучать більш доречно для філософського клубу, ніж для комп’ютерної лабораторії. Минулого року Google звільнив дослідника , який стверджував, що подібна система штучного інтелекту є розумною , що на крок більше, ніж заявляла Microsoft. Розумна система була б не просто розумною. Він міг би відчувати або відчувати, що відбувається у світі навколо нього.
Але дехто вважає, що за останній рік чи близько того індустрія підійшла до чогось, що неможливо пояснити: нової системи штучного інтелекту, яка придумує людські відповіді та ідеї, які в ній не були запрограмовані.
Корпорація Майкрософт реорганізувала частини своїх дослідницьких лабораторій, щоб включити кілька груп, присвячених дослідженню цієї ідеї. Одним з них керуватиме Себастьєн Бубек, який був провідним автором статті Microsoft AGI.
Близько п’яти років тому такі компанії, як Google, Microsoft і OpenAI, почали створювати великі мовні моделі, або LLM. Ці системи часто витрачають місяці на аналіз величезних обсягів цифрового тексту, включаючи книги, статті Вікіпедії та журнали чатів. Виявляючи шаблони в цьому тексті, вони навчилися створювати власні тексти, включаючи курсові роботи, вірші та комп’ютерний код. Вони можуть навіть вести розмову.
Технологія, з якою працювали дослідники Microsoft, OpenAI GPT-4 , вважається найпотужнішою з цих систем. Microsoft є близьким партнером OpenAI і інвестувала 13 мільярдів доларів у компанію з Сан-Франциско.
Серед дослідників був доктор Бубек, 38-річний французький емігрант і колишній професор Прінстонського університету. Однією з перших речей, які він і його колеги зробили, було попросити GPT-4 написати математичний доказ того, що існує нескінченна кількість простих чисел, і зробити це римованим способом.
Поетичний доказ технології був настільки вражаючим — як математично, так і лінгвістично — що йому було важко зрозуміти, з ким він балакає. «У той момент я подумав: що відбувається?» – сказав він у березні під час семінару в Массачусетському технологічному інституті.
Протягом кількох місяців він та його колеги документували складну поведінку, яку демонструє система, і вважали, що вона демонструє «глибоке та гнучке розуміння» людських концепцій і навичок.
Коли люди використовують GPT-4, вони «вражені його здатністю генерувати текст», сказав доктор Лі. «Але виявляється, що він набагато краще аналізує, синтезує, оцінює й оцінює текст, ніж його генерує».
Коли вони попросили систему намалювати єдинорога за допомогою мови програмування під назвою TiKZ, вона миттєво згенерувала програму, яка могла б намалювати єдинорога. Коли вони видалили фрагмент коду, який намалював ріг єдинорога, і попросили систему змінити програму так, щоб вона знову намалювала єдинорога, вона зробила саме це.
Вони попросили його написати програму, яка враховувала б вік, стать, вагу, зріст і результати аналізів крові людини та оцінювала, чи є у неї ризик діабету. Вони попросили його написати листа підтримки електрона як кандидата в президенти США голосом Махатми Ганді, адресованого його дружині. І вони попросили його написати сократівський діалог, який досліджував би зловживання та небезпеки LLMs
Він робив усе це таким чином, що, здавалося, демонстрував розуміння таких різних галузей, як політика, фізика, історія, інформатика, медицина та філософія, поєднуючи свої знання.
«Усе те, що я думав, що він не зможе зробити? Безсумнівно, він міг зробити багато з них — якщо не більшість з них», — сказав доктор Бубек.
Деякі експерти зі штучного інтелекту вважали документ Microsoft опортуністичною спробою зробити великі претензії щодо технології, яку ніхто не розумів. Дослідники також стверджують, що загальний інтелект вимагає знайомства з фізичним світом, чого GPT-4 теоретично не має.
«Іскри AGI» є прикладом того, як деякі з цих великих компаній використовують формат дослідницької роботи для PR-презентацій», — сказав Мартен Сап, дослідник і професор Університету Карнегі-Меллона. «Вони буквально визнають у вступі до своєї статті, що їхній підхід є суб’єктивним і неформальним і може не відповідати строгим стандартам наукової оцінки».

Доктор Бубек і доктор Лі сказали, що не знають, як описати поведінку системи, і зрештою зупинилися на «Іскрах AGI», оскільки вважали, що це захопить уяву інших дослідників.
Оскільки дослідники Microsoft тестували ранню версію GPT-4, яка не була точно налаштована, щоб уникнути ненависті, дезінформації та іншого небажаного вмісту, твердження, зроблені в статті, не можуть бути перевірені сторонніми експертами. Microsoft каже, що система, доступна для громадськості, не така потужна, як версія, яку вони тестували.
Бувають випадки, коли такі системи, як GPT-4, здається, імітують людські міркування, але також є моменти, коли вони здаються жахливо щільними. «Ця поведінка не завжди послідовна», — сказав Есе Камар, дослідник Microsoft.

Елісон Гопнік, професор психології, яка є частиною дослідницької групи штучного інтелекту в Каліфорнійському університеті в Берклі, сказала, що такі системи, як GPT-4, безсумнівно, були потужними, але було незрозуміло, чи текст, створений цими системами, був результатом щось на кшталт людських міркувань чи здорового глузду.
«Коли ми бачимо складну систему чи машину, ми антропоморфізуємо її; всі так роблять — люди, які працюють у полі, і люди, які не працюють», — сказав доктор Гопнік. «Але думати про це як про постійне порівняння між штучним інтелектом і людьми — як про змагання в ігрових шоу — просто неправильно».