Ілон Маск і група експертів закликали призупинити його розробку

Відомий розробник в галузі космосу мільярдер, Маск та група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущений GPT-4 від OpenAI, через можливі ризики для суспільства.

Про це повідомляє Reuters.

В цьому місяці компанія OpenAI, яку підтримує Microsoft, представила четверте оновлення свого сервісу штучного інтелекту GPT, яка вразила користувачів своїм широким спектром застосувань – від залучення користувачів до розмови, схожої на людську, до написання пісень і узагальнення об’ємних документів.

У листі, виданому некомерційною організацією Future of Life Institute, який підписали понад тисяча осіб, включаючи Маска, міститься заклик призупинити розробку передового штучного інтелекту, поки не будуть розроблені, впроваджені та перевірені незалежними експертами спільні протоколи безпеки для таких розробок.

“Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики – керованими”, – йдеться в листі.

Також у ньому детально описані потенційні ризики для суспільства і цивілізації, які несуть системи штучного інтелекту, що конкурують з людиною, у вигляді економічних і політичних потрясінь, а також міститься заклик до розробників співпрацювати з політиками в питаннях управління і регуляторних органів.

Лист опубліковано після того, як до групи занепокоєних розвитком штучного інтелекту приєднався Європол, який попередив про можливість зловживання зловмисниками системами на кшталт ChatGPT – їх можна використовувати для фішингу, дезінформації та скоєння кіберзлочинів.

Ілон Маск, чия компанія Tesla доволі давно використовує елементи штучного інтелекту у своїх системах автопілота, відкрито та неодноразово висловлював занепокоєння небезпекою АІ-систем.

Адже компанія OpenAI офіційно представила свою мовну модель штучного інтелекту, яка тепер може розпізнавати не лише текст. Її вже використовують у СhatGPT.

А відомий військовий історик Юваль Ной Харарі у своїй колонці для The New York Times міркує про те, які ризики несе поява в нашому житті штучного інтелекту і на що схожий світ під владою штучного інтелекту.

Уявіть, що під час посадки на літак, половина інженерів, що будували його, повідомляють вам: існує десятивідсоткова ймовірність того, що літак розіб’ється і ви разом з іншими пасажирами загинете. Ви все одно сіли б у цей літак?

У 2022 році було проведено опитування про майбутні ризики використання штучного інтелекту, в рамках якого опитали понад 700  вчених та дослідників, які стоять за провідними компаніями в галузі ШІ. Половина респондентів заявили, що існує 10-відсоткова або навіть вища ймовірність вимирання людства (або аналогічного постійного та серйозного погіршення його стану) через майбутні системи ШІ. Технологічні компанії, що створюють сучасні великі мовні моделі, беруть участь у перегонах за посадку всього людства в цей літак.

Адже достатньо буде розповісти якусь брехливу історію про неіснуючу насправді загрозу, щоб ШІ натис на гачок і розпочав війну.

Сергій Бойчук