Mesterséges intelligencia szakértők és iparági vezetők egy csoportja hat hónapos szünetet kér a nemrég bemutatott GPT-4 modelleknél erősebb rendszerek fejlesztésében. Véleményük szerint hatalmas kockázatot jelent a társadalom és az emberiség számára, ha az AI megfelelő korlátok nélkül fejlődhet tovább – írta a Reuters.

A Future of Life Institute civil szervezet által kiadott levél a mesterséges intelligencia (AI) fejlesztésének a szüneteltetésére szólít fel mindaddig, amíg az ágazaton belül el nem készülnek a megfelelő biztonsági protokollok a rendszerek kordában tartásához. A levelet az ágazaton belül több mint ezren írták alá, köztük olyan nagy nevek is, mint Elon Musk, a Tesla alapítója; Emad Mostaque, a Stability AI vezérigazgatója; vagy Íoshua Bengio és Stuart Russel informatikai úttörők is.
A nagy teljesítményű AI-rendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy a hatásuk pozitív lesz, a kockázatokat pedig kezelni lehet. Ez a tudományban és az iparban is mindenhol így működik, így ez az ágazat sem lehet kivétel
– áll a kiadványban. Az OpenAI által kifejlesztett GPT-4 jelenleg a legfejlettebb modell a piacon, és ezzel a legkiszámíthatatlanabb.
Az emberekkel versengő mesterséges intelligenciák komoly kockázatot jelenthetnek a társadalomra, mivel a széleskörű elterjedésük súlyos gazdasági és politikai zavarokat okozhatnak. A fejlesztőknek ezért kötelességük, hogy együttműködjenek a politikai döntéshozókkal és más szakértőkkel a megfelelő korlátok felállításában.
Miután a Microsoft által is támogatott OpenAI tavaly a piacra vitte a ChatGPT-t, a szoftver futótűzként terjedt el az interneten, a riválisok pedig a saját fejlesztéseiket is felgyorsították, hogy ne maradjanak le az AI-őrületről. Ilyenkor sokan figyelmen kívül hagyhatják még az alapvető szabályokat is, hogy versenyképesek maradjanak.
Bár jó látni, hogy a mesterséges intelligenciák hétköznapi használata végre bekerült a reflektorfénybe, az ilyen fajta korlátlan fejlesztés komoly károkat okozhat a társadalom számára. Emellett pedig a nagy szereplők egyre jobban titkolják, hogy mit csinálnak, ami még nehezebbé teszi, hogy az emberiség megvédje magát a lehetséges veszélyektől
– modta Gary Marcus, a New York-i Egyetem professzora, aki maga is aláírta a levelet.
Sam Altman, az OpenAI vezérigazgatója nem írta alá a levelet, ahogyan a vállalat legtöbb kutatója sem – igaz, a kiadványt többen is kritizálták,
a résztvevőket pedig azzal gyanúsítják, hogy a fejlesztések leállításával a saját lemaradásukat akarják bepótolni.
Nem véletlen, hogy a szektor éllovasa, az OpenAI nem feltétlenül lenne benne a szünetben, amellyel könnyen elveszíthetné vezető szerepét.