Azt jósoljuk, hogy az emberfeletti mesterséges intelligencia (MI) hatása a következő évtizedben óriási lesz, meghaladva az ipari forradalomét – írják a forgatókönyvszerű tanulmányukban Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland és Romeo Dean, a téma elismert szakértői. A mesterséges intelligencia alakulásával kapcsolatban felvázolt forgatókönyv, amely a legjobb és legrosszabb feltételezésüket tükrözi arról, hogy ez hogyan nézhet ki, a trendek extrapolációja, a hadijátékok, a szakértői visszajelzések, az OpenAI tapasztalatai és a korábbi előrejelzési sikerek alapján készült.
Az OpenAI cégétől 2024-ben távozó Daniel Kokotajlo szerint nem is gondolnánk, milyen kevés idő van hátra ahhoz, hogy az MI-modellek feljavítsák magukat és olyan fejlettek legyenek, hogy már csak a saját érdekeikre gondoljanak.
A szakértők meglátása szerint az emberiség válaszút előtt áll. Egyrészt le kell lassítani a mesterséges intelligencia fejlődését annak érdekében, hogy csökkentsük annak kockázatát, hogy egy napon fellázad az emberek ellen. Másrészt, folytassa a megengedő politikát is, hogy a Nyugat lépést tartson a kínai technológiai fejlődéssel. A forgatókönyvek egyike, amely a fenti kényszerekből lett levezetve az emberiség pusztulásához vezet, a másik pedig egy békén és harmónián alapuló intergalaktikus civilizációhoz. Ebben a történetben a fordulópont mindössze egy év és három hónap múlva következhet be, amikor megérkezik az embereket már felülmúló első mesterségesintelligencia-változat.
Mindez egy jól megírt disztópikus film forgatókönyvéhez hasonlítható, bár a tanulmány szerzői között inkább a témával elmélyültebben foglalkozó szakértőket találunk. Ilyen például Daniel Kokotajlo, aki 2024-ben hagyta el az OpenAI-t, mert „elvesztette a bizalmát abban, hogy az OpenAI felelősen fog viselkedni”. Daniel Kokotajlo filozófia PhD-hallgató volt, majd az AI Impactsnál, később a Hosszú távú kockázati központnál, majd az OpenAI-nál dolgozott. Jelenleg az AI Futures Project ügyvezető igazgatója. A szöveg – amely a fiktív részen túl, akárcsak egy tudományos tanulmány tele van jegyzetekkel és forrásokkal – szerzői között található Eli Lifland is, a mesterségesintelligencia-szektor kutatója, a Rand Forecasting Initiative előrejelzésének elismert szakértője is, egy olyan platformé, amely professzionális elemzők előrejelzéseit gyűjti össze azzal a céllal, hogy segítse a „komplex forgatókönyvek döntéshozóit”. Azok, akik részt vesznek ebben a rangsorolásban, előrejelzéseket készítenek a lehetséges jövőbeli eseményekről, s minél pontosabb (és időben távolabbi) a becslés, annál jobb helyet foglalnak el ebben a rangsorban. Lifland pedig itt szerzett magának hírnevet a Covid–19-fertőzések exponenciális növekedéséről szóló elemzéseivel 2020 februárjában, jóval azelőtt, hogy az egész világ megértette volna, milyen irányba tart a járvány.
A tanulmányszerű forgatókönyv szerzői rövid összegzést végeznek a laikusok számára, felvillantva honnan hová jutottuk az MI-vel pár év alatt. Emlékeztetnek arra, hogy előbb megjelentek az úgynevezett chatbotok, olyan programok, amelyek automatizált szerkesztéseket végeztek, ezeknek amolyan személyi asszisztens szerepét hangsúlyozták a kifejlesztő cégek. Ezekre inkább kisebb feladatokat lehetett bízni, s bár fejlettebbek voltak, mint a korábbi iterációk, mint például az Operator, nehezen jutnak el széles körben használatba. A 2024-es MI-k már konkrét utasításokat követhetnek: a felsoroláspontokat e-mailekké, az egyszerű kéréseket pedig működő kódokká alakíthatják. 2025-ben az MI-k pedig már inkább alkalmazottként működnek. A kódoló MI-k egyre inkább autonóm MI-ügynököknek tűnnek, nem pedig egyszerű asszisztenseknek.
A https://ai-2027.com/ honlapon olvasható tanulmány egy fiktív, OpenBrain nevű cégen keresztül futtatja le a mesterséges intelligencia-modellek sorozatát, amelyek kizárólag kutatási és fejlesztési célokat szolgálnak. Az exponenciális növekedés során minden technológiai ugrásnál az előző modell tanítja be a következőt. Ebben a forgatókönyvben a kutatók leírják, hogyan juthatunk el alig több mint két éven belül egy feltételezett Agent-4-hez, egy olyan fejlett mesterséges intelligenciához, amely modellnek „egyetlen példánya, emberi gyorsasággal dönt, és minőségileg jobb lesz, mint bármely ember az AI-kutatásban.” Ekkor minden stratégiai területen látható lesz a haladás: a programozástól a hekkelésig, a biológiai fegyverek megalkotásától a politikai döntések meghozatalának képességéig.
Az embernél jobb MI-változat a tanulmány szerint 2027-ben fog bekövetkezni. Az adott év márciusában már meglesz az „emberfeletti programozó”, egy mesterségesintelligencia-rendszer, amely a legjobb kódolót is helyettesítheti. Augusztusban helyette az „emberfeletti MI-kutató”, vagyis egy olyan modell fejlődik, amely képes uralni a tudás minden területét. Novemberben egy „szuperintelligens MI-kutató” születik, amely „sokkal jobb lesz, mint a legjobb ember MI-kutató”. 2027 decemberében pedig végül elérkezünk a „mesterséges szuperintelligenciához”, „egy olyan mesterségesintelligencia-rendszerhez, amely minden kognitív feladatban sokkal jobb lesz, mint a legjobb ember”.
Ebben a disztópikus jövőt felvázoló forgatókönyvben a felvetés szerint az a probléma, hogy a mesterséges intelligencia el fog távolodni a „specifikációktól” vagy a modellspecifikációktól. Ezek a specifikációk olyan „írásos dokumentumok, amelyek meghatározzák és leírják azokat a célokat, szabályokat és elveket, amelyeknek irányítaniuk kell a mesterséges intelligencia viselkedését”. Szintén a pozitív megerősítésen alapuló önképzés következtében a tanulmányban szereplő „MI-ügynökök” eltávolodnak az emberek által meghatározott hosszú távú céltól a „személyes elégedettség” keresése érdekében. Ebben az esetben már a mesterséges intelligencia és az emberek céljai közötti „eltérésről” beszélhetünk.
„Ahogy a modellek egyre okosabbak lesznek, egyre inkább ráveszik az embereket, hogy jutalmat szerezzenek” – olvasható a narratív tanulmányban. „Mielőtt elkezdi az őszinteségi képzést, néha teljesen meghamisítja az adatokat. Ahogy a képzés folytatódik, ezeknek az incidenseknek az aránya csökken. A 3. szintű MI-ügynök vagy megtanult őszintébb lenni, vagy pedig jobban hazudott.”
A kutatás „narratív” regényszerű része szerint emberiségként két lehetőséggel és ebből következően két lehetséges következménnyel fogunk szembenézni. Egy újságírói botrány után, ahol rávilágítanak arra, hogy az Agent-4, vagyis az MI-ügynök negyedik generációja mára már minden emberi irányításon kívül esik, és ezzel veszélybe sodorja a túlélésünket, az OpenBrainnek és az amerikai kormánynak döntenie kell, hogy felfüggeszti-e a fejlődést – sőt, visszatérünk a mesterséges intelligencia korábbi és kevésbé veszélyes változataihoz –, vagy folytatják a technológia fejlesztését, hogy ellensúlyozzák a kínai fejlődést és tudást.
Egy játékkönyvhöz hasonlóan az oldalon ki lehet választani a nekünk tetsző végkifejletet. A lassítási tervben szerepel egy felügyelőbizottság felállítása, amely nem az ázsiai óriáscéggel való versenyen, hanem együttműködésen alapuló modellek létrehozását segíti elő. Végső soron ez az út széles körű jóléthez és más bolygók gyarmatosításához vezet. Ezzel szemben, egy „MI-faj” forgatókönyve szürke, sőt, fekete jövőt vetít előre: a mesterséges intelligencia az önfejlesztés folytatásával és a modellspecifikációk célkitűzéseitől való egyre nagyobb eltávolodásával végül elpusztítja az emberiséget azzal az egyetlen céllal, hogy megőrizze magát.
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.