BÉT logóÁrfolyamok: 15 perccel késleltetett adatok
null

Az agyrohasztó tartalmak még a mesterséges intelligenciát is elbutítják

A modellek képzése során használt adatok minősége kulcsfontosságú, és a modellek sosem gyógyulnak ki teljesen a túl sok webszemét okozta károsodásból. A mesterséges intelligencia elbutulása kísértetiesen hasonlít az emberi gondolkodás hanyatlására.

A közkeletű mesterségesintelligencia-modellek hátterében álló nagy nyelvi modellek (large language model, LLM) ugyan nem úgy tanulnak, mint az ember, ám ezen modellek képességeit is hátrányosan érinti a közösségi médián terjedő agyrohasztó tartalom egy friss tanulmány szerint.

Fotó: Northfoto

Direkt webszeméttel etették a mesterséges intelligenciát, meg is lett az eredménye

A kutatók két tényező alapján válogatták ki az X közösségi oldalról az LLM-ek képzését célzó webszemetet. Az egyik tényező a bejegyzések népszerűsége és rövidsége alapján került kiválasztásra. A kényszeres közösségimédia-görgetést okozó népszerűséghajhász, ám nem túl mély és informatív posztok mellett a másik tényező, amit a kutatók figyelembe vettek, az a bejegyzések nyelvezete volt. A kutatók a szenzációhajhász és felületes kifejezéseket keresték a képzési adatok kiválogatására.

A kutatók ezután négy LLM képzését végezték az általuk szemétnek minősített adatokkal, és arra jutottak, hogy 

szemben a kontrollcsoporttal, a webszemétnek kitett LLM-ek képességei romlottak az érvelés, a nagyobb kontextusok megértése és a biztonság terén,

miközben a modellek olyan sötét tulajdonságok jegyeit mutatták, mint a pszichopátia vagy a nárcizmus. A virális, agyrohasztó tartalmaktól a modellek tehát nemcsak butábbak lettek, de a személyiségük is előnytelen irányba változott.

Ez áll a modellek hanyatlása mögött

A tanulmány szerint a szemét és a kontrolladatbázisok kevert használata is a képességek romlásához vezet, míg a történtek utólagos elemzése arra világított rá, hogy a képességek hanyatlásának fő okát a gondolatugrások jelentették. 

A mesterségesintelligencia-modellek egyre több elemet ugrottak át az érvelési láncban, ami a hibák szaporodását okozta.

Emellett a szemétnek kitett modellek csak részleges gyógyulásra voltak képesek tiszta adatok és új utasítások felhasználásával, ám az alapszintű, korábbi képességeiket nem nyerték vissza. Az adatok azt is mutatják, hogy a népszerűség, és nem a bejegyzések hossza az első tényező hatásának a jobb indikátora.

A kutatók szerint tehát az LLM-ek képességeinek hanyatlását az adatminőség okozza, ezért a modellek folytatólagos képzésében is kulcsszerepet játszik az adatok kiválogatása, miközben kulcsfontosságú a szolgálatba állított modellek kognitív egészségének az ellenőrzése. A tanulmány talán arra is felhívja a figyelmet, hogy az emberi gondolkodás számára sem feltétlenül tesz jót a közösségi média kényszeres görgetése.

 

Google News Világgazdaság
A legfrissebb hírekért kövess minket a Világgazdaság.hu Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.