BÉT logóÁrfolyamok: 15 perccel késleltetett adatok
null

Az agyrohasztó tartalmak még a mesterséges intelligenciát is elbutítják

A modellek képzése során használt adatok minősége kulcsfontosságú, és a modellek sosem gyógyulnak ki teljesen a túl sok webszemét okozta károsodásból. A mesterséges intelligencia elbutulása kísértetiesen hasonlít az emberi gondolkodás hanyatlására.

A közkeletű mesterségesintelligencia-modellek hátterében álló nagy nyelvi modellek (large language model, LLM) ugyan nem úgy tanulnak, mint az ember, ám ezen modellek képességeit is hátrányosan érinti a közösségi médián terjedő agyrohasztó tartalom egy friss tanulmány szerint.

Fotó: Northfoto

Direkt webszeméttel etették a mesterséges intelligenciát, meg is lett az eredménye

A kutatók két tényező alapján válogatták ki az X közösségi oldalról az LLM-ek képzését célzó webszemetet. Az egyik tényező a bejegyzések népszerűsége és rövidsége alapján került kiválasztásra. A kényszeres közösségimédia-görgetést okozó népszerűséghajhász, ám nem túl mély és informatív posztok mellett a másik tényező, amit a kutatók figyelembe vettek, az a bejegyzések nyelvezete volt. A kutatók a szenzációhajhász és felületes kifejezéseket keresték a képzési adatok kiválogatására.

A kutatók ezután négy LLM képzését végezték az általuk szemétnek minősített adatokkal, és arra jutottak, hogy 

szemben a kontrollcsoporttal, a webszemétnek kitett LLM-ek képességei romlottak az érvelés, a nagyobb kontextusok megértése és a biztonság terén,

miközben a modellek olyan sötét tulajdonságok jegyeit mutatták, mint a pszichopátia vagy a nárcizmus. A virális, agyrohasztó tartalmaktól a modellek tehát nemcsak butábbak lettek, de a személyiségük is előnytelen irányba változott.

Ez áll a modellek hanyatlása mögött

A tanulmány szerint a szemét és a kontrolladatbázisok kevert használata is a képességek romlásához vezet, míg a történtek utólagos elemzése arra világított rá, hogy a képességek hanyatlásának fő okát a gondolatugrások jelentették. 

A mesterségesintelligencia-modellek egyre több elemet ugrottak át az érvelési láncban, ami a hibák szaporodását okozta.

Emellett a szemétnek kitett modellek csak részleges gyógyulásra voltak képesek tiszta adatok és új utasítások felhasználásával, ám az alapszintű, korábbi képességeiket nem nyerték vissza. Az adatok azt is mutatják, hogy a népszerűség, és nem a bejegyzések hossza az első tényező hatásának a jobb indikátora.

A kutatók szerint tehát az LLM-ek képességeinek hanyatlását az adatminőség okozza, ezért a modellek folytatólagos képzésében is kulcsszerepet játszik az adatok kiválogatása, miközben kulcsfontosságú a szolgálatba állított modellek kognitív egészségének az ellenőrzése. A tanulmány talán arra is felhívja a figyelmet, hogy az emberi gondolkodás számára sem feltétlenül tesz jót a közösségi média kényszeres görgetése.

 

Ajánlott videók

Továbbiak

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.