
Az agyrohasztó tartalmak még a mesterséges intelligenciát is elbutítják
A közkeletű mesterségesintelligencia-modellek hátterében álló nagy nyelvi modellek (large language model, LLM) ugyan nem úgy tanulnak, mint az ember, ám ezen modellek képességeit is hátrányosan érinti a közösségi médián terjedő agyrohasztó tartalom egy friss tanulmány szerint.

Direkt webszeméttel etették a mesterséges intelligenciát, meg is lett az eredménye
A kutatók két tényező alapján válogatták ki az X közösségi oldalról az LLM-ek képzését célzó webszemetet. Az egyik tényező a bejegyzések népszerűsége és rövidsége alapján került kiválasztásra. A kényszeres közösségimédia-görgetést okozó népszerűséghajhász, ám nem túl mély és informatív posztok mellett a másik tényező, amit a kutatók figyelembe vettek, az a bejegyzések nyelvezete volt. A kutatók a szenzációhajhász és felületes kifejezéseket keresték a képzési adatok kiválogatására.
A kutatók ezután négy LLM képzését végezték az általuk szemétnek minősített adatokkal, és arra jutottak, hogy
szemben a kontrollcsoporttal, a webszemétnek kitett LLM-ek képességei romlottak az érvelés, a nagyobb kontextusok megértése és a biztonság terén,
miközben a modellek olyan sötét tulajdonságok jegyeit mutatták, mint a pszichopátia vagy a nárcizmus. A virális, agyrohasztó tartalmaktól a modellek tehát nemcsak butábbak lettek, de a személyiségük is előnytelen irányba változott.
Ez áll a modellek hanyatlása mögött
A tanulmány szerint a szemét és a kontrolladatbázisok kevert használata is a képességek romlásához vezet, míg a történtek utólagos elemzése arra világított rá, hogy a képességek hanyatlásának fő okát a gondolatugrások jelentették.
A mesterségesintelligencia-modellek egyre több elemet ugrottak át az érvelési láncban, ami a hibák szaporodását okozta.
Emellett a szemétnek kitett modellek csak részleges gyógyulásra voltak képesek tiszta adatok és új utasítások felhasználásával, ám az alapszintű, korábbi képességeiket nem nyerték vissza. Az adatok azt is mutatják, hogy a népszerűség, és nem a bejegyzések hossza az első tényező hatásának a jobb indikátora.
A kutatók szerint tehát az LLM-ek képességeinek hanyatlását az adatminőség okozza, ezért a modellek folytatólagos képzésében is kulcsszerepet játszik az adatok kiválogatása, miközben kulcsfontosságú a szolgálatba állított modellek kognitív egészségének az ellenőrzése. A tanulmány talán arra is felhívja a figyelmet, hogy az emberi gondolkodás számára sem feltétlenül tesz jót a közösségi média kényszeres görgetése.