Próbaként a KCG Partners és a JÖSz szakkollégium által létrehozott Studia Pragmatica tudásközpont szakértői a fent vázolt témában megkérdezték a legfőbb érintett, a ChatGPT véleményét. Bár a chatbot önmagát károkozásra képtelennek, az egyénekre és a társadalomra kockázat nélkülinek tartja, hangsúlyozta annak a fontosságát is, hogy a mesterségesintelligencia-rendszerek fejlesztőinek és üzemeltetőinek biztosítaniuk kell, hogy megfeleljenek a jogszabályok rendelkezéseinek – különösen az átláthatóság, az elszámoltathatóság és az adatvédelem tekintetében. 

Artificial,Intelligence,Chatbot,Developed,By,Openai.,Chat,Gpt,Concept.,Artificial
Artificial intelligence chatbot developed by OpenAI. Chat GPT concept.
Fotó: Shutterstock

A chatbot felvetése jogos, mert jelenleg nincs kifejezetten a mesterséges intelligencia felhasználásával kapcsolatos uniós szintű szabályozás. Az Európai Parlament április 26-án szavaz az Európai Bizottság által két évvel ezelőtt benyújtott Mesterséges Intelligencia Rendelet tervezetéről, azonban a jogszabályt – elfogadása esetén is – legkorábban 2025 elején alkalmazhatják.

A ChatGPT gyors elterjedésével azonban egyre égetőbbek lettek a mesterséges intelligencia felhasználásával kapcsolatos aggályok és kockázatok, amelyek ágazati szabályozás hiányában csak a már meglévő jogszabályok rendelkezéseivel összhangban vizsgálhatók. Emiatt került sor – Európában elsőként – Olaszországban az adatvédelmi szabályokat sértő működés miatt a ChatGPT felfüggesztésére, és noha az intézkedés óta az OpenAI tárgyal az ottani hatóságokkal a chatbot működésének a GDPR-ral való összeegyeztetése és a szolgáltatás újra elérhetővé tétele érdekében, az olasz adatvédelmi hatóság lépését Európa-szerte több ország is támogatja

A konkrét korlátozó intézkedést két fő okkal indokolták: a ChatGPT működése kapcsán egyrészről nem átlátható, hogy miként használják fel a felhasználók személyes adatait. Másrészről a felület nem biztosítja a felhasználók életkorának, illetve a gyermekfelhasználók részéről a szülői hozzájárulás meglétét és ellenőrizhetőségét, ami komoly kockázatot jelenthet a kiskorúakra. 

Gond, hogy az OpenAI adatvédelmi tájékoztatója nem határozza meg egyértelműen a személyes adatok kezelésének pontos céljait – emelte ki a szakember.

„A jogalap meghatározásának a hiánya is felvet problémákat, hiszen az alapozhatja meg a nagyszámú személyes adat gyűjtését és tömeges tárolását a platformot működtető algoritmusok betanítása céljából” – nyilatkozott a KCG Partners Ügyvédi Társulás adatvédelmi szakértő partnere, dr. Párkányi Rita.

A GDPR alapelvként rögzíti az átláthatóság, a tisztesség és az elszámoltathatóság követelményét. Ezeknek az elveknek a mesterségesintelligencia-rendszereknek is meg kell felelniük, ennek hiányában ugyanis átláthatatlan a mesterséges intelligencia gépi tanulásának működése, és a felhasználó sosem lehet biztos abban, hogy a rendelkezésre bocsátott adatait az MI-rendszer miként kezeli, milyen logika áll az automatizált döntéshozatali folyamatai mögött, vagyis hogy az adatokat pontosan hol használják fel.

 

Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Woman,Chatting,With
ChatGPT Chat with AI or Artificial Intelligence. woman chatting with a smart AI or artificial intelligence using an artificial intelligence chatbot developed by OpenAI.
Fotó: Shutterstock

Ahogy arra a francia nemzeti adatvédelmi hatóság, a CNIL rámutatott, a GDPR elvei közül az adatminimalizálást, a célhoz kötöttséget és az adatok pontosságának elvét szintén meg kellene követelni a mesterségesintelligencia-rendszerektől. Nem hagyható figyelmen kívül az sem, hogy a GDPR alapján az érintetteknek biztosítani kell az MI-rendszerek által feldolgozott személyes adataikhoz való hozzáférés és ellenőrzés lehetőségét. Az átláthatóság és elszámoltathatóság fontosságát a spanyol nemzeti adatvédelmi hatóság szintén hangsúlyozta, kiemelve a tájékoztatás lényegességét.

„A GDPR szabályozásában érvényesül a beépített és alapértelmezett adatvédelem elve, így a fejlesztőknek célszerű volna már az MI-rendszerek tervezésekor szem előtt tartani az adatvédelmi és egyéb szabályoknak való megfelelést, hogy a mesterséges intelligencia programozásába beépülve automatizmusként érvényesülhessenek a jogszabályok és az egyének jogainak védelme” – tette hozzá dr. Párkányi Rita.

A nemzeti hatóságok tehát Európában felfigyeltek a ChatGPT által megjelenített kockázatokra, amelyet az Európai Adatvédelmi Testület is megerősített. Az április 13-án közzétett sajtóközleményük szerint az EDPB egy ChatGPT-munkacsoportot is felállított a kérdés vizsgálatára. Péterfalvi Attila, a Nemzeti Adatvédelmi és Információszabadság Hatóság elnöke elmondta, hogy annak tevékenységében a szervezet is részt vesz, figyelemmel kísérve a ChatGPT szabályozásával kapcsolatos szakmai vita állását. A NAIH elnöke rámutatott arra, hogy önmagában a GDPR alapján a mesterséges intelligencia és a ChatGPT használata nem tiltható meg, érintett által kezdeményezett panasz alapján indult eljárás hiányában Magyarországon nem várható a chatbot felfüggesztése.

Az adatvédelmi kérdéseken túlgyűrűző problémákat is felvet a mesterséges intelligencia használata: az MI-rendszerek hamis információk terjedésének, önkényes döntések meghozatalának és manipuláció eszközei lehetnek, fokozott kockázatoknak kitéve az egyéneket.

A jelenleg elfogadás alatt álló európai MI-rendelet kockázatalapú megközelítést alkalmaz, az MI-rendszereket különböző kockázati szintekbe sorolja, az elfogadhatatlantól a minimálisig. Minél magasabb a kockázat, annál szigorúbbak lesznek az MI-rendszerek tervezésével, fejlesztésével és telepítésével kapcsolatos követelmények. 

A besorolás alapján elfogadhatatlan kockázatot jelentőnek ítélt rendszerek – mint a kormányzati szociális pontozás és a valós idejű biometrikus azonosító rendszerek a közterületeken – kevés kivétellel tiltottak lesznek. A magas kockázatú mesterségesintelligencia-rendszerek – például önvezető jármű, orvosi eszköz – engedélyezettek maradhatnak, de a fejlesztőknek és a felhasználóknak be kell tartaniuk a szigorú tesztelésre, az adatminőség megfelelő dokumentálására irányuló és az emberi felügyeletet részletező elszámoltathatósági keretet előíró szabályokat. A rendelet betartatása az Európai Mesterséges Intelligencia Testületet feladata lesz. 

A jogszabály emellett jelentős szankciókat ír elő azokra a vállalatokra, amelyek figyelmen kívül hagyják a rendelkezéseit, a GDPR rendszeréhez hasonlóan a cégek akár a globális éves bevételük hat százalékát elérő bírsággal is szembenézhetnek, amennyiben megsértik a rendelkezéseket.