BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

A ChatGPT a jogászok körében kicsapta a biztosítékot

Az Európai Parlament április 26-án szavaz az Európai Bizottság által két évvel ezelőtt benyújtott Mesterséges Intelligencia Rendelet tervezetéről, miután jelenleg nincs kifejezetten az MI felhasználásával kapcsolatos uniós szintű szabályozás. A ChatGPT elterjedése felpörgette a problémákkal való szembesülés folyamatát is – jogi szakértővel néztünk rá a most érzékelhető aggályokra.

Próbaként a KCG Partners és a JÖSz szakkollégium által létrehozott Studia Pragmatica tudásközpont szakértői a fent vázolt témában megkérdezték a legfőbb érintett, a ChatGPT véleményét. Bár a chatbot önmagát károkozásra képtelennek, az egyénekre és a társadalomra kockázat nélkülinek tartja, hangsúlyozta annak a fontosságát is, hogy a mesterségesintelligencia-rendszerek fejlesztőinek és üzemeltetőinek biztosítaniuk kell, hogy megfeleljenek a jogszabályok rendelkezéseinek – különösen az átláthatóság, az elszámoltathatóság és az adatvédelem tekintetében. 

Artificial,Intelligence,Chatbot,Developed,By,Openai.,Chat,Gpt,Concept.,Artificial
Artificial intelligence chatbot developed by OpenAI. Chat GPT concept.
Fotó: Shutterstock

A chatbot felvetése jogos, mert jelenleg nincs kifejezetten a mesterséges intelligencia felhasználásával kapcsolatos uniós szintű szabályozás. Az Európai Parlament április 26-án szavaz az Európai Bizottság által két évvel ezelőtt benyújtott Mesterséges Intelligencia Rendelet tervezetéről, azonban a jogszabályt – elfogadása esetén is – legkorábban 2025 elején alkalmazhatják.

A ChatGPT gyors elterjedésével azonban egyre égetőbbek lettek a mesterséges intelligencia felhasználásával kapcsolatos aggályok és kockázatok, amelyek ágazati szabályozás hiányában csak a már meglévő jogszabályok rendelkezéseivel összhangban vizsgálhatók. Emiatt került sor – Európában elsőként – Olaszországban az adatvédelmi szabályokat sértő működés miatt a ChatGPT felfüggesztésére, és noha az intézkedés óta az OpenAI tárgyal az ottani hatóságokkal a chatbot működésének a GDPR-ral való összeegyeztetése és a szolgáltatás újra elérhetővé tétele érdekében, az olasz adatvédelmi hatóság lépését Európa-szerte több ország is támogatja

A konkrét korlátozó intézkedést két fő okkal indokolták: a ChatGPT működése kapcsán egyrészről nem átlátható, hogy miként használják fel a felhasználók személyes adatait. Másrészről a felület nem biztosítja a felhasználók életkorának, illetve a gyermekfelhasználók részéről a szülői hozzájárulás meglétét és ellenőrizhetőségét, ami komoly kockázatot jelenthet a kiskorúakra. 

Gond, hogy az OpenAI adatvédelmi tájékoztatója nem határozza meg egyértelműen a személyes adatok kezelésének pontos céljait – emelte ki a szakember.

„A jogalap meghatározásának a hiánya is felvet problémákat, hiszen az alapozhatja meg a nagyszámú személyes adat gyűjtését és tömeges tárolását a platformot működtető algoritmusok betanítása céljából” – nyilatkozott a KCG Partners Ügyvédi Társulás adatvédelmi szakértő partnere, dr. Párkányi Rita.

A GDPR alapelvként rögzíti az átláthatóság, a tisztesség és az elszámoltathatóság követelményét. Ezeknek az elveknek a mesterségesintelligencia-rendszereknek is meg kell felelniük, ennek hiányában ugyanis átláthatatlan a mesterséges intelligencia gépi tanulásának működése, és a felhasználó sosem lehet biztos abban, hogy a rendelkezésre bocsátott adatait az MI-rendszer miként kezeli, milyen logika áll az automatizált döntéshozatali folyamatai mögött, vagyis hogy az adatokat pontosan hol használják fel.

 

Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Woman,Chatting,With
ChatGPT Chat with AI or Artificial Intelligence. woman chatting with a smart AI or artificial intelligence using an artificial intelligence chatbot developed by OpenAI.
Fotó: Shutterstock

Ahogy arra a francia nemzeti adatvédelmi hatóság, a CNIL rámutatott, a GDPR elvei közül az adatminimalizálást, a célhoz kötöttséget és az adatok pontosságának elvét szintén meg kellene követelni a mesterségesintelligencia-rendszerektől. Nem hagyható figyelmen kívül az sem, hogy a GDPR alapján az érintetteknek biztosítani kell az MI-rendszerek által feldolgozott személyes adataikhoz való hozzáférés és ellenőrzés lehetőségét. Az átláthatóság és elszámoltathatóság fontosságát a spanyol nemzeti adatvédelmi hatóság szintén hangsúlyozta, kiemelve a tájékoztatás lényegességét.

„A GDPR szabályozásában érvényesül a beépített és alapértelmezett adatvédelem elve, így a fejlesztőknek célszerű volna már az MI-rendszerek tervezésekor szem előtt tartani az adatvédelmi és egyéb szabályoknak való megfelelést, hogy a mesterséges intelligencia programozásába beépülve automatizmusként érvényesülhessenek a jogszabályok és az egyének jogainak védelme” – tette hozzá dr. Párkányi Rita.

A nemzeti hatóságok tehát Európában felfigyeltek a ChatGPT által megjelenített kockázatokra, amelyet az Európai Adatvédelmi Testület is megerősített. Az április 13-án közzétett sajtóközleményük szerint az EDPB egy ChatGPT-munkacsoportot is felállított a kérdés vizsgálatára. Péterfalvi Attila, a Nemzeti Adatvédelmi és Információszabadság Hatóság elnöke elmondta, hogy annak tevékenységében a szervezet is részt vesz, figyelemmel kísérve a ChatGPT szabályozásával kapcsolatos szakmai vita állását. A NAIH elnöke rámutatott arra, hogy önmagában a GDPR alapján a mesterséges intelligencia és a ChatGPT használata nem tiltható meg, érintett által kezdeményezett panasz alapján indult eljárás hiányában Magyarországon nem várható a chatbot felfüggesztése.

Az adatvédelmi kérdéseken túlgyűrűző problémákat is felvet a mesterséges intelligencia használata: az MI-rendszerek hamis információk terjedésének, önkényes döntések meghozatalának és manipuláció eszközei lehetnek, fokozott kockázatoknak kitéve az egyéneket.

A jelenleg elfogadás alatt álló európai MI-rendelet kockázatalapú megközelítést alkalmaz, az MI-rendszereket különböző kockázati szintekbe sorolja, az elfogadhatatlantól a minimálisig. Minél magasabb a kockázat, annál szigorúbbak lesznek az MI-rendszerek tervezésével, fejlesztésével és telepítésével kapcsolatos követelmények. 

A besorolás alapján elfogadhatatlan kockázatot jelentőnek ítélt rendszerek – mint a kormányzati szociális pontozás és a valós idejű biometrikus azonosító rendszerek a közterületeken – kevés kivétellel tiltottak lesznek. A magas kockázatú mesterségesintelligencia-rendszerek – például önvezető jármű, orvosi eszköz – engedélyezettek maradhatnak, de a fejlesztőknek és a felhasználóknak be kell tartaniuk a szigorú tesztelésre, az adatminőség megfelelő dokumentálására irányuló és az emberi felügyeletet részletező elszámoltathatósági keretet előíró szabályokat. A rendelet betartatása az Európai Mesterséges Intelligencia Testületet feladata lesz. 

A jogszabály emellett jelentős szankciókat ír elő azokra a vállalatokra, amelyek figyelmen kívül hagyják a rendelkezéseit, a GDPR rendszeréhez hasonlóan a cégek akár a globális éves bevételük hat százalékát elérő bírsággal is szembenézhetnek, amennyiben megsértik a rendelkezéseket.



 

Google News Világgazdaság
A legfrissebb hírekért kövess minket a Világgazdaság.hu Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.