BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Mesterséges intelligencia: képes hallucinálni és gonosszá válni – amiről senki nem beszél, pedig óriási veszély

Még pontosan nem tudni, mire jó és milyen veszélyeket hordoz, de az „aki kimarad, az lemarad” félelemtől vezérelve rohamléptekben halad előre az MI alkalmazása a nagyvállalatoknál. A mesterséges intelligencia érkezése amellett, hogy a vállalatok számára is számos kockázatot hordoz, a munkahelyüket féltő  IT-munkatársból sem vált ki osztatlan lelkesedést.  

A mesterséges intelligencia (MI) elterjedését a növekedési és profit ígéretek fűtik. A cégek nagy elánnal keresik, mely területeken tudnak jelentős költségcsökkenést és  produktivitás javulást elérni vele, a magas kockázatok azonban némiképpen hűthetik ezt a lelkesedést. Nehéz például előre felmérni, mennyit lehet majd ténylegesen kivenni ezekből a szoftverekből, megtérülnek-e egyáltalán, és ha igen, mikor az erre fordított dollármilliók. A pénzügyi kockázat mellett felmerülnek még egyéb – jogi, technológiai kockázatok is, amiket szintén nem célszerű figyelmen kívül hagyni.  

MI mesterséges intelligencia
Mesterséges intelligencia: nagy profit, nagy kockázat / Fotó: Shutterstock

A vevők, felhasználók kegyeiért folyó verseny is óriási, aminek következtében a piac némiképp kezdi helyretenni az árakat, sőt, mi több elképesztő árletörési tendenciákat is tapasztalni, különösen a kínai cégeknél. Tavaly év végi hír, hogy 

az Alibaba – nyilvánvalóan a tetemes versenyelőny reményében – felhő alapú szolgáltatásainak árát 85 százalékkal csökkentette. 

Idén pedig azt közölték, hogy tovább emelik a tétet, és ezekbe a modellekbe 50 milliárd eurót terveznek befektetni. 

Nagyvállalati körben nem kérdés a mesterséges intelligencia

Mivel a  nagyvállalatok a hatalmas alkalmazotti létszámmal, a sok országbeli jelenléttel és a komplex infrastruktúrával összefüggésben óriási adatmennyiséggel, nagyon sok folyamattal dolgoznak, az Emerson Electric IT igazgatói posztját betöltő Mile Tamás Debreceni Egyetemen rendezett MI-konferencián megosztott tapasztalatai szerint valószínűleg leginkább ez a szegmens az, ahol ezeknek a szoftvereknek a használata rentábilis lehet.  

Az ipari automatizálásban élen járó amerikai központú Emerson – amely a szintén amerikai NI-t és debreceni gyártóbázisát 2023-ban felvásárolta – szintén beszállt a mesterséges intelligenciára épülő versenybe. 

  • Az MI-megoldások száma a cég növekedésével együtt növekszik, jelenleg  több mint ötven ilyennel próbálkoznak, miközben a kockázatokat maximálisan igyekeznek felmérni és kiszűrni. 
  • Külön csapat vizsgálja, melyek felelnek meg a jogszabályoknak, melyeknél merül fel, hogy esetleg, kiszivárogtatja az adatokat, melyik építi be a cég saját fejlesztéseit a modellbe, kockáztatva ezzel, hogy a saját fejlesztés a későbbiekben illetéktelen kezekbe juthat.   

 Előrejelzés és kódfejtés 

A cég nagyon sokféle terméket gyárt egyenként viszonylag kis mennyiségben, így az ezzel kapcsolatos adatvezérelt döntésekben nagyon is helye van a mesterséges intelligenciának, mivel ezzel jól előre tudják jelezni, hogy a következő negyedévben milyen kalibráció, javításra, lesz szükség, és előreláthatólag mennyi erőforrást kell majd erre allokálni.  Mivel nagyon sok – világszinten több millió – ügyfelük van, 

az adatokat elemezve egy erre dedikált szoftver azt is nagy pontossággal előre tudja jelezni, milyen új megrendelésekre számíthatnak. 

A még forgalomban lévő, ám már régen nem gyártott szoftverek kódjainak megfejtésében is bátran támaszkodhatnak az MI-re.  

Furcsa kockázatok:  agresszivitás és hallucinációk  

Az MI-megoldásokkal felgyorsíthatók az interakciók, megalapozottabbá válhatnak a HR-döntések. Mivel az Emersonnál jelenleg 1400 nyitott pozíció van, ez nagyon is hasznos alkalmazási terület lehet. Ez utóbbi szerepkörben viszont, 

komoly kockázatként jelentkezik az adat minőségének problémája, ami etikai kérdéseket is felvethet.

Egyoldalú adatbázis használata esetén például előfordulhat, hogy csak az egyik nemet preferálja, ami meg nem engedhető diszkriminációhoz vezethet. Vagyis, foglalkozni kell vele, kezelni kell ezt a kockázatot. Az MI egyik kézenfekvő használata az ügyfélkapcsolati rendszer, ahol a ChatBot hatékonyan kommunikálhat, lehet tőle kérdezni. Gond viszont, hogy az MI agresszívvé is válhat, s ezzel ronthatja a cég hírnevét. Kockázat, ha a ChatBOT valamit „behallucinál”, ha olyan döntést hoz, ami nem illeszkedik a cég értékrendjébe, vagy egyszerűen agresszíven kezd kommunikálni az ügyféllel. Mivel emiatt a cég hírneve sérül, ez is nagyon komolyan veendő kockázat, amivel foglalkozni kell.  

 A részvényes mindent tudni akar 

Amiként az Emerson, a nagyvállalatok általában tőzsdén jegyzett cégek, amiből következik, hogy minden pénzügyi eredményre kihatással bíró döntésüket átláthatóvá kell tenniük. 

Ha az MI olyan döntést generál, ami pénzügyi audit alá esik, meg kell tudni mondani, hogyan jött ki az adott riport, és hiteles választ kell tudnia adni arra kérdésre is, ki fér hozzá a cég rendszereihez. 

Ez egy olyan terület, ahol az MI-alkalmazások használata a feldolgozandó adatmennyiség miatt nagyon hatékony lehet, ám annak kimutatása, hogy melyik döntést mért is hozta az MI, nem kis fejtörést okoz az IT-szakembereknek. 

 Fekete doboz: kérdezheted, de nem befolyásolhatod a döntését 

 A GDPR-nak megfelelés is felvet nem túl könnyen menedzselhető problémákat, hiszen, ha az ügyfél azt kéri, ki is kell tudni törölni a rendszerből az adatait, sőt bizonyítani is kell, hogy ezt az adott cég valóban meg tudja tenni. Saját tanítású modell esetében ez az alkalmazó cég feladata, vásárolt modell esetében viszont, annak a cégnek kell minderről gondoskodni, aki az adott szoftvert értékesítette. 

Vannak integrációs nehézségek, ami azt jelenti, hogy olyan – régi – infrastruktúrával kell integrálni az MI-t, amik nincsenek felkészítve nagy mennyiségű adat kinyerésére. További igen komoly probléma, hogy az adatok bevitelét, a tanítást követően az MI egy fekete doboz, vagyis nem  látni, miért dönt úgy, ahogy. 

A szabályok dzsungele maga is kockázati tényezőként jelentkezik. 

  • Az USA-ban nehézség, hogy a szabályozás államonként változik és vannak az összes államra vonatkozó törvények, amelyeknek meg kell felelni. 
  • Az EU le van maradva az MI-fejlesztésben, de nagyon is előre jár a szabályozásban, 2025-től pedig, egy újabb is érkezik: az AI Act nevű szabályozás, ami attól függően állapítja meg a kockázati besorolást, hogy hol használják az MI-t.   

 Az IT nem boldog, konkurenciától fél

A kérdésektől és félelmektől azok sem mentesek, akiknek az MI hasznát bizonyítani kell, a kockázatait pedig ki kell szűrni. Ők a cégek IT munkavállalói. Az egyik nagy kérdés számukra az, hogy az MI lesz-e a főnökük, a másik pedig, hogy nem veszi-e el a munkahelyüket egy-egy erre megalkotott szoftver. 

Mile Tamás úgy ítéli meg, hogy az MI-főnök ideája egyelőre nem tűnik reálisnak, lévén a vezetői pozíciók felelősséggel járnak, a mesterséges intelligencia viszont nem tehető felelőssé. A munkahelyek esetében – ha számbeli csökkenéstől nem is kell tartani – a pozíciók, feladatok átalakulásával mindenképpen szembe kell nézni.   

Az MI igényeinek megfelelő új pozíciókat már hirdetik a cégek, sok egyéb mellett 

  • adatmérnököket, 
  • algoritmus szakértőket,  
  • adatbázis biztonsági szakértőket, 
  • ügyfélszolgálati automatizációs szakértőket keresnek,  
  • de szükség van az MI-vel kapcsolatos problémák kezelésében járatos etikai, jogi és egyéb szakemberekre is. 

Úgy tűnik, ezekben az új szakmákban kifejezetten  fiataloknak áll a zászló, mert a 20-30 éve egy-egy cégnél dolgozó IT-munkavállalókból a munkahelyféltés jelentős ellenállást vált ki, ami számos esetben abban nyilvánul meg hogy inkább lassítják az MI bevezetését, mintsem vállalják az átállással járó kihívásokat.  

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.