Korábbi írásaimban arra kerestem a választ, hogy ha egy önálló tanulásra képes, autonóm robot külső kontroll vagy beavatkozás nélkül is képes környezetét felmérve és elemezve döntést hozni, majd döntésének megfelelően cselekedni, és eközben kárt okoz, akkor vajon ki lesz ezért a felelős. Ennek kapcsán egyre gyakrabban kérdezik meg tőlem, hogy programozható-e egyáltalán az, hogy a robot milyen zsinórmérték alapján hozza meg döntését.
A helyzet bizonytalanságát az okozza, hogy hiába építenek a fejlesztők milliónyi megtörtént és elképzelt esetre alapozva előre kész válaszokat a robotba, az élet időnként váratlan helyzetekbe hoz bennünket, amikor nincs mindig kész megoldás. Viszonylag gyakori szituáció: a ködben hirtelen egy őz ugrik az autónk elé. Hirtelen fékezünk, és valószínűleg félrerántjuk a kormányt. Csakhogy szemből is jöhet autó, és ekkor már arról kell a másodperc tört része alatt dönteni, hogy… miről is? Vajon arról döntünk-e ilyenkor, hogy nekünk magunknak mi okoz kisebb bajt, vagy azzal (is) törődünk, hogy a szembejövő autóban ülők életében ne essen kár? Még nehezebb a döntés, ha egy szerpentinen haladunk lefelé, és az egyik kanyarban hirtelen gyerekek bukkannak fel az úton. A sofőr vagy a saját életét áldozza fel, vagy másokét, esetleg gyerekekét. Ösztönösen döntünk, elmélkedni nincs idő, ösztöneinket pedig a belénk nevelt – mondhatni előre programozott – etikai elvek vezérlik. De mit tenne hasonló helyzetben egy önvezető autó?
A jó hír az, hogy az első veszélyhelyzet létre sem jöhetne. A gépkocsi fejlett szenzorjai miatt nem kerülne dilemmahelyzetbe: infrakamerái már távolról éreznék az úthoz közelítő állat hőjét, kiszámítanák a mozgását, az autók közötti kommunikáció, a V2V (vehicle to vehicle) miatt pedig a szemből érkező járműről hosszú másodpercekkel előbb tudna a számítógép, és még időben fékezne.
A második esetben – ahol a szerpentinen a kanyar miatt még a fejlett szenzorok sem látnák meg időben az úton játszó gyerekeket – a robotpilóta csak arról dönthetne, hogy kinek az életét védje meg. A benne ülőét vagy az úton átszaladó gyermekét? Az ilyen, úgynevezett dilemmaszituációkban, amikor csak két rossz közül lehet választani, már komoly filozófiai kérdésekkel találjuk szembe magunkat. Az ember a szabad akarata miatt akár úgy is dönthet, hogy magát áldozza fel, és a szakadékba rohan, és úgy is, hogy nem tudja ezt az áldozatot vállalni, és más életét oltja ki. S míg az önfeláldozást egyértelműen pozitívnak tekintenénk, a másik megoldást sem tudjuk teljesen elítélni az emberi esendőség miatt, hiszen nincs ember, aki teljes biztonsággal állíthatná magáról, hogy ő másként döntött volna. Ha azonban a gép kormányozza a mélybe az autót, a robotnak nehezen bocsátanánk meg, hogy a mélybe vitte utasát. Ezért nézzük meg, lehetne-e ennél jobb döntést táplálni a számítógépbe?
Magam is részt vettem az Európai Parlamentben (EP) tanácsadóként abban a csaknem kétéves munkában, amelynek eredményeképpen az EP ajánlásokat fogadott el a robotikára vonatkozó polgári jogi szabályokról, megfogalmazva néhány alapelvet is. A „jó szándék” értelmében a robotoknak az emberek legfőbb érdekeit figyelembe véve kell cselekedniük, a „ne árts” elv alapján pedig nem tehetnek kárt az emberekben. De vajon segítenek-e ezek az elvek, ha azt kell a robotnak megtanítani, hogyan döntsön akkor, amikor több ember élete verseng egymással? Elméletben könnyűnek tűnik felállítani egy olyan skálát, amelyben egy tárgy megrongálása megengedett az élet megóvása érdekében, és egy élet feláldozása megengedett több élet védelme érdekében. De vajon az ember maga valóban ezen elvek szerint dönt?
Alaptétel, hogy egyik ember élete sem értékesebb, mint egy másiké, és senkitől sem várhatjuk el, hogy önmagát áldozza fel. Ezért ilyen értelmű döntést nem programozhatunk a gépekbe sem. Az emberi élet védelmének mindenekfelett való parancsát egyetlen esetben szabad csak áthágni: amikor egy veszélyhelyzet egyidejűleg több ember életét fenyegeti, és a kisebb rosszat választva annyi életet próbálunk megóvni, amennyit csak lehetséges. Szigorúan filozófiai szempontból vizsgálva két emberélet között nincs különbség. A jog tiltja, hogy nemre, korra, bőrszínre nézve különbséget tegyünk. Erkölcsi érzékünk azonban egy gyermek életének védelmét előrébb helyezi, mint egy felnőttét. Bizonyos helyzetekben azonban még ez sem egyértelmű. Az úton átszaladó és így a baleset okozásában hibás gyermek sérelme helyett például az etikai bizottság álláspontja szerint nem lehet elfogadni a járdán álló és a balesetben teljesen vétlen, kívülálló felnőtt sérelmét.
Ezt a kérdést vizsgálta idén júliusban publikált tanulmányában az osnabrücki egyetem neuroinformatikával és kognitív tudományokkal foglalkozó négy tudósa, akik – szemben a BMVI etikai bizottságának véleményével – azt állapították meg, hogy az etikai döntések bizony programozhatók, mert az ember maga is kiszámíthatóan dönt. Ha pedig ez így van, akkor erre a robotokat is meg lehet tanítani.
A vizsgálat alapján a vezető kutató, Leon R. Sütfeld úgy véli, hogy nem lehetetlen feladat minden élethez határozott értéket hozzárendelni. Ha pedig az ember ösztönös döntései számszerűsíthetők, akkor annak sincs akadálya, hogy azok a gépekbe programozhatók legyenek. A tanulmány társszerzői, Gordon Pipa és Peter König professzorok szerint most van az a pillanat, amikor el kell döntenünk: valóban azt akarjuk-e, hogy a robotokat erkölcsi értékek vezéreljék, és ha igen, akkor szeretnénk-e azt, hogy döntéseik az ember (tökéletlen) döntéseinek a mintájára szülessenek? Lemondunk-e a biztonság ígéretéért a szabad akaratunkról, eladjuk-e azt egy tál lencséért?
Készen állunk-e rá, hogy letegyük az életünket egy robot kezébe?
(Az írás teljes terjedelmében
a VG.hu-n olvasható)
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.