BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Összefog a Pentagon az AI atyjával, hogy létrehozzák a legpusztítóbb szuperfegyvereket — a kulcsszó: Anthropic

Az amerikai hadsereg és a Szilícium-völgy között egyre élesebb vita bontakozik ki a mesterséges intelligencia katonai alkalmazásáról. A Pentagon és az Anthropic közötti egyeztetés új szintre emelheti a kérdést, hogy milyen korlátok között használható az AI a nemzetbiztonság területén.

Az Egyesült Államok védelmi minisztériuma és a vezető mesterségesintelligencia- (AI) fejlesztők közötti együttműködés új szakaszba léphet, amikor Pete Hegseth amerikai védelmi miniszter egyeztetést tervez Dario Amodeivel, az Anthropic vezérigazgatójával – értesült a Defense News védelempolitikai szakportál.

56th annual World Economic Forum AI (WEF) meeting in Davos
Dario Amodei az Anthropic vezérigazgatója és az AI-fejlesztés fontos alakja / Fotó: Denis Balibouse / Reuters

A találkozó tétje az, milyen szerepet kap a mesterséges intelligencia a hadsereg működésében, és hol húzódnak a technológiai, etikai és politikai határok.

Az AI katonai alkalmazása nem egyszerű kérdéskör

A védelmi tárca tavaly nyáron négy technológiai vállalattal – Anthropic, Google, OpenAI és xAI – kötött, egyenként legfeljebb 200 millió dollár (mintegy 72 milliárd forint) értékű szerződést mesterségesintelligencia-megoldások fejlesztésére. A cél egy belső katonai hálózat, a GenAI.mil kiépítése, amely a szolgálati feladatoktól a döntéstámogatásig több területen használná az új modelleket.

Az Anthropic különleges helyzetben van: a vállalat az első, amely engedélyt kapott minősített katonai hálózatokon való működésre, és olyan partnerekkel dolgozik együtt, mint a Palantir Technologies. A többi három szereplő egyelőre nem minősített környezetben tesztelheti rendszereit.

Hegseth januárban a SpaceX texasi eseményén arról beszélt, hogy a Pentagon nem kíván olyan mesterségesintelligencia-modelleket alkalmazni, amelyek nem teszik lehetővé a háborúk megvívását, és hangsúlyozta: az amerikai katonai AI 

nem lesz ideológiai korlátok közé szorítva.

Ezzel párhuzamosan bejelentette, hogy az xAI Grok nevű chatbotja csatlakozik a rendszerhez, míg február elején az OpenAI is közölte, hogy egy testre szabott ChatGPT-változatot biztosít nem minősített katonai feladatokra.

Dario Amodei óvatossága

Az Anthropic alapítói 2021-ben váltak ki az OpenAI-ból, és vállalatukat a biztonságközpontú fejlesztés ígéretével pozicionálták. Amodei az elmúlt hónapokban több írásában is arra figyelmeztetett: a mesterséges intelligencia 2026-ra közelebb kerülhet a valós és súlyos kockázatokhoz, mint néhány évvel ezelőtt. 

Kiemelte az autonóm fegyverrendszerek és az AI-alapú tömeges megfigyelés veszélyeit, különösen akkor, ha azok megfelelő kontroll nélkül működnek.

A vezérigazgató szerint egy nagy teljesítményű rendszer képes lehet több milliárd kommunikációs adat elemzésére, közvéleménytrendek és akár „lojalitási mintázatok” azonosítására is. E technológia nemcsak katonai, hanem belbiztonsági és polgári jogi kérdéseket is felvet, ami magyarázza az Anthropic óvatosabb álláspontját.

Politikai és iparági feszültségek

Az ügy nem pusztán technológiai természetű. Az Anthropic korábban bírálta a félvezetőgyártó Nvidia kapcsán felmerült exportkorlátozási lazításokat, és több kérdésben eltérő álláspontot képviselt a Trump-adminisztrációval szemben. 

David Sacks, az elnök mesterséges intelligenciáért felelős tanácsadója tavaly ősszel azzal vádolta a céget, hogy „félelemkeltésre épülő szabályozási stratégiát” folytat.

Ugyanakkor a vállalat igyekszik kétpárti kapcsolatokat építeni: igazgatótanácsába beválasztotta Chris Liddellt, aki Donald Trump első elnöki ciklusában a Fehér Házban dolgozott. A Pentagon és az Anthropic közötti egyeztetés így egyszerre üzleti, stratégiai és politikai jelentőségű.

Katonai alkalmazás: hatékonyság és kockázat

A vita lényege, hogy a mesterséges intelligencia milyen mélységben integrálható a hadsereg működésébe. Az alacsonyabb kockázatú területeken – például adminisztratív feladatok, logisztika vagy karbantartási előrejelzés – az AI már most is kézzelfogható hatékonyságnövekedést kínál. 

A magasabb kockázatú alkalmazások, mint a harctéri döntéstámogatás vagy autonóm fegyverrendszerek irányítása azonban egészen más megítélés alá esnek.

A szakértők emlékeztetnek: a Pentagon korábban a Project Maven drónmegfigyelési programja miatt is komoly belső és külső kritikákkal szembesült. Bár egyes technológiai dolgozók tiltakoztak, a drónalapú felderítés azóta a hadviselés meghatározó elemévé vált. Hasonló pálya rajzolódhat ki a mesterséges intelligencia esetében is: a technológia már jelen van, és legfeljebb a szabályozási és etikai keretek fognak alakulni.

Google News Világgazdaság
A legfrissebb hírekért kövess minket a Világgazdaság.hu Google News oldalán is!

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.