Összefog a Pentagon az AI atyjával, hogy létrehozzák a legpusztítóbb szuperfegyvereket — a kulcsszó: Anthropic
Az Egyesült Államok védelmi minisztériuma és a vezető mesterségesintelligencia- (AI) fejlesztők közötti együttműködés új szakaszba léphet, amikor Pete Hegseth amerikai védelmi miniszter egyeztetést tervez Dario Amodeivel, az Anthropic vezérigazgatójával – értesült a Defense News védelempolitikai szakportál.

A találkozó tétje az, milyen szerepet kap a mesterséges intelligencia a hadsereg működésében, és hol húzódnak a technológiai, etikai és politikai határok.
Az AI katonai alkalmazása nem egyszerű kérdéskör
A védelmi tárca tavaly nyáron négy technológiai vállalattal – Anthropic, Google, OpenAI és xAI – kötött, egyenként legfeljebb 200 millió dollár (mintegy 72 milliárd forint) értékű szerződést mesterségesintelligencia-megoldások fejlesztésére. A cél egy belső katonai hálózat, a GenAI.mil kiépítése, amely a szolgálati feladatoktól a döntéstámogatásig több területen használná az új modelleket.
Az Anthropic különleges helyzetben van: a vállalat az első, amely engedélyt kapott minősített katonai hálózatokon való működésre, és olyan partnerekkel dolgozik együtt, mint a Palantir Technologies. A többi három szereplő egyelőre nem minősített környezetben tesztelheti rendszereit.
Hegseth januárban a SpaceX texasi eseményén arról beszélt, hogy a Pentagon nem kíván olyan mesterségesintelligencia-modelleket alkalmazni, amelyek nem teszik lehetővé a háborúk megvívását, és hangsúlyozta: az amerikai katonai AI
nem lesz ideológiai korlátok közé szorítva.
Ezzel párhuzamosan bejelentette, hogy az xAI Grok nevű chatbotja csatlakozik a rendszerhez, míg február elején az OpenAI is közölte, hogy egy testre szabott ChatGPT-változatot biztosít nem minősített katonai feladatokra.
Dario Amodei óvatossága
Az Anthropic alapítói 2021-ben váltak ki az OpenAI-ból, és vállalatukat a biztonságközpontú fejlesztés ígéretével pozicionálták. Amodei az elmúlt hónapokban több írásában is arra figyelmeztetett: a mesterséges intelligencia 2026-ra közelebb kerülhet a valós és súlyos kockázatokhoz, mint néhány évvel ezelőtt.
Kiemelte az autonóm fegyverrendszerek és az AI-alapú tömeges megfigyelés veszélyeit, különösen akkor, ha azok megfelelő kontroll nélkül működnek.
A vezérigazgató szerint egy nagy teljesítményű rendszer képes lehet több milliárd kommunikációs adat elemzésére, közvéleménytrendek és akár „lojalitási mintázatok” azonosítására is. E technológia nemcsak katonai, hanem belbiztonsági és polgári jogi kérdéseket is felvet, ami magyarázza az Anthropic óvatosabb álláspontját.
Politikai és iparági feszültségek
Az ügy nem pusztán technológiai természetű. Az Anthropic korábban bírálta a félvezetőgyártó Nvidia kapcsán felmerült exportkorlátozási lazításokat, és több kérdésben eltérő álláspontot képviselt a Trump-adminisztrációval szemben.
David Sacks, az elnök mesterséges intelligenciáért felelős tanácsadója tavaly ősszel azzal vádolta a céget, hogy „félelemkeltésre épülő szabályozási stratégiát” folytat.
Ugyanakkor a vállalat igyekszik kétpárti kapcsolatokat építeni: igazgatótanácsába beválasztotta Chris Liddellt, aki Donald Trump első elnöki ciklusában a Fehér Házban dolgozott. A Pentagon és az Anthropic közötti egyeztetés így egyszerre üzleti, stratégiai és politikai jelentőségű.
Katonai alkalmazás: hatékonyság és kockázat
A vita lényege, hogy a mesterséges intelligencia milyen mélységben integrálható a hadsereg működésébe. Az alacsonyabb kockázatú területeken – például adminisztratív feladatok, logisztika vagy karbantartási előrejelzés – az AI már most is kézzelfogható hatékonyságnövekedést kínál.
A magasabb kockázatú alkalmazások, mint a harctéri döntéstámogatás vagy autonóm fegyverrendszerek irányítása azonban egészen más megítélés alá esnek.
A szakértők emlékeztetnek: a Pentagon korábban a Project Maven drónmegfigyelési programja miatt is komoly belső és külső kritikákkal szembesült. Bár egyes technológiai dolgozók tiltakoztak, a drónalapú felderítés azóta a hadviselés meghatározó elemévé vált. Hasonló pálya rajzolódhat ki a mesterséges intelligencia esetében is: a technológia már jelen van, és legfeljebb a szabályozási és etikai keretek fognak alakulni.


