Még borzasztóbb sors jut az embernek a harctéren: mint a légysereg lepi be a Pentagont az MI
Drónok elől menekülő katona, akit drón lő szitává – az ilyen és efféle, Terminátor-filmekbe illő jelenetek valósággá váltak a mai harctereken. Hová fejlődhet tovább mindez, és hogy válik a háború még borzalmasabbá a csatába küldött emberi harcosok számára, kiolvasható a Bloomberg egyik pénteki híréből.

A csúcstechnológia igazi nagyágyúi szálltak be, hogy még nagyobb előnyt szerezzen az amerikai hadsereg a harctéren ellenségeivel szemben. Amire készülnek, valószínűsíti, hogy az embernek egyre kisebb esélye marad a túlélésre a harcban a technológiával szemben. Iránban már alkalmazzák.
A Pentagon további négy technológiai vállalattal kötött megállapodást fejlett mesterségesintelligencia-eszközök kibővített használatáról minősített katonai hálózatokon – derül ki a védelmi minisztérium közleményéből és két, az ügyet ismerő tisztviselő tájékoztatásából.
A Bloomberg jelentése szerint
- az Nvidia Corp.,
- a Microsoft Corp.,
- a Reflection AI Inc.
- és az Amazon.com Inc.
kötött új megállapodásokat kötött az amerikai védelmi minisztériummal „jogszerű operatív felhasználásra” – áll a közleményben. A tisztviselők névtelenséget kértek a belső egyeztetések miatt.
A megállapodások jelentős mozgásteret adnak a Pentagonnak arra, hogy nagy teljesítményű, fejlett MI-technológiákat akár titkos harci műveletekben is alkalmazzon, például célkijelölés támogatására.
Az új felhasználási feltételek – köztük a „jogszerű operatív felhasználás” – jelentősen enyhítik azokat a korlátozásokat, amelyeket az Anthropic PBC próbált érvényesíteni, és amelyek miatt az év elején meghiúsult a Pentagonnal kötött megállapodása.
Számos technológiai vállalat már eddig is szállított MI-eszközöket az amerikai hadseregnek, de a Pentagon 2025 ősze óta igyekszik bővíteni a felhasználási feltételeket. Nemrég hasonló megállapodásokat kötött többek között
- a SpaceX,
- az OpenAI
- és a Google is.
Ezek a megállapodások felgyorsítják azt az átalakulást, amelynek célja, hogy az amerikai hadsereg MI-alapú harci erővé váljon
– áll a közleményben, amely mind a hét vállalatra utal, és egyben az első hivatalos Pentagon-megerősítés a Google-lal kötött, a hét elején jelentett új megállapodásról.
Ezt a technológiai versenyt természetesen csak az bírja az amerikaiakkal, akinek hasonló kapacitású cégei vannak. A dróntechnológiájával házaló Ukrajnának például nincsenek, Donald Trump amerikai elnök nemrég ezt egyértelműen Volodimir Zelenszkij ukrán elnök tudomására hozta.
Így még nem alázta meg Amerika Zelenszkijt: Trump ország-világ előtt megmondta, nincs szüksége Ukrajnára – „Többet tudunk”
Kijev korábban azt állította, hogy Washingtonnak óriási szüksége van a harctéri tapasztalataikra. Trump azonban most egyértelművé tette, hogy az amerikai hadseregnek semmi szüksége az ukrán drónképességekre a Közel-Keleten.
Leváltanák az Anthropic már alkalmazott eszközét
Az új, széles körű katonai felhasználást lehetővé tevő megállapodásokat akkor kötik meg, amikor a Pentagon épp alternatívákat keres az Anthropic Claude nevű eszközére. Az Anthropic és a védelmi vezetés közötti éles konfliktus rávilágított a Pentagon és a Szilícium-völgy közötti vissza-visszatérő feszültségre az MI háborús alkalmazásának kockázatai kapcsán.
A Pentagon az Amazon Web Servicesszel még csütörtökön késő estig tárgyalt – mondta két, az egyeztetéseket ismerő tisztségviselő.
Az AWS több mint egy évtizede támogatja az amerikai hadsereget – mondta Tim Barrett szóvivő –, és „továbbra is részt kíván venni a védelmi minisztérium modernizációs törekvéseiben olyan MI-megoldások fejlesztésével, amelyek segítik a kritikus feladatok végrehajtását”.
Az Nvidia nem kommentálta azonnal az új megállapodást, a Microsoft szóvivője pedig elzárkózott a nyilatkozattól. A Reflection képviselője sem volt elérhető – jelenti a Bloomberg.
A Pentagon nem fogadja el a féket
A Pentagon a legutóbbi újratárgyalásokon nem fogadta el az Anthropic által javasolt korlátozásokat, amelyek az MI katonai felhasználását szűkítették volna, és megpróbálta kiszorítani a céget a védelmi beszállítói láncból. A vállalat nem akarta, hogy technológiáját tömeges belföldi megfigyelésre vagy teljesen autonóm fegyverrendszerekben használják.
A szakítás óta a Pentagon felgyorsította erőfeszítéseit, hogy más MI-vállalatokat vonjon be, amelyek hajlandók szélesebb felhasználási feltételekbe beleegyezni titkos és szigorúan titkos hálózatokon. Emellett arra is törekednek, hogy a hadsereg ne függjön egyetlen cégtől vagy korlátozási rendszertől.
Az Nvidia új megállapodása például jóval nagyobb mozgásteret ad, mint a korábbiak. A cég vállalta, hogy nem alkalmaz olyan felhasználási vagy licencfeltételeket, amelyek az amerikai jog által előírtnál jobban korlátoznák a Pentagon tevékenységét.
A megállapodás értelmében az Nvidia „teljes és hatékony hozzáférést” biztosít képességeihez, többek között autonóm fegyverrendszerek fejlesztéséhez is. A felhasználás ugyanakkor – a forrás szerint – összhangban lesz az amerikai állampolgárok alkotmányos jogaival, bár konkrét ellenőrzési mechanizmusokat nem részleteztek.
Az MI nem hoz halálos döntéseket – valaki azonban igen, és a hiba sem zárható ki
A Pentagon hat hónapot adott magának a Claude rendszer lecserélésére, amelyet jelenleg iráni műveletekben használnak. A vita időközben bírósági szakaszba került.
Pete Hegseth védelmi miniszter csütörtökön ideológiai őrültnek nevezte az Anthropic vezetőjét, és megvédte az MI használatát „Betartjuk a törvényeket, és az emberek hozzák meg a döntéseket – mondta a kongresszus előtt. – Az MI nem hoz halálos döntéseket.”
A Pentagon szerint a fejlett MI alkalmazása segíti az úgynevezett „ember-gép együttműködést”, amely hatalmas adatmennyiségek feldolgozására képes. Cameron Stanley, a Pentagon digitális és MI-vezetője szerint ezek az eszközök gyorsabb és jobb döntéshozatalt tesznek lehetővé.
Bár az OpenAI is kötött megállapodást, rendszerei még nem futnak minősített katonai hálózatokon, de a bevezetés folyamatban van – írja a hírügynökség.
Civil szervezetek figyelmeztetnek az MI katonai alkalmazásának kockázataira: a rendszerek hibázhatnak, és fennáll az úgynevezett automatizációs torzítás veszélye, amikor az emberek túlzottan megbíznak a gépi döntésekben.



