Kína beviszi a mélyütést: az amerikainál többszörösen gyorsabb mesterséges intelligenciát fejlesztettek
A kínai fintech óriás, az Ant Group nyílt forráskódúvá tette új mesterségesintelligencia-keretrendszerét, amely a vállalat szerint háromszor gyorsabb a jelenlegi legfejlettebb rendszereknél – és ezzel közvetlen kihívást jelent az amerikai Nvidia technológiai fölényére. Kína ezzel újabb lépést tesz abba az irányba, hogy leváljon az amerikai technológiai óriásokról, a folyamat pedig az Alibaba csoport, az Ant anyavállalata számára is jókora előnyökkel járhat.

A kínai Alibaba csoporthoz tartozó Ant Group hétfőn mutatta be új, dInfer nevű, nyílt forráskódú inferencia-keretrendszerét, mely a mesterséges intelligencia egy új típusú modellje, az úgynevezett diffúziós nyelvi modellek számára készült. Ezek a rendszerek nem egymás után, hanem párhuzamosan generálnak szöveget, ellentétben a ChatGPT-hez hasonló „autoregresszív” nyelvi modellekkel, melyek szóról szóra, balról jobbra építik fel a mondatokat – számolt be a South China Morning Post.
A diffúziós modellek eddig főként a képek és videók generálásában váltak meghatározóvá, de az Ant Group most a nyelvi feladatok területén is áttörést ígér. A vállalat állítása szerint
a dInfer akár tízszer gyorsabb az Nvidia Fast-dLLM keretrendszerénél,
és háromszor gyorsabb a kaliforniai Berkeley Egyetemen fejlesztett vLLM-nél – mindkettő az iparágban etalonnak számít.
Vége az alternatív megoldások korszakának
Az Ant Group saját fejlesztésű diffúziós modelljén, a LLaDA-MoE-n végzett belső tesztek szerint a dInfer átlagosan 1011 token per másodperces sebességgel működött a kódgenerálási feladatokra szabott HumanEval teszten. Ugyanez a feladat az Nvidia rendszerével 91, az Alibaba Qwen-2.5-3B modelljével pedig 294 token per másodpercet vett igénybe. Ez az eredmény több mint tízszeres gyorsulás a jelenlegi legelterjedtebb amerikai technológiákhoz képest.
A fejlesztés stratégiai jelentőségű: a kínai technológiai óriások, köztük
az Alibaba és a Baidu, az elmúlt években kénytelenek voltak alternatív megoldásokat keresni az amerikai exportkorlátozások miatt,
melyek gátolják a fejlett Nvidia-csipek beszerzését. A dInfer bejelentése azt jelzi, hogy Kína egyre inkább a szoftveres optimalizációban és algoritmikai fejlesztésekben próbálja kompenzálni a hardveres hátrányát.
A diffúziós nyelvi modellek koncepciója egyelőre kutatási fázisban van, de egyre több szakértő lát bennük potenciált: elméletileg nagyobb párhuzamos feldolgozási sebességet és hatékonyabb tanulási képességeket kínálhatnak, ami hosszabb távon a mesterségesintelligencia-rendszerek új generációját alapozhatja meg. Ha a kínai fejlesztések valóban képesek lesznek stabilan és skálázhatóan működni, az új korszakot nyithat az MI-piacon, ahol a verseny már nemcsak az adat- és csipmennyiségről, hanem az algoritmikus hatékonyságról is szól majd.
Tenyérnyi méretű MI-szuperszámítógépet mutatott be az Nvidia
Az Nvidia bemutatta legújabb fejlesztését, a DGX Sparkot: egy tenyérnyi méretű, de petaflopos teljesítményű mesterségesintelligencia-szuperszámítógépet, melyet a cég szerint bárki az asztalára tehet. A cél: visszahozni az MI-fejlesztést a felhőből a helyi gépekre, és ezzel új korszakot nyitni a kutatók, fejlesztők és startupok számára. A DGX Spark teljesítménye meglepően nagy a méretéhez képest: a rendszer egy petaflopnyi MI-számítási kapacitást kínál, és 128 gigabyte egységes memóriát. Ez elég ahhoz, hogy akár 200 milliárd paraméteres MI-modelleket futtasson, illetve 70 milliárdos modelleket finomhangoljon helyben, felhőszolgáltatás nélkül.
Az Nvidia ezzel egy új fejlesztői kategóriát hozott létre, amely elvileg képes elbírni a legújabb nyelvi modelleket is – például a ChatGPT-méretű rendszerek korlátozott, kísérleti változatait.