BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Kína beviszi a mélyütést: az amerikainál többszörösen gyorsabb mesterséges intelligenciát fejlesztettek

A kínai fintech óriás, az Ant Group új MI-keretrendszere közvetlen kihívást intéz az amerikai Nvidia fölénye ellen. A dInfer nevű, diffúziós nyelvi modellekhez fejlesztett rendszer akár tízszer gyorsabb is lehet a jelenlegi amerikai megoldásoknál – és jól mutatja, hogy Kína az algoritmusfejlesztésben próbálja behozni csiphátrányát.

A kínai fintech óriás, az Ant Group nyílt forráskódúvá tette új mesterségesintelligencia-keretrendszerét, amely a vállalat szerint háromszor gyorsabb a jelenlegi legfejlettebb rendszereknél – és ezzel közvetlen kihívást jelent az amerikai Nvidia technológiai fölényére. Kína ezzel újabb lépést tesz abba az irányba, hogy leváljon az amerikai technológiai óriásokról, a folyamat pedig az Alibaba csoport, az Ant anyavállalata számára is jókora előnyökkel járhat.

Kína teljesen elengedné Amerika legnagyobb vállalatának a kezét – a technológiai függetlenedésből az Alibaba is nagyot kaszálhat
Kína teljesen elengedné Amerika legnagyobb vállalatának a kezét – a technológiai függetlenedésből az Alibaba is nagyot kaszálhat / Fotó: Cfoto via AFP

A kínai Alibaba csoporthoz tartozó Ant Group hétfőn mutatta be új, dInfer nevű, nyílt forráskódú inferencia-keretrendszerét, mely a mesterséges intelligencia egy új típusú modellje, az úgynevezett diffúziós nyelvi modellek számára készült. Ezek a rendszerek nem egymás után, hanem párhuzamosan generálnak szöveget, ellentétben a ChatGPT-hez hasonló „autoregresszív” nyelvi modellekkel, melyek szóról szóra, balról jobbra építik fel a mondatokat – számolt be a South China Morning Post.

A diffúziós modellek eddig főként a képek és videók generálásában váltak meghatározóvá, de az Ant Group most a nyelvi feladatok területén is áttörést ígér. A vállalat állítása szerint 

a dInfer akár tízszer gyorsabb az Nvidia Fast-dLLM keretrendszerénél, 

és háromszor gyorsabb a kaliforniai Berkeley Egyetemen fejlesztett vLLM-nél – mindkettő az iparágban etalonnak számít.

Vége az alternatív megoldások korszakának

Az Ant Group saját fejlesztésű diffúziós modelljén, a LLaDA-MoE-n végzett belső tesztek szerint a dInfer átlagosan 1011 token per másodperces sebességgel működött a kódgenerálási feladatokra szabott HumanEval teszten. Ugyanez a feladat az Nvidia rendszerével 91, az Alibaba Qwen-2.5-3B modelljével pedig 294 token per másodpercet vett igénybe. Ez az eredmény több mint tízszeres gyorsulás a jelenlegi legelterjedtebb amerikai technológiákhoz képest.

A fejlesztés stratégiai jelentőségű: a kínai technológiai óriások, köztük 

az Alibaba és a Baidu, az elmúlt években kénytelenek voltak alternatív megoldásokat keresni az amerikai exportkorlátozások miatt, 

melyek gátolják a fejlett Nvidia-csipek beszerzését. A dInfer bejelentése azt jelzi, hogy Kína egyre inkább a szoftveres optimalizációban és algoritmikai fejlesztésekben próbálja kompenzálni a hardveres hátrányát.

A diffúziós nyelvi modellek koncepciója egyelőre kutatási fázisban van, de egyre több szakértő lát bennük potenciált: elméletileg nagyobb párhuzamos feldolgozási sebességet és hatékonyabb tanulási képességeket kínálhatnak, ami hosszabb távon a mesterségesintelligencia-rendszerek új generációját alapozhatja meg. Ha a kínai fejlesztések valóban képesek lesznek stabilan és skálázhatóan működni, az új korszakot nyithat az MI-piacon, ahol a verseny már nemcsak az adat- és csipmennyiségről, hanem az algoritmikus hatékonyságról is szól majd.

Tenyérnyi méretű MI-szuperszámítógépet mutatott be az Nvidia

Az Nvidia bemutatta legújabb fejlesztését, a DGX Sparkot: egy tenyérnyi méretű, de petaflopos teljesítményű mesterségesintelligencia-szuperszámítógépet, melyet a cég szerint bárki az asztalára tehet. A cél: visszahozni az MI-fejlesztést a felhőből a helyi gépekre, és ezzel új korszakot nyitni a kutatók, fejlesztők és startupok számára. A DGX Spark teljesítménye meglepően nagy a méretéhez képest: a rendszer egy petaflopnyi MI-számítási kapacitást kínál, és 128 gigabyte egységes memóriát. Ez elég ahhoz, hogy akár 200 milliárd paraméteres MI-modelleket futtasson, illetve 70 milliárdos modelleket finomhangoljon helyben, felhőszolgáltatás nélkül.

Az Nvidia ezzel egy új fejlesztői kategóriát hozott létre, amely elvileg képes elbírni a legújabb nyelvi modelleket is – például a ChatGPT-méretű rendszerek korlátozott, kísérleti változatait.

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.