BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Kína beviszi a mélyütést: az amerikainál többszörösen gyorsabb mesterséges intelligenciát fejlesztettek

A kínai fintech óriás, az Ant Group új MI-keretrendszere közvetlen kihívást intéz az amerikai Nvidia fölénye ellen. A dInfer nevű, diffúziós nyelvi modellekhez fejlesztett rendszer akár tízszer gyorsabb is lehet a jelenlegi amerikai megoldásoknál – és jól mutatja, hogy Kína az algoritmusfejlesztésben próbálja behozni csiphátrányát.

A kínai fintech óriás, az Ant Group nyílt forráskódúvá tette új mesterségesintelligencia-keretrendszerét, amely a vállalat szerint háromszor gyorsabb a jelenlegi legfejlettebb rendszereknél – és ezzel közvetlen kihívást jelent az amerikai Nvidia technológiai fölényére. Kína ezzel újabb lépést tesz abba az irányba, hogy leváljon az amerikai technológiai óriásokról, a folyamat pedig az Alibaba csoport, az Ant anyavállalata számára is jókora előnyökkel járhat.

Kína teljesen elengedné Amerika legnagyobb vállalatának a kezét – a technológiai függetlenedésből az Alibaba is nagyot kaszálhat
Kína teljesen elengedné Amerika legnagyobb vállalatának a kezét – a technológiai függetlenedésből az Alibaba is nagyot kaszálhat / Fotó: Cfoto via AFP

A kínai Alibaba csoporthoz tartozó Ant Group hétfőn mutatta be új, dInfer nevű, nyílt forráskódú inferencia-keretrendszerét, mely a mesterséges intelligencia egy új típusú modellje, az úgynevezett diffúziós nyelvi modellek számára készült. Ezek a rendszerek nem egymás után, hanem párhuzamosan generálnak szöveget, ellentétben a ChatGPT-hez hasonló „autoregresszív” nyelvi modellekkel, melyek szóról szóra, balról jobbra építik fel a mondatokat – számolt be a South China Morning Post.

A diffúziós modellek eddig főként a képek és videók generálásában váltak meghatározóvá, de az Ant Group most a nyelvi feladatok területén is áttörést ígér. A vállalat állítása szerint 

a dInfer akár tízszer gyorsabb az Nvidia Fast-dLLM keretrendszerénél, 

és háromszor gyorsabb a kaliforniai Berkeley Egyetemen fejlesztett vLLM-nél – mindkettő az iparágban etalonnak számít.

Vége az alternatív megoldások korszakának

Az Ant Group saját fejlesztésű diffúziós modelljén, a LLaDA-MoE-n végzett belső tesztek szerint a dInfer átlagosan 1011 token per másodperces sebességgel működött a kódgenerálási feladatokra szabott HumanEval teszten. Ugyanez a feladat az Nvidia rendszerével 91, az Alibaba Qwen-2.5-3B modelljével pedig 294 token per másodpercet vett igénybe. Ez az eredmény több mint tízszeres gyorsulás a jelenlegi legelterjedtebb amerikai technológiákhoz képest.

A fejlesztés stratégiai jelentőségű: a kínai technológiai óriások, köztük 

az Alibaba és a Baidu, az elmúlt években kénytelenek voltak alternatív megoldásokat keresni az amerikai exportkorlátozások miatt, 

melyek gátolják a fejlett Nvidia-csipek beszerzését. A dInfer bejelentése azt jelzi, hogy Kína egyre inkább a szoftveres optimalizációban és algoritmikai fejlesztésekben próbálja kompenzálni a hardveres hátrányát.

A diffúziós nyelvi modellek koncepciója egyelőre kutatási fázisban van, de egyre több szakértő lát bennük potenciált: elméletileg nagyobb párhuzamos feldolgozási sebességet és hatékonyabb tanulási képességeket kínálhatnak, ami hosszabb távon a mesterségesintelligencia-rendszerek új generációját alapozhatja meg. Ha a kínai fejlesztések valóban képesek lesznek stabilan és skálázhatóan működni, az új korszakot nyithat az MI-piacon, ahol a verseny már nemcsak az adat- és csipmennyiségről, hanem az algoritmikus hatékonyságról is szól majd.

Tenyérnyi méretű MI-szuperszámítógépet mutatott be az Nvidia

Az Nvidia bemutatta legújabb fejlesztését, a DGX Sparkot: egy tenyérnyi méretű, de petaflopos teljesítményű mesterségesintelligencia-szuperszámítógépet, melyet a cég szerint bárki az asztalára tehet. A cél: visszahozni az MI-fejlesztést a felhőből a helyi gépekre, és ezzel új korszakot nyitni a kutatók, fejlesztők és startupok számára. A DGX Spark teljesítménye meglepően nagy a méretéhez képest: a rendszer egy petaflopnyi MI-számítási kapacitást kínál, és 128 gigabyte egységes memóriát. Ez elég ahhoz, hogy akár 200 milliárd paraméteres MI-modelleket futtasson, illetve 70 milliárdos modelleket finomhangoljon helyben, felhőszolgáltatás nélkül.

Az Nvidia ezzel egy új fejlesztői kategóriát hozott létre, amely elvileg képes elbírni a legújabb nyelvi modelleket is – például a ChatGPT-méretű rendszerek korlátozott, kísérleti változatait.

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.