BÉT logóÁrfolyamok: 15 perccel késleltetett adatok
Miami,,Usa,-,January,28,,2025:,Deepseek,Ai,App,Chat

Egyre több ország korlátozza a piacokat felforgató DeepSeek használatát

A kínai DeepSeek felkeltette a világ figyelmét. Azonban egyre több ország korlátozza vagy tiltja be a távol-keleti MI használatát adatvédelmi vagy nemzetbiztonsági aggályokra hivatkozva.

A dél-koreai ipari minisztérium biztonsági aggályok miatt ideiglenesen megtiltotta az alkalmazottak hozzáférését a DeepSeek kínai mesterséges intelligenciához. Az atom- és vízerőműveket üzemeltető állami cég, a Korea Hydro & Nuclear Power szintén bejelentette, hogy minden MI és csetbot használatát blokkolta.

Miami,,Usa,-,January,28,,2025:,Deepseek,Ai,App,Chat DeepSeek
Egyre több ország lép fel a DeepSeek ellen / Fotó: Shutterstock

A Reuters emlékeztet: a távol-keleti ország kormánya közleményt adott ki, amelyben felszólította a minisztériumokat és ügynökségeket, hogy legyenek óvatosak az MI-szolgáltatások, köztük a DeepSeek és a ChatGPT munkahelyi használatával kapcsolatban.

Mint ismert, az elmúlt napokban felkeltette a világ figyelmét a kínai DeepSeek. Igazi különlegessége, hogy állítólag az OpenAI fejlesztési költségének töredékéért állította elő egy kínai fedezeti alap, és szinte ugyanolyan szinten képes mindenféle, csetbottól elvárt feladatra. Ráadásul mindezt nyílt forráskóddal teszi.

Azonban több amerikai elemző és üzletember megkérdőjelezte a startup adatainak hitelességét, sőt a ChatGPT mögött álló OpenAI súlyos vádakat fogalmazott meg: a cég szerint a DeepSeek az amerikai vállalat tulajdonában álló modelleket használta arra, hogy saját nyílt forrású modelljeit képezze, ami sértheti az OpenAI felhasználási feltételeit és szellemi tulajdonát.

Más országok is léptek

Dél-Korea nem az első ország, ami korlátozást vagy tilalmat vezet be: az olasz adatvédelmi hatóság, a Garante a múlt jelentette be a DeepSeek blokkolását az országban, miután a kínai MI-startup nem reagált a szabályozó hatóság adatvédelmi politikájával kapcsolatban feltett kérdéseire.

Ausztrália szintén betiltotta a kínai MI használatát kormányzati eszközökön nemzetbiztonsági aggályokra hivatkozva. Tony Burke belügyminiszter szerint a csetbot kockázatot jelent a kormányzati technológiára nézve, az intézkedés Ausztrália nemzetbiztonságának és nemzeti érdekeinek védelmét szolgálja.

Tajvan a hét elején tiltotta meg a kormányhivataloknak a DeepSeek használatát. Írország és Franciaország adatvédelmi szabályozó hatóságai jelezték, hogy kérdőre vonják a startupot adatvédelmi szabályzata miatt. Amerikai tisztviselők is vizsgálják a DeepSeek nemzetbiztonsági vonatkozásait.

Mi a csetbot, mi a mesterséges intelligencia?

Mesterséges intelligenciának összefoglalva azokat a programokat, gépeket vagy szoftvereket nevezhetjük, amelyek emberi beavatkozás nélkül képesek úgy válaszolni vagy viselkedni, mintha természetes intelligenciájú élőlények lennének. Az MI alapvetően a gépek emberhez hasonló képességeit jelenti az érvelés, a tanulás és a kreativitás területén.

A csetbot pedig olyan számítógépes program, amely képes az emberihez hasonló beszélgetésre úgy, hogy irányításához nem szükséges emberi beavatkozás. Bármennyi ügyfelet képes egyszerre kiszolgálni, és tudásához mérten a legpontosabb válaszokat adja a feltett kérdésekre.

Új appot indított a TikTok fejlesztője – MI segítségével gyárthatunk videókat

A ByteDance tulajdonában lévő TikTok csütörtökön bejelentette, hogy a Symphony Creative Studios nevű, generatív MI-videókészítő platformja világszerte elérhetővé vált minden hirdetőnek, miközben a rövid videós alkalmazás igyekszik fellendíteni hirdetési üzletágát. A TikTok a legújabb technológiai vállalat, amely mesterséges intelligencia által generált funkciókat épít be a hirdetési üzletágába.

 

Ajánlott videók

Továbbiak

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.