A Google DeepMind vezérigazgatója, Demis Hassabis egy párizsi rendezvényen méltatta a kínai Deepseek mesterséges intelligencia modelljét.
Szerintem ez valószínűleg a legjobb munka, amit Kínából láttam
- fogalmazott Hassabis, hozzátéve, hogy a Deepseek "rendkívül jó mérnöki munkát" végzett.
A Deepseek múlt hónapban közzétett dokumentuma jelentős visszhangot váltott ki a globális piacokon: a kínai cég azt állította, hogy AI-modelljét a vezető szereplők költségeinek töredékéért és kevésbé fejlett Nvidia chipeken képezték ki. Ez komoly részvényeladásokat és vitákat generált arról, hogy a nagy technológiai cégek nem költenek-e túl sokat AI infrastruktúrára.
Hassabis rámutatott, hogy
technológiai szempontból a Deepseek modellje nem jelent áttörést.
"A hype ellenére nincs tényleges új tudományos előrelépés ... ismert technikákat használ [az AI-ban]" - mondta a DeepMind vezérigazgatója, hozzátéve, hogy a Deepseek körüli felhajtás szerinte
egy kicsit eltúlzott.
A cégvezető kiemelte, hogy saját Gemini 2.0 Flash modelljük, amelyet nemrég tettek mindenki számára elérhetővé, hatékonyabb, mint a Deepseek megoldása. Szakértők emellett megkérdőjelezték a kínai cég állításait az alacsony költségekről és a használt chipekről, arra utalva, hogy a fejlesztési költségek valószínűleg magasabbak voltak.
Hassabis nem csak a DeepSeek-ről beszélt, hanem optimista jóslatokat fogalmazott meg az általános mesterséges intelligencia (AGI) közeli megjelenésével kapcsolatban. Az AGI-t úgy jellemezte, mint "egy olyan rendszert, amely az emberek összes kognitív képességével rendelkezik".
Azt hiszem, már közel vagyunk, talán már csak 5 évnyire vagyunk egy ilyen rendszertől, ez rendkívüli lesz
- vélekedett Hassabis. Hozzátette: "A társadalomnak fel kell készülnie erre, és arra, hogy milyen következményei lesznek. És biztosnak kell lennünk abban, hogy ebből hasznot húzunk, és az egész társadalom profitál belőle, ugyanakkor a kockázatokat is mérsékelni kell."
Hassabis véleménye összhangban van más iparági szereplőkkel, köztük az OpenAI vezérigazgatója, Sam Altman nyilatkozataival, aki szerint már tudják, hogyan kell megépíteni az AGI-t. Ugyanakkor számos szakértő, köztük Max Tegmark és Yoshua Bengio AI-kutatók figyelmeztetnek az AGI potenciális veszélyeire, különösen arra, hogy az emberek elveszíthetik az ellenőrzést az általuk létrehozott rendszerek felett.
A címlapkép illusztráció. Címlapkép forrása: Portfolio