TECH HÍREK – A cég szerint a GPU-ik iránti kereslet meghaladja a kínálatot, ugyanis a techóriások többezer mesterséges intelligenciás chipet fognak alkalmazni nemsokára.
A ChatGPT mellett a további nyelvi, képes és videós alkotásra használatos eszközök is a mesterséges intelligencia feldolgozási erejére támaszkodnak, és errefelé rejlik az Nvidia erőssége. Ezért a nagyobb, a ChatGPT-t alkalmazó tech cégek (mint például a Microsoft) az Nvidia GPU-it használják, hogy a növekvő MI-s igényeiknek megfelelő erőt tudjanak biztosítani. Ez ahhoz vezethet, hogy az ilyen technológiával felvértezett videókártyák körül hiány keletkezhet a következő hónapok folyamán.
A FierceElectronics írt arról, hogy az OpenAI a ChatGPT-t tízezer Nvidia GPU-n edzette, de mióta a nyilvánosság is felfigyelt rá, túlterheltté vált a rendszer. Ezért vezette be az OpenAI a ChatGPT Plus előfizetést, ami havi 20 dollárt, 8 ezer forintot kóstál, és ezzel nem csak hozzáférést kapunk a szerverekhez még túlterheltség esetén is, de gyorsabb válaszidőt és az új funkciókhoz, fejlesztésekhez korábbi hozzáférést kapunk a pénzünkért. „Lehetséges, hogy a jövőben a ChatGPT vagy más mély tanulási modellek más gyártók GPU-in is betaníthatók vagy futtathatóak lesznek, jelenleg azonban az Nvidia GPU-it széles körben használják a mély tanulási közösségben a nagy teljesítményük és a CUDA-támogatásuk miatt. A CUDA az Nvidia által kifejlesztett párhuzamos számítási platform és programozási modell, amely hatékony számításokat tesz lehetővé a cég GPU-in. Számos mélytanulási könyvtár és keretrendszer, például a TensorFlow és a PyTorch beépített CUDA-támogatással rendelkezik, és Nvidia GPU-kra optimalizált,” írja a site.
A Forbes arról ír, hogy a Microsoft és a Google is ChatGPT-féle LLM-et (nyelvi tanulási modellt) fog a keresőmotorjába integrálni. A Google esetében ha minden egyes kereséshez mellékelné ezt a techhnológiát, akkor 512820 A100 HGX szerver kellene neki összesen 4 millió 102 ezer 568 A100 GPU-val, ami hálózati- és szerverköltségek esetében is kb. 100 milliárd dolláros tőkebefektetés lenne, és a site szerint ez soha nem fog megtörténni. Az Investing.com pedig azt hozza fel, hogy a ChatGPT bétája során használt 10 ezer Nvidia GPU helyett most már 25 ezernél tart a cég: „Úgy gondoljuk, hogy a GPT 5 jelenleg 25 ezer GPU-n (körülbelül 225 millió dollárnyi Nvidia hardveren) zajlik, és a következtetési költségek valószínűleg sokkal alacsonyabbak, mint néhány általunk látott szám. Ennek csökkentése kritikus fontosságú lesz a felhős titánok „keresési költségei” vitájának megoldásában.”
A játékosok félhetnek: az Nvidia GPU-kínálata a kínai újév miatt ritkább ebben az első három hónapban, ami a high-end kártyákat érinti a leginkább. Ezeknek pedig jobb MI-kapacitása van mint a szerveres hardvernek, mégpedig töredék árért, és ezeket felvásárolhatják a cégek…
Forrás: WCCFTech