TECH HÍREK – A GB200-as chip használata nagy profitkulcsot hozhat az ezt használó cégeknek, de aki az AMD felé tekint, ennek ellenkezőjét tapasztalhatja.
A Morgan Stanley Research által közzétett új adatokban a cég összehasonlította az MI-megoldások működési költségeit és haszonkulcsát a következtetéses munkaterhelésekben. Kiderült, hogy a legtöbb MI-következtetéssel foglalkozó „gyár” vagy vállalat, amely több chipet is használ, 50% feletti haszonkulccsal rendelkezik, és ezek közül az Nvidia vezet.
Az értékeléshez 100 MW teljesítményű MI-gyárakat vizsgáltak, amelyek különböző gyártók szerverállványait tartalmazzák (Nvidia, Google, AMD, AWS, Huawei). Ezek közül az Nvidia GB200 NVL72 Blackwell GPU platformja biztosította a legmagasabb, 77,6%-os haszonkulcsot, körülbelül 3,5 milliárd dollár becsült nyereséggel. A második helyen a Google TPU v6e pod állt 74,9%-kal, a harmadikon pedig az AWS Trn2 Ultraserver 62,5%-kal. A többi megoldás 40–50% körüli profitrátát kínált, de az AMD számai különösen gyengék voltak.
Az AMD MI355X platformja -28,2%-os, míg a régebbi MI300X platform -64,0%-os profitot mutatott az MI-inferenciában. A bérleti árak (átlag 10,5 USD/óra) alapján az Nvidia GB200 NVL72 chipje óránként 7,5 dollárt termelt, az HGX H200 3,7-et, míg az AMD MI355X mindössze 1,7 dollárt. A legtöbb más chip 0,5–2 dollárt hozott óránként.
Az Nvidia előnye az FP4 támogatásából és a CUDA MI stack folyamatos optimalizálásából fakad. A vállalat több régebbi GPU-ját, például a Hopper-t és a Blackwell-t is hatékonyan frissíti, amelyek negyedévről negyedévre jobban teljesítenek. Bár az AMD MI300 és MI350 platformjai hardveresen erősek, és a szoftveres oldalon is fejlődtek, az AI-inferencia továbbra is problémás számukra.
Az MI300X platformok teljes tulajdonlási költsége (TCO) 744 millió USD, ami közel azonos az Nvidia GB200 platformjával (~800 millió USD), így a költségek sem az AMD javára billennek. Az újabb MI355X szerverek TCO-ja 588 millió USD, hasonlóan a Huawei CloudMatrix 384-hez. Az Nvidia népszerűsége abból adódhat, hogy azonos beruházási költség mellett sokkal nagyobb teljesítményt kínál MI-inferenciában, amely a jövő AI-piacának 85%-át teszi ki.
Az Nvidia idén piacra dobja a Blackwell Ultra GPU platformot, amely 50%-kal gyorsabb lesz a GB200-nál. Ezt követi majd a Rubin (gyártás: 2026 első fele), a Rubin Ultra és a Feynman. Az AMD jövőre tervezi kiadni a MI400-at, amely optimalizáltabb lehet az AI-inferencia terén, így a következő év izgalmasnak ígérkezik az MI-szegmensben.
Forrás: WCCFTech, Morgan Stanley







