Technológia

Hogyan építenek egyedi AI chipeket a nagy techcégek – és miért

A Google, az Amazon, a Meta és az Apple saját szilíciumlapkákat tervez az AI-munkaterhelésekhez – csökkentve a költségeket, növelve a teljesítményt és csökkentve az Nvidia-tól való függőséget. Íme, hogyan működnek az egyedi AI chipek, és miért fontosak.

R
Redakcia
Share
Hogyan építenek egyedi AI chipeket a nagy techcégek – és miért

Az AI-boom mögötti chipverseny

Valahányszor felteszel egy kérdést egy AI chatbotnak, streamelsz egy ajánlást a Netflixről, vagy feloldod a telefonodat az arcoddal, egy speciális számítógépes chip végzi a nehéz munkát. Évekig ez a chip szinte biztosan az Nvidia-tól származott. De valami változik. A Google, az Amazon, a Meta és az Apple most saját szilíciumlapkákat tervez – és ez átalakítja az egész AI-ipart.

Mi az az egyedi AI chip?

Az egyedi AI chip egy alkalmazásspecifikus integrált áramkör (ASIC) – olyan hardver, amelyet arra terveztek, hogy egy adott feladattípust rendkívül jól végezzen el, ahelyett, hogy a dolgok széles skáláját megfelelően végezze el. Ellentétben egy általános célú GPU-val, amelyet eredetileg videojáték-grafikák renderelésére terveztek, majd később AI-ra használtak fel, egy egyedi AI chipet a nulláról építenek fel a gépi tanulás által ténylegesen igényelt matematika köré: masszív mátrixszorzások, alacsony pontosságú aritmetika és gyors adatmozgás a memória és a számítási egységek között.

A központi építőelem gyakran egy mátrixszorzó egység (MXU) – egy dedikált áramkör, amely párhuzamosan képes hatalmas számsorokat szorozni. Mivel a neurális hálózatok lényegében mátrixszorzások láncolatai, egy MXU-val teli chip sokkal hatékonyabban tudja feldolgozni az AI-munkaterheléseket, mint egy GPU, amelynek támogatnia kell az összetett grafikai funkciókat is, amelyeket soha nem fog használni egy adatközpontban.

Ki mit épít

A Google volt az úttörő. A Tensor Processing Unit (TPU), amelyet először 2015-ben telepítettek belsőleg, ma a Gemini-t, a Google Search-öt és – figyelemre méltó módon – a Google felhőjében betanított Apple Intelligence modelleket hajtja. A legújabb generáció, az Ironwood, 2025 végén érkezett meg. Az Amazon Web Services követte a Trainium családdal a betanításhoz és az Inferentia-val a következtetéshez; a Trainium3 akár 4,4-szer több számítási teljesítményt nyújt, mint elődje, miközben körülbelül negyedannyi energiát használ fel. A Meta 2026 márciusában mutatta be a Meta Training and Inference Accelerator (MTIA) négy generációját, amelyet a nyílt forráskódú RISC-V architektúrára terveztek és a TSMC gyártott, lefedve mindent a hírfolyam rangsorolásától a generatív AI-ig. Az Apple Neural Engine-je, amely 2017 óta minden iPhone és Mac chipbe be van építve, olyan eszközön belüli feladatokat kezel, mint az arcfelismerés és a hangfeldolgozás anélkül, hogy adatokat küldene a felhőbe.

Miért nem vesznek egyszerűen több Nvidia GPU-t?

Az Nvidia H100 és B200 GPU-i továbbra is az arany standardot jelentik a legmodernebb AI-kutatás és a legnagyobb határterületi modellek betanítása terén. De a rutinszerű, folyamatos munkaterhelések esetében, amelyek egy vállalat AI-költéseinek nagy részét teszik ki – ajánlások kiszolgálása, következtetések futtatása napi több milliárd kérésen – az általános célú GPU-k jelentős többletköltséggel járnak. Energiát égetnek olyan funkciókra, amelyekre a nagyméretű következtetésnek nincs szüksége.

Az egyedi chipek kiküszöbölik ezt a többletköltséget. Az AWS becslése szerint a Trainium példányai 30–40%-kal jobb ár-teljesítményt nyújtanak, mint a megfelelő Nvidia GPU példányok a betanítási munkaterhelésekhez. A Meta szerint az MTIA chipek bizonyos rangsorolási és ajánlási feladatokban felülmúlják az Nvidia-t, miközben lényegesen kevesebbe kerülnek műveletenként. Napi több milliárd kérés esetén ezek a hatékonyságnövekedések több százmillió dolláros éves megtakarítást eredményeznek.

Van egy stratégiai dimenzió is. Ha teljes mértékben egyetlen beszállítóra támaszkodunk – még egy dominánsra is –, az kockázatot teremt. A kínálati hiányok, az exportkorlátozások és az árazási hatalom mind sebezhetőségekké válnak. A saját szilíciumlapkák építése lehetővé teszi a vállalatok számára, hogy ellenőrzést gyakoroljanak saját AI-fejlesztési ütemtervük felett.

A kompromisszumok

Az egyedi chipeknek is vannak hátrányai. Egy versenyképes ASIC tervezése tízmillióktól százmilliókig terjedő dollárba kerül a tervezés és a gyártás során, mielőtt egyetlen chip is kiszállításra kerülne. Az Nvidia CUDA platformja körüli szoftveres ökoszisztéma két évtizedes lendülettel rendelkezik; a kód átírása vagy portolása egy új architektúrára időt és szakértelmet igényel. És amint a szilíciumlapka legyártásra került, az architektúrája rögzített – a szoftverrel ellentétben nem lehet javítani egy chip alapvető kialakítását.

Ez az oka annak, hogy ez a stratégia csak hiperszkálánál van pénzügyi értelme. A több millió szervert üzemeltető vállalatok számára az induló tervezési költséget eltörpüli a hosszú távú működési megtakarítás. A kisebb szervezetek valószínűleg továbbra is Nvidia GPU-kat fognak használni, vagy felhőpéldányokat bérelnek, amelyek teljesen elvonatkoztatják a hardverréteget.

A nagyobb kép

Az egyedi AI szilíciumlapkák felemelkedése az AI-ipar érettségét jelzi. Amikor egy technológia új, a vállalatok bármilyen rendelkezésre álló hardvert használnak. Ahogy a munkaterhelések szabványosodnak és a mennyiségek nőnek, a specializáció gazdaságossága átveszi az irányítást – ugyanaz a minta, amely az ARM chipeket minden okostelefonba és az egyedi ASIC-eket a Bitcoin bányászatba hajtotta. Az AI most ezen a fordulóponton van. Az Nvidia nem tűnik el, de az AI-számítás feletti vitathatatlan monopóliumának korszaka véget ér, egyedi chipenként.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek