Technológia

Hogyan működnek az egyedi AI chipek – és miért építik őket a nagy techcégek?

Az olyan techóriások, mint a Google, az Amazon és a Meta saját egyedi AI chipeket, úgynevezett ASIC-eket terveznek, hogy csökkentsék az Nvidia GPU-któl való függőséget, csökkentsék a költségeket és optimalizálják a teljesítményt a specifikus AI munkaterhelésekhez.

R
Redakcia
4 perc olvasás
Megosztás
Hogyan működnek az egyedi AI chipek – és miért építik őket a nagy techcégek?

Miért hagyták abba a nagy techcégek a polcról való vásárlást?

Évekig az Nvidia GPU-i hajtottak szinte minden mesterséges intelligencia munkaterhelést a bolygón. De egy csendes forradalom van kibontakozóban: a világ legnagyobb technológiai vállalatai saját egyedi szilíciumot terveznek. A Google, az Amazon, a Meta és a Microsoft mind milliárdokat fektettek alkalmazásspecifikus integrált áramkörökbe (ASIC-ekbe) – olyan chipekbe, amelyeket kifejezetten az AI-hoz terveztek, nem pedig a játékvilágból kölcsönöztek.

A motiváció egyértelmű. Az általános célú GPU-k sokoldalúak, de ez a sokoldalúság árat követel: pazarló tranzisztorok, túlzott energiafogyasztás és egyetlen domináns szállító által meghatározott magas árcédula. Az egyedi chipek mindhárom változót egyszerre ígérik megváltoztatni.

Mi az az ASIC?

Az ASIC egy olyan chip, amelyet az alapoktól kezdve egyetlen konkrét feladatra terveztek. A GPU-val ellentétben, amely több ezer különböző algoritmust képes futtatni, az ASIC bizonyos matematikai műveleteket – például a neurális hálózatok központi elemét képező mátrixszorzásokat – közvetlenül a saját áramköreibe „égeti bele”. Az eredmény egy olyan processzor, amely gyorsabban és kevesebb energiával hajtja végre a cél munkaterhelését, mint egy általános célú alternatíva.

A Georgetown Egyetem Biztonsági és Feltörekvő Technológiai Központja szerint az AI chipek három nagy kategóriába sorolhatók: GPU-k a rugalmas betanításhoz, FPGA-k az újrakonfigurálható következtetéshez és ASIC-ek a nagymértékben optimalizált, fix funkciós gyorsításhoz. Mindegyik más-más rést tölt be, de az ASIC-ek a legjobb teljesítmény/watt arányt nyújtják, ha a munkaterhelések kiszámíthatóak és nagy volumenűek.

Hogyan működik a tervezési folyamat?

Egy egyedi AI chip építése nem gyors és nem is olcsó. Egyetlen ASIC terv több százmillió dollárba kerülhet, és a koncepciótól a gyártásig két-három évig is eltarthat. A vállalatok jellemzően szakosodott tervezőcégekkel – a Broadcom és a Marvell a két domináns szereplő – működnek együtt, amelyek szellemi tulajdon blokkokat, összekapcsolási technológiát és mélyreható szakértelmet biztosítanak a chip architektúrájában.

A terv véglegesítése után egy olyan öntödébe kerül, mint a TSMC a gyártáshoz. Mivel az áramkörök véglegesen a szilíciumba vannak maratva, nincs helye a hibának: ha az AI modellek alapvetően eltérő matematikai műveletekre váltanak, egy egyedi chip elavulttá válhat. Ez a rugalmatlanság az ASIC megközelítés központi kompromisszuma.

Ki mit épít?

A Google úttörő szerepet játszott a trendben. 2013-ban a mérnökök kiszámították, hogy a hangalapú keresés 300 millió felhasználó számára történő bevezetése megduplázná a vállalat teljes adatközponti kapacitását, ha kizárólag hagyományos processzorokra támaszkodna. Az első Tensor Processing Unit (TPU) mindössze 15 hónappal később került gyártásba a CNBC szerint. A Google TPU-i azóta elérték a hatodik generációt, a Trilliumot, és a felhőszerverek egyedi AI chip piacának több mint 70 százalékát uralják.

Az Amazon 2015-ben, az izraeli Annapurna Labs chip startup felvásárlása után lépett be a versenybe. A Trainium chipjei, amelyek már a második generációban vannak, a nyers lebegőpontos átviteli sebesség helyett a memória sávszélességét és az összekapcsolási hatékonyságot helyezik előtérbe – olyan építészeti választások, amelyek a modern AI-t uraló nagyméretű nyelvi modell munkaterhelésekhez vannak hangolva, írja a WebProNews. A Meta eközben kifejlesztette saját ASIC-jét, a Meta Training and Inference Accelerator (MTIA)-t, amelyet a hirdetési üzletágát hajtó ajánló- és rangsorolási modellekhez optimalizáltak.

A GPU-k még nem tűnnek el – egyelőre

Az egyedi ASIC-ek kiválóan teljesítenek a következtetésben – egy betanított modell futtatásában előrejelzések generálására –, ahol a munkaterhelések kiszámíthatóak és a volumen hatalmas. Az új modellek betanítása, különösen az élvonalbeli rendszerek esetében, továbbra is megköveteli a GPU-k rugalmasságát és az Nvidia kiforrott CUDA szoftver ökoszisztémáját.

A Counterpoint Research iparági adatai szerint az egyedi ASIC szállítmányok 2026-ban 44,6 százalékkal nőnek, míg a GPU szállítmányok 16,1 százalékkal – ez a különbség jól mutatja, hogy merre tart a lendület. Az elemzők arra számítanak, hogy az ASIC-ek 2027-re megháromszorozzák a teljes szállítmányukat.

Miért fontos ez?

Az egyedi szilícium felé történő elmozdulás átalakítja a mesterséges intelligencia gazdaságosságát. Azok a vállalatok, amelyek ellenőrzik saját chipellátásukat, csökkenthetik a költségeket, javíthatják az energiahatékonyságot és csökkenthetik a függőséget egyetlen szállítótól. A fogyasztók számára ez gyorsabb AI szolgáltatásokat és potenciálisan alacsonyabb árakat jelent. Az Nvidia számára ez azt jelenti, hogy a legjövedelmezőbb ügyfelek egyben versenytársakká is válnak – ez a feszültség fogja meghatározni a félvezetőipart az elkövetkező években.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek