Ako si technologickí giganti vyrábajú vlastné AI čipy – a prečo
Google, Amazon, Meta a Apple navrhujú vlastné kremíkové čipy na spracovanie úloh umelej inteligencie – znižujú náklady, zvyšujú výkon a znižujú závislosť od spoločnosti Nvidia. Pozrite sa, ako fungujú vlastné AI čipy a prečo sú dôležité.
Preteky o čipy v pozadí AI boomu
Zakaždým, keď sa opýtate AI chatbota otázku, streamujete odporúčanie z Netflixu alebo odomknete telefón pomocou tváre, ťažkú prácu vykonáva špecializovaný počítačový čip. Počas rokov tento čip takmer s istotou pochádzal od spoločnosti Nvidia. Ale niečo sa mení. Google, Amazon, Meta a Apple teraz navrhujú vlastné kremíkové čipy – a to pretvára celé odvetvie AI.
Čo je to vlastný AI čip?
Vlastný AI čip je aplikačne špecifický integrovaný obvod (ASIC) – hardvér navrhnutý tak, aby mimoriadne dobre zvládal jednu kategóriu úloh, a nie širokú škálu vecí primerane. Na rozdiel od univerzálneho GPU, ktoré bolo pôvodne navrhnuté na vykresľovanie grafiky videohier a neskôr prepracované pre AI, vlastný AI čip je postavený od základov okolo matematiky, ktorú strojové učenie skutočne potrebuje: rozsiahle násobenie matíc, aritmetika s nízkou presnosťou a rýchly presun dát medzi pamäťou a výpočtovými jednotkami.
Centrálnym stavebným kameňom je často jednotka na násobenie matíc (MXU) – vyhradený obvod, ktorý dokáže paralelne násobiť obrovské mriežky čísel. Pretože neurónové siete sú v podstate reťazce násobení matíc, čip s vysokým obsahom MXU dokáže spracovávať úlohy AI oveľa efektívnejšie ako GPU, ktoré musí podporovať aj komplexné grafické funkcie, ktoré nikdy nepoužije v dátovom centre.
Kto čo stavia
Google bol priekopníkom. Jeho Tensor Processing Unit (TPU), prvýkrát nasadený interne v roku 2015, teraz poháňa Gemini, Google Search a – najmä – modely Apple Intelligence trénované v cloude spoločnosti Google. Najnovšia generácia, Ironwood, prišla koncom roka 2025. Amazon Web Services nasledoval s rodinou Trainium na trénovanie a Inferentia na inferenciu; Trainium3 poskytuje až 4,4-násobne viac výpočtového výkonu ako jeho predchodca pri spotrebe približne štvrtiny energie. Meta predstavila v marci 2026 štyri generácie svojho Meta Training and Inference Accelerator (MTIA), navrhnutého na architektúre RISC-V s otvoreným zdrojovým kódom a vyrobeného spoločnosťou TSMC, ktorý pokrýva všetko od hodnotenia informačných kanálov až po generatívnu AI. Neural Engine spoločnosti Apple, zabudovaný v každom čipe iPhone a Mac od roku 2017, spracováva úlohy na zariadení, ako je rozpoznávanie tváre a spracovanie hlasu, bez odosielania údajov do cloudu.
Prečo si jednoducho nekúpiť viac Nvidia GPU?
GPU Nvidia H100 a B200 zostávajú zlatým štandardom pre špičkový výskum AI a pre trénovanie najväčších hraničných modelov. Ale pre bežné, nepretržité úlohy, ktoré predstavujú väčšinu výdavkov spoločnosti na AI – poskytovanie odporúčaní, spúšťanie inferencie na miliardách denných požiadaviek – majú univerzálne GPU značnú réžiu. Spotrebúvajú energiu na funkcie, ktoré rozsiahla inferencia nepotrebuje.
Vlastné čipy eliminujú túto réžiu. AWS odhaduje, že jeho inštancie Trainium poskytujú o 30 – 40 % lepší pomer ceny a výkonu ako ekvivalentné inštancie Nvidia GPU pre tréningové úlohy. Meta tvrdí, že jej čipy MTIA prekonávajú Nvidia v určitých úlohách hodnotenia a odporúčaní a zároveň stoja podstatne menej na operáciu. Pri miliardách denných požiadaviek sa tieto zisky efektívnosti premietajú do stoviek miliónov dolárov ročných úspor.
Existuje aj strategický rozmer. Spoliehanie sa výlučne na jedného dodávateľa – dokonca aj na dominantného – vytvára riziko. Nedostatok dodávok, obmedzenia vývozu a cenová sila sa stávajú zraniteľnými miestami. Budovanie vlastného kremíka dáva spoločnostiam kontrolu nad ich vlastným plánom AI.
Kompromisy
Vlastné čipy nie sú bez nevýhod. Návrh konkurencieschopného ASIC stojí desiatky až stovky miliónov dolárov na inžinierstvo a výrobu predtým, ako sa dodá jediný čip. Softvérový ekosystém okolo platformy CUDA spoločnosti Nvidia má dve desaťročia dynamiky; prepísanie alebo prenesenie kódu na spustenie na novej architektúre si vyžaduje čas a odborné znalosti. A akonáhle je kremík vyrobený, jeho architektúra je pevná – na rozdiel od softvéru, nemôžete opraviť základný dizajn čipu.
Preto má táto stratégia finančný zmysel iba v hyperscale. Pre spoločnosti, ktoré prevádzkujú milióny serverov, sú počiatočné náklady na návrh zatienené dlhodobými prevádzkovými úsporami. Menšie organizácie budú pravdepodobne naďalej používať GPU Nvidia alebo si prenajímať cloudové inštancie, ktoré úplne abstrahujú hardvérovú vrstvu.
Širší obraz
Nárast vlastného AI kremíka signalizuje dozrievanie odvetvia AI. Keď je technológia nová, spoločnosti používajú akýkoľvek dostupný hardvér. Ako sa pracovné zaťaženia štandardizujú a objemy rastú, preberá ekonomika špecializácie – rovnaký vzor, ktorý viedol k ARM čipom do každého smartfónu a vlastným ASIC do ťažby bitcoinov. AI je teraz v tomto bode zlomu. Nvidia neodchádza, ale éra jej nespochybniteľného monopolu nad výpočtovou technikou AI sa končí, jeden vlastný čip za druhým.