Technologie

Jak si velké technologické firmy vyrábějí vlastní AI čipy – a proč

Google, Amazon, Meta a Apple navrhují vlastní křemík pro napájení úloh umělé inteligence – snižují náklady, zvyšují výkon a snižují závislost na Nvidii. Zde je návod, jak fungují vlastní AI čipy a proč na nich záleží.

R
Redakcia
Share
Jak si velké technologické firmy vyrábějí vlastní AI čipy – a proč

Závod o čipy v pozadí boomu AI

Pokaždé, když se zeptáte AI chatbota na otázku, streamujete doporučení z Netflixu nebo odemknete telefon obličejem, specializovaný počítačový čip odvádí těžkou práci. Po léta tento čip téměř jistě pocházel od společnosti Nvidia. Ale něco se mění. Google, Amazon, Meta a Apple nyní navrhují vlastní křemík – a to přetváří celé odvětví AI.

Co je to vlastní AI čip?

Vlastní AI čip je integrovaný obvod pro specifické aplikace (ASIC) – hardware navržený tak, aby dělal jednu kategorii úkolů extrémně dobře, spíše než širokou škálu věcí adekvátně. Na rozdíl od univerzálního GPU, které bylo původně navrženo pro vykreslování grafiky videoher a později upraveno pro AI, je vlastní AI čip postaven od základů kolem matematiky, kterou strojové učení skutečně potřebuje: masivní násobení matic, aritmetika s nízkou přesností a rychlý pohyb dat mezi pamětí a výpočetními jednotkami.

Centrálním stavebním kamenem je často jednotka pro násobení matic (MXU) – vyhrazený obvod, který dokáže paralelně násobit obrovské mřížky čísel. Protože neuronové sítě jsou v podstatě řetězce násobení matic, čip s vysokým obsahem MXU dokáže zpracovávat úlohy AI mnohem efektivněji než GPU, které musí také podporovat složité grafické funkce, které v datovém centru nikdy nepoužije.

Kdo co staví

Google byl průkopníkem. Jeho Tensor Processing Unit (TPU), poprvé nasazená interně v roce 2015, nyní pohání Gemini, Vyhledávání Google a – zejména – modely Apple Intelligence trénované v cloudu Google. Nejnovější generace, Ironwood, dorazila koncem roku 2025. Amazon Web Services následovala se svou rodinou Trainium pro trénink a Inferentia pro inferenci; Trainium3 poskytuje až 4,4× více výpočetního výkonu než jeho předchůdce při spotřebě zhruba čtvrtiny energie. Meta představila v březnu 2026 čtyři generace svého Meta Training and Inference Accelerator (MTIA), navrženého na open-source architektuře RISC-V a vyrobeného společností TSMC, pokrývajícího vše od řazení kanálů až po generativní AI. Apple's Neural Engine, zabudovaný v každém čipu iPhone a Mac od roku 2017, zpracovává úlohy na zařízení, jako je rozpoznávání obličeje a zpracování hlasu, bez odesílání dat do cloudu.

Proč si prostě nekoupit více GPU Nvidia?

GPU Nvidia H100 a B200 zůstávají zlatým standardem pro špičkový výzkum AI a pro trénink největších hraničních modelů. Ale pro rutinní, nepřetržité úlohy, které tvoří většinu výdajů společnosti na AI – poskytování doporučení, spouštění inference na miliardách denních požadavků – mají univerzální GPU značnou režii. Spotřebovávají energii na funkce, které inference ve velkém měřítku nepotřebuje.

Vlastní čipy tuto režii eliminují. AWS odhaduje, že jeho instance Trainium poskytují o 30–40 % lepší poměr cena/výkon než ekvivalentní instance GPU Nvidia pro tréninkové úlohy. Meta říká, že její čipy MTIA překonávají Nvidia v určitých úlohách řazení a doporučování a zároveň stojí podstatně méně na operaci. V průběhu miliard denních požadavků se tyto zisky efektivity promítají do stovek milionů dolarů v ročních úsporách.

Existuje také strategický rozměr. Spoléhání se výhradně na jednoho dodavatele – i dominantního – vytváří riziko. Nedostatek dodávek, vývozní omezení a cenová síla se stávají zranitelnostmi. Výroba vlastního křemíku dává společnostem kontrolu nad jejich vlastní cestovní mapou AI.

Kompromisy

Vlastní čipy nejsou bez nevýhod. Návrh konkurenceschopného ASIC stojí desítky až stovky milionů dolarů na inženýrství a výrobu ještě před odesláním jediného čipu. Softwarový ekosystém kolem platformy CUDA společnosti Nvidia má dvě desetiletí dynamiky; přepisování nebo portování kódu pro spuštění na nové architektuře vyžaduje čas a odborné znalosti. A jakmile je křemík vyroben, jeho architektura je pevná – na rozdíl od softwaru nemůžete opravit základní design čipu.

Proto má tato strategie finanční smysl pouze v hyperscale. Pro společnosti provozující miliony serverů jsou počáteční náklady na návrh zastíněny dlouhodobými provozními úsporami. Menší organizace budou pravděpodobně i nadále používat GPU Nvidia nebo si pronajímat cloudové instance, které zcela abstrahují hardwarovou vrstvu.

Širší souvislosti

Vzestup vlastního křemíku AI signalizuje zrání odvětví AI. Když je technologie nová, společnosti používají jakýkoli dostupný hardware. Jak se úlohy standardizují a objemy rostou, přebírá ekonomika specializace – stejný vzorec, který vhnal čipy ARM do každého smartphonu a vlastní ASIC do těžby bitcoinů. AI je nyní v tomto bodě zlomu. Nvidia nikam neodchází, ale éra jejího nezpochybnitelného monopolu nad výpočetním výkonem AI končí, jeden vlastní čip po druhém.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články