Technologia

Jak Big Tech buduje własne chipy AI – i dlaczego

Google, Amazon, Meta i Apple projektują własne układy scalone do obsługi obciążeń AI – obniżając koszty, zwiększając wydajność i zmniejszając zależność od Nvidii. Oto jak działają niestandardowe chipy AI i dlaczego mają znaczenie.

R
Redakcia
Share
Jak Big Tech buduje własne chipy AI – i dlaczego

Wyścig o chipy w tle boomu na AI

Za każdym razem, gdy zadajesz chatbotowi AI pytanie, przesyłasz strumieniowo rekomendację z Netflixa lub odblokowujesz telefon twarzą, specjalistyczny chip komputerowy wykonuje ciężką pracę. Przez lata ten chip niemal na pewno pochodził od Nvidii. Ale coś się zmienia. Google, Amazon, Meta i Apple projektują teraz własne układy scalone – i to zmienia cały przemysł AI.

Czym jest niestandardowy chip AI?

Niestandardowy chip AI to układ scalony dedykowany do konkretnych zastosowań (ASIC) – sprzęt zaprojektowany do wyjątkowo dobrego wykonywania jednej kategorii zadań, a nie szerokiego zakresu rzeczy w sposób zadowalający. W przeciwieństwie do uniwersalnego procesora graficznego (GPU), który pierwotnie został zaprojektowany do renderowania grafiki gier wideo, a później przystosowany do AI, niestandardowy chip AI jest budowany od podstaw wokół matematyki, której faktycznie potrzebuje uczenie maszynowe: masywnych mnożeń macierzy, arytmetyki niskiej precyzji i szybkiego przesyłania danych między pamięcią a jednostkami obliczeniowymi.

Centralnym elementem jest często jednostka mnożenia macierzy (MXU) – dedykowany obwód, który może równolegle mnożyć ogromne siatki liczb. Ponieważ sieci neuronowe są zasadniczo łańcuchami mnożeń macierzy, chip z dużą liczbą MXU może przetwarzać obciążenia AI znacznie wydajniej niż GPU, które musi również obsługiwać złożone funkcje graficzne, których nigdy nie użyje w centrum danych.

Kto co buduje

Google był pionierem. Jego Tensor Processing Unit (TPU), po raz pierwszy wdrożony wewnętrznie w 2015 roku, zasila teraz Gemini, Wyszukiwarkę Google i – co ważne – modele Apple Intelligence trenowane w chmurze Google. Najnowsza generacja, Ironwood, pojawiła się pod koniec 2025 roku. Amazon Web Services poszedł w jego ślady z rodziną Trainium do trenowania i Inferentia do wnioskowania; Trainium3 zapewnia do 4,4× więcej mocy obliczeniowej niż jego poprzednik, zużywając przy tym około jednej czwartej energii. Meta zaprezentowała w marcu 2026 roku cztery generacje swojego Meta Training and Inference Accelerator (MTIA), zaprojektowanego na architekturze open-source RISC-V i wyprodukowanego przez TSMC, obejmującego wszystko, od rankingu treści po generatywną AI. Apple's Neural Engine, wbudowany w każdy chip iPhone'a i Maca od 2017 roku, obsługuje zadania na urządzeniu, takie jak rozpoznawanie twarzy i przetwarzanie głosu, bez wysyłania danych do chmury.

Dlaczego po prostu nie kupić więcej GPU Nvidii?

GPU Nvidia H100 i B200 pozostają złotym standardem dla najnowocześniejszych badań nad AI i trenowania największych modeli. Ale w przypadku rutynowych, ciągłych obciążeń, które stanowią większość wydatków firmy na AI – serwowania rekomendacji, uruchamiania wnioskowania na miliardach codziennych zapytań – uniwersalne GPU wiążą się ze znacznymi kosztami ogólnymi. Marnują energię na funkcje, których wnioskowanie na dużą skalę nie potrzebuje.

Niestandardowe chipy eliminują te koszty ogólne. AWS szacuje, że jego instancje Trainium zapewniają o 30–40% lepszy stosunek ceny do wydajności niż równoważne instancje GPU Nvidia dla obciążeń treningowych. Meta twierdzi, że jej chipy MTIA biją Nvidię w niektórych zadaniach rankingowych i rekomendacyjnych, jednocześnie kosztując znacznie mniej na operację. W przypadku miliardów codziennych zapytań te zyski w wydajności przekładają się na setki milionów dolarów rocznych oszczędności.

Istnieje również wymiar strategiczny. Poleganie wyłącznie na jednym dostawcy – nawet dominującym – stwarza ryzyko. Niedobory podaży, ograniczenia eksportowe i siła cenowa stają się słabymi punktami. Budowanie własnych układów scalonych daje firmom kontrolę nad własnym planem rozwoju AI.

Kompromisy

Niestandardowe chipy nie są pozbawione wad. Zaprojektowanie konkurencyjnego układu ASIC kosztuje dziesiątki do setek milionów dolarów na inżynierię i produkcję, zanim zostanie wysłany jakikolwiek chip. Ekosystem oprogramowania wokół platformy CUDA firmy Nvidia ma dwie dekady impetu; przepisanie lub przeniesienie kodu do uruchomienia na nowej architekturze wymaga czasu i wiedzy. A gdy układ scalony zostanie wyprodukowany, jego architektura jest ustalona – w przeciwieństwie do oprogramowania, nie można załatać podstawowej konstrukcji chipu.

Dlatego ta strategia ma sens finansowy tylko w hiperskali. Dla firm obsługujących miliony serwerów koszt początkowy projektu jest przyćmiony przez długoterminowe oszczędności operacyjne. Mniejsze organizacje prawdopodobnie będą nadal korzystać z GPU Nvidia lub wynajmować instancje w chmurze, które całkowicie abstrahują od warstwy sprzętowej.

Szerszy obraz

Rozwój niestandardowych układów scalonych AI sygnalizuje dojrzewanie branży AI. Kiedy technologia jest nowa, firmy używają dowolnego dostępnego sprzętu. Wraz ze standaryzacją obciążeń i wzrostem wolumenów, ekonomia specjalizacji przejmuje kontrolę – ten sam wzorzec, który wprowadził chipy ARM do każdego smartfona i niestandardowe układy ASIC do wydobywania Bitcoinów. AI jest teraz w tym punkcie zwrotnym. Nvidia nie zniknie, ale era jej niekwestionowanego monopolu na obliczenia AI dobiega końca, jeden niestandardowy chip na raz.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły