Technologia

Jak działają niestandardowe chipy AI – i dlaczego budują je giganci technologiczni

Giganci technologiczni, tacy jak Google, Amazon i Meta, projektują własne, niestandardowe chipy AI zwane ASIC, aby zmniejszyć zależność od procesorów graficznych Nvidia, obniżyć koszty i zoptymalizować wydajność dla konkretnych zadań związanych ze sztuczną inteligencją.

R
Redakcia
4 min czytania
Udostępnij
Jak działają niestandardowe chipy AI – i dlaczego budują je giganci technologiczni

Dlaczego Big Tech przestał kupować gotowe rozwiązania

Przez lata procesory graficzne Nvidii zasilały praktycznie każde zadanie związane ze sztuczną inteligencją na świecie. Ale po cichu zachodzi rewolucja: największe firmy technologiczne na świecie projektują własne, niestandardowe układy krzemowe. Google, Amazon, Meta i Microsoft zainwestowały miliardy w układy scalone o specyficznym zastosowaniu (ASIC) – chipy zaprojektowane specjalnie dla sztucznej inteligencji, a nie zapożyczone ze świata gier.

Motywacja jest prosta. Uniwersalne procesory graficzne są wszechstronne, ale ta wszechstronność ma swoją cenę: marnowane tranzystory, nadmierny pobór mocy i wysoka cena ustalana przez jednego dominującego dostawcę. Niestandardowe chipy obiecują zmienić wszystkie trzy zmienne naraz.

Czym jest ASIC?

ASIC to chip zaprojektowany od podstaw do jednego konkretnego zadania. W przeciwieństwie do procesora graficznego, który może uruchamiać tysiące różnych algorytmów, ASIC na stałe wpisuje określone operacje matematyczne – takie jak mnożenie macierzy, które ma kluczowe znaczenie dla sieci neuronowych – bezpośrednio w swoje obwody. Rezultatem jest procesor, który wykonuje docelowe zadanie szybciej i przy mniejszym zużyciu energii niż uniwersalna alternatywa.

Według Centrum Bezpieczeństwa i Nowych Technologii Uniwersytetu Georgetown, chipy AI dzielą się na trzy szerokie kategorie: procesory graficzne do elastycznego uczenia, układy FPGA do rekonfigurowalnej inferencji i układy ASIC do wysoce zoptymalizowanej akceleracji o stałej funkcji. Każdy z nich wypełnia inną niszę, ale układy ASIC zapewniają najlepszą wydajność na wat, gdy obciążenia są przewidywalne i duże.

Jak przebiega proces projektowania

Budowa niestandardowego chipu AI nie jest ani szybka, ani tania. Pojedynczy projekt ASIC może kosztować setki milionów dolarów i trwać od dwóch do trzech lat od koncepcji do produkcji. Firmy zazwyczaj współpracują ze specjalistycznymi firmami projektowymi – Broadcom i Marvell to dwaj dominujący gracze – które zapewniają bloki własności intelektualnej, technologię połączeń i dogłębną wiedzę specjalistyczną w zakresie architektury chipów.

Po sfinalizowaniu projektu trafia on do odlewni, takiej jak TSMC, w celu wytworzenia. Ponieważ obwody są trwale wytrawione w krzemie, nie ma miejsca na błędy: jeśli modele AI przejdą na zasadniczo różne operacje matematyczne, niestandardowy chip może stać się przestarzały. Ta nieelastyczność jest głównym kompromisem podejścia ASIC.

Kto co buduje

Google zapoczątkował ten trend. W 2013 roku inżynierowie obliczyli, że wdrożenie wyszukiwania głosowego dla 300 milionów użytkowników wymagałoby podwojenia całej mocy obliczeniowej firmy, gdyby polegała wyłącznie na konwencjonalnych procesorach. Pierwsza jednostka przetwarzania tensorów (TPU) weszła do produkcji zaledwie 15 miesięcy później, według CNBC. Układy TPU firmy Google osiągnęły od tego czasu swoją szóstą generację, Trillium, i dominują na ponad 70 procentach rynku niestandardowych chipów AI dla serwerów chmurowych.

Amazon wszedł do wyścigu po przejęciu izraelskiego startupu chipowego Annapurna Labs w 2015 roku. Jego chipy Trainium, obecnie w drugiej generacji, priorytetowo traktują przepustowość pamięci i wydajność połączeń nad surową przepustowość zmiennoprzecinkową – wybory architektoniczne dostosowane do obciążeń dużych modeli językowych, które dominują we współczesnej sztucznej inteligencji, donosi WebProNews. Meta natomiast opracowała własny układ ASIC o nazwie Meta Training and Inference Accelerator (MTIA), zoptymalizowany pod kątem modeli rekomendacji i rankingu, które napędzają jej działalność reklamową.

Procesory graficzne nigdzie się nie wybierają – jeszcze

Niestandardowe układy ASIC doskonale sprawdzają się w inferencji – uruchamianiu wytrenowanego modelu w celu generowania prognoz – gdzie obciążenia są przewidywalne, a wolumen jest ogromny. Ale uczenie nowych modeli, zwłaszcza najnowocześniejszych systemów, nadal wymaga elastyczności procesorów graficznych i dojrzałego ekosystemu oprogramowania CUDA firmy Nvidia.

Dane branżowe z Counterpoint Research przewidują, że dostawy niestandardowych układów ASIC wzrosną o 44,6 procent w 2026 roku, podczas gdy dostawy procesorów graficznych wzrosną o 16,1 procent – różnica, która ilustruje, dokąd zmierza impet. Analitycy spodziewają się, że do 2027 roku układy ASIC potroją swoje całkowite dostawy.

Dlaczego to ma znaczenie

Przejście na niestandardowe układy krzemowe zmienia ekonomię sztucznej inteligencji. Firmy, które kontrolują własne dostawy chipów, mogą obniżyć koszty, poprawić efektywność energetyczną i zmniejszyć zależność od jednego dostawcy. Dla konsumentów przekłada się to na szybsze usługi AI i potencjalnie niższe ceny. Dla Nvidii oznacza to, że najbardziej dochodowi klienci stają się również konkurentami – napięcie, które zdefiniuje przemysł półprzewodników na wiele lat.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły