Wie maßgeschneiderte KI-Chips funktionieren – und warum Big Tech sie baut
Tech-Giganten wie Google, Amazon und Meta entwickeln ihre eigenen, maßgeschneiderten KI-Chips, sogenannte ASICs, um die Abhängigkeit von Nvidia-GPUs zu verringern, Kosten zu senken und die Leistung für spezifische KI-Workloads zu optimieren.
Warum Big Tech nicht mehr von der Stange kauft
Jahrelang haben Nvidias GPUs praktisch jeden Artificial-Intelligence-Workload auf dem Planeten befeuert. Aber eine stille Revolution ist im Gange: Die größten Technologieunternehmen der Welt entwerfen ihre eigenen, maßgeschneiderten Siliziumchips. Google, Amazon, Meta und Microsoft haben alle Milliarden in anwendungsspezifische integrierte Schaltungen (ASICs) investiert – Chips, die speziell für KI entwickelt wurden und nicht aus der Gaming-Welt stammen.
Die Motivation ist einfach. Universal-GPUs sind vielseitig, aber diese Vielseitigkeit hat ihren Preis: verschwendete Transistoren, übermäßiger Stromverbrauch und ein hoher Preis, der von einem einzigen dominanten Anbieter festgelegt wird. Kundenspezifische Chips versprechen, alle drei Variablen auf einmal zu ändern.
Was ist ein ASIC?
Ein ASIC ist ein Chip, der von Grund auf für eine bestimmte Aufgabe entwickelt wurde. Im Gegensatz zu einer GPU, die Tausende verschiedener Algorithmen ausführen kann, verdrahtet ein ASIC bestimmte mathematische Operationen – wie z. B. Matrixmultiplikationen, die für neuronale Netze von zentraler Bedeutung sind – direkt in seine Schaltung. Das Ergebnis ist ein Prozessor, der seinen Ziel-Workload schneller und mit weniger Energie ausführt als eine Universal-Alternative.
Laut dem Center for Security and Emerging Technology der Georgetown University lassen sich KI-Chips in drei große Kategorien einteilen: GPUs für flexibles Training, FPGAs für rekonfigurierbare Inferenz und ASICs für hochoptimierte, festfunktionsbeschleunigte Anwendungen. Jede füllt eine andere Nische, aber ASICs liefern das beste Performance-pro-Watt-Verhältnis, wenn Workloads vorhersehbar und in hohem Volumen vorhanden sind.
Wie der Designprozess funktioniert
Der Bau eines kundenspezifischen KI-Chips ist weder schnell noch billig. Ein einzelnes ASIC-Design kann Hunderte Millionen Dollar kosten und vom Konzept bis zur Produktion zwei bis drei Jahre dauern. Unternehmen arbeiten in der Regel mit spezialisierten Designfirmen zusammen – Broadcom und Marvell sind die beiden dominanten Akteure –, die Intellectual-Property-Blöcke, Verbindungstechnologie und fundiertes Fachwissen in der Chiparchitektur bereitstellen.
Sobald ein Design fertiggestellt ist, geht es zur Fertigung an eine Foundry wie TSMC. Da die Schaltung dauerhaft in Silizium geätzt ist, gibt es keinen Raum für Fehler: Wenn sich KI-Modelle zu grundlegend anderen mathematischen Operationen verschieben, kann ein kundenspezifischer Chip obsolet werden. Diese Inflexibilität ist der zentrale Kompromiss des ASIC-Ansatzes.
Wer was baut
Google war Vorreiter dieses Trends. Im Jahr 2013 berechneten Ingenieure, dass die Einführung der Sprachsuche für 300 Millionen Nutzer die Verdoppelung der gesamten Rechenzentrumskapazität des Unternehmens erfordern würde, wenn es sich ausschließlich auf konventionelle Prozessoren verlassen würde. Die erste Tensor Processing Unit (TPU) ging nur 15 Monate später in Produktion, so CNBC. Die TPUs von Google haben inzwischen ihre sechste Generation, Trillium, erreicht und dominieren mehr als 70 Prozent des Marktes für kundenspezifische KI-Chips für Cloud-Server.
Amazon stieg in das Rennen ein, nachdem es 2015 das israelische Chip-Startup Annapurna Labs übernommen hatte. Seine Trainium-Chips, die sich jetzt in der zweiten Generation befinden, priorisieren die Speicherbandbreite und die Verbindungseffizienz gegenüber dem reinen Gleitkomma-Durchsatz – architektonische Entscheidungen, die auf die Large-Language-Model-Workloads abgestimmt sind, die die moderne KI dominieren, wie WebProNews berichtet. Meta hat unterdessen seinen eigenen ASIC namens Meta Training and Inference Accelerator (MTIA) entwickelt, der für Empfehlungs- und Ranking-Modelle optimiert ist, die sein Werbegeschäft antreiben.
GPUs sind noch lange nicht weg
Kundenspezifische ASICs zeichnen sich durch Inferenz aus – die Ausführung eines trainierten Modells zur Generierung von Vorhersagen –, wo Workloads vorhersehbar sind und das Volumen enorm ist. Aber das Training neuer Modelle, insbesondere hochmoderner Frontier-Systeme, erfordert immer noch die Flexibilität von GPUs und Nvidias ausgereiftem CUDA-Software-Ökosystem.
Branchenzahlen von Counterpoint Research prognostizieren, dass die Auslieferungen von kundenspezifischen ASICs im Jahr 2026 um 44,6 Prozent steigen werden, während die Auslieferungen von GPUs um 16,1 Prozent steigen werden – eine Kluft, die veranschaulicht, wohin die Dynamik geht. Analysten erwarten, dass ASICs ihre Gesamtauslieferungen bis 2027 verdreifachen werden.
Warum es wichtig ist
Die Verlagerung hin zu kundenspezifischem Silizium verändert die Wirtschaftlichkeit der künstlichen Intelligenz. Unternehmen, die ihre eigene Chipversorgung kontrollieren, können Kosten senken, die Energieeffizienz verbessern und die Abhängigkeit von einem einzigen Anbieter verringern. Für die Verbraucher bedeutet das schnellere KI-Dienste und möglicherweise niedrigere Preise. Für Nvidia bedeutet es, dass die lukrativsten Kunden auch zu Konkurrenten werden – eine Spannung, die die Halbleiterindustrie in den kommenden Jahren prägen wird.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook