Technologie

Wie Big Tech eigene KI-Chips entwickelt – und warum

Google, Amazon, Meta und Apple entwerfen ihre eigenen Siliziumchips, um KI-Workloads zu bewältigen – das senkt Kosten, steigert die Leistung und reduziert die Abhängigkeit von Nvidia. So funktionieren kundenspezifische KI-Chips und deshalb sind sie wichtig.

R
Redakcia
Share
Wie Big Tech eigene KI-Chips entwickelt – und warum

Das Chip-Rennen hinter dem KI-Boom

Jedes Mal, wenn Sie einem KI-Chatbot eine Frage stellen, eine Empfehlung von Netflix streamen oder Ihr Telefon mit Ihrem Gesicht entsperren, leistet ein spezialisierter Computerchip die Schwerstarbeit. Jahrelang kam dieser Chip mit ziemlicher Sicherheit von Nvidia. Aber etwas ändert sich. Google, Amazon, Meta und Apple entwerfen jetzt ihre eigenen Siliziumchips – und das verändert die gesamte KI-Branche.

Was ist ein kundenspezifischer KI-Chip?

Ein kundenspezifischer KI-Chip ist ein anwendungsspezifischer integrierter Schaltkreis (ASIC) – Hardware, die entwickelt wurde, um eine bestimmte Aufgabenkategorie extrem gut zu erledigen, anstatt eine breite Palette von Dingen nur ausreichend. Im Gegensatz zu einer Allzweck-GPU, die ursprünglich für das Rendern von Videospielgrafiken entwickelt und später für KI umfunktioniert wurde, ist ein kundenspezifischer KI-Chip von Grund auf um die Mathematik herum aufgebaut, die maschinelles Lernen tatsächlich benötigt: massive Matrixmultiplikationen, Arithmetik mit geringer Präzision und schnelle Datenbewegung zwischen Speicher und Recheneinheiten.

Der zentrale Baustein ist oft eine Matrix Multiply Unit (MXU) – eine dedizierte Schaltung, die riesige Zahlengitter parallel multiplizieren kann. Da neuronale Netze im Wesentlichen Ketten von Matrixmultiplikationen sind, kann ein MXU-lastiger Chip KI-Workloads weitaus effizienter verarbeiten als eine GPU, die auch komplexe Grafikfunktionen unterstützen muss, die sie in einem Rechenzentrum nie verwenden wird.

Wer baut was?

Google war der Pionier. Seine Tensor Processing Unit (TPU), die erstmals 2015 intern eingesetzt wurde, treibt heute Gemini, Google Search und – bemerkenswerterweise – Apple Intelligence-Modelle an, die in der Google-Cloud trainiert wurden. Die neueste Generation, Ironwood, kam Ende 2025 auf den Markt. Amazon Web Services folgte mit seiner Trainium-Familie für das Training und Inferentia für die Inferenz; Trainium3 liefert bis zu 4,4× mehr Rechenleistung als sein Vorgänger und verbraucht dabei etwa ein Viertel der Energie. Meta stellte im März 2026 vier Generationen seines Meta Training and Inference Accelerator (MTIA) vor, der auf der Open-Source-RISC-V-Architektur basiert und von TSMC gefertigt wird und alles von der Feed-Rangfolge bis zur generativen KI abdeckt. Die Apple Neural Engine, die seit 2017 in jeden iPhone- und Mac-Chip eingebettet ist, verarbeitet Aufgaben auf dem Gerät wie Gesichtserkennung und Sprachverarbeitung, ohne Daten an die Cloud zu senden.

Warum nicht einfach mehr Nvidia-GPUs kaufen?

Die H100- und B200-GPUs von Nvidia sind nach wie vor der Goldstandard für die hochmoderne KI-Forschung und für das Training der größten Frontier-Modelle. Aber für die routinemäßigen, kontinuierlichen Workloads, die den größten Teil der KI-Ausgaben eines Unternehmens ausmachen – das Bereitstellen von Empfehlungen, das Ausführen von Inferenz bei Milliarden von täglichen Anfragen – verursachen Allzweck-GPUs erhebliche Gemeinkosten. Sie verbrauchen Energie für Funktionen, die groß angelegte Inferenz nicht benötigt.

Kundenspezifische Chips eliminieren diese Gemeinkosten. AWS schätzt, dass seine Trainium-Instanzen eine 30–40 % bessere Preis-Leistungs-Verhältnis bieten als vergleichbare Nvidia-GPU-Instanzen für Trainings-Workloads. Meta sagt, dass seine MTIA-Chips Nvidia bei bestimmten Ranking- und Empfehlungsaufgaben schlagen und gleichzeitig deutlich weniger pro Operation kosten. Bei Milliarden von täglichen Anfragen führen diese Effizienzsteigerungen zu Hunderten von Millionen Dollar an jährlichen Einsparungen.

Es gibt auch eine strategische Dimension. Sich vollständig auf einen einzigen Lieferanten zu verlassen – selbst einen dominanten – birgt Risiken. Lieferengpässe, Exportbeschränkungen und Preissetzungsmacht werden zu Schwachstellen. Der Bau von proprietärem Silizium gibt Unternehmen die Kontrolle über ihre eigene KI-Roadmap.

Die Kompromisse

Kundenspezifische Chips sind nicht ohne Nachteile. Der Entwurf eines wettbewerbsfähigen ASIC kostet zig bis hunderte Millionen Dollar an Entwicklung und Fertigung, bevor ein einziger Chip ausgeliefert wird. Das Software-Ökosystem rund um die CUDA-Plattform von Nvidia hat zwei Jahrzehnte an Dynamik; das Umschreiben oder Portieren von Code zur Ausführung auf einer neuen Architektur erfordert Zeit und Fachwissen. Und sobald das Silizium hergestellt ist, ist seine Architektur festgelegt – im Gegensatz zu Software kann man das grundlegende Design eines Chips nicht patchen.

Deshalb ist die Strategie nur im Hyperscale-Bereich finanziell sinnvoll. Für Unternehmen, die Millionen von Servern betreiben, werden die Vorab-Entwicklungskosten durch langfristige betriebliche Einsparungen in den Schatten gestellt. Kleinere Unternehmen werden wahrscheinlich weiterhin Nvidia-GPUs verwenden oder Cloud-Instanzen mieten, die die Hardware-Schicht vollständig abstrahieren.

Das größere Bild

Der Aufstieg von kundenspezifischem KI-Silizium signalisiert eine Reifung der KI-Branche. Wenn eine Technologie neu ist, verwenden Unternehmen die verfügbare Hardware. Wenn sich Workloads standardisieren und die Volumina wachsen, übernehmen die wirtschaftlichen Vorteile der Spezialisierung – das gleiche Muster, das ARM-Chips in jedes Smartphone und kundenspezifische ASICs in das Bitcoin-Mining getrieben hat. Die KI befindet sich jetzt an diesem Wendepunkt. Nvidia wird nicht verschwinden, aber die Ära seines unangefochtenen Monopols über KI-Rechenleistung geht zu Ende, ein kundenspezifischer Chip nach dem anderen.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel