NVIDIAs Vera Rubin: Der nächste Sprung im KI-Computing
NVIDIA stellte auf der CES 2026 die Vera Rubin-Plattform vor, die eine fünffache Inferenzleistung im Vergleich zu Blackwell, eine zehnfache Reduzierung der Token-Kosten und eine umfassende Neugestaltung der KI-Infrastruktur für das Zeitalter der Agenten-KI verspricht.
Eine neue Ära in Las Vegas angekündigt
Auf der CES 2026 betrat NVIDIA-CEO Jensen Huang in Las Vegas die Bühne, um die bisher ehrgeizigste Hardware-Plattform des Unternehmens vorzustellen: Vera Rubin. Benannt nach der bahnbrechenden Astronomin, die die Existenz dunkler Materie bestätigte, tritt die Plattform die Nachfolge von NVIDIAs rekordverdächtiger Blackwell-Architektur an und stellt das erste vollständig gemeinsam entwickelte KI-Supercomputing-System mit sechs Chips des Unternehmens dar. Die Chips sind bereits in voller Produktion, und Rack-Scale-Produkte sollen in der zweiten Hälfte des Jahres 2026 Cloud-Partner erreichen.
Sechs Chips, ein Supercomputer
Im Gegensatz zu früheren Generationen ist Vera Rubin keine einzelne GPU – es ist eine integrierte Plattform aus sechs gemeinsam entwickelten Chips. Im Kern befindet sich die Vera CPU, die mit zwei Rubin GPUs gekoppelt ist und einen einheitlichen Superchip bildet. Abgerundet wird die Plattform durch vier Netzwerk- und Speicherkomponenten: den NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU und Spectrum-6 Ethernet Switch.
Die Flaggschiff-Konfiguration, die Vera Rubin NVL72, packt 72 GPUs und 36 CPUs in ein einziges Rack und liefert eine atemberaubende NVFP4-Inferenzleistung von 3,6 Exaflops. Ihre Scale-up-Bandbreite erreicht 260 TB/s – das Doppelte der Blackwell GB200 NVL72.
Wie sie sich mit Blackwell vergleicht
Der Leistungssprung gegenüber Blackwell ist über alle wichtigen Kennzahlen hinweg beträchtlich:
- Inferenzleistung: 50 PFLOPS pro Chip – 5× höher als Blackwell GB200
- Speicherbandbreite: 22 TB/s mit HBM4-Speicher – 2,75× mehr als Blackwells HBM3E
- Token-Kosten: Bis zu 10× Reduzierung der Inferenzkosten pro Token
- Trainingseffizienz: 4× weniger GPUs erforderlich, um Mixture-of-Experts (MoE)-Modelle zu trainieren
- Montagegeschwindigkeit: Modulares, kabelloses Tray-Design ermöglicht 18× schnellere Rack-Wartung
Laut Tom's Hardware wird Vera Rubin etwa doppelt so viel Strom verbrauchen wie Blackwell, aber zehnmal mehr Leistung pro Watt liefern – ein erheblicher Effizienzgewinn für Hyperscale-Betreiber.
Entwickelt für das Zeitalter der Agenten-KI
NVIDIA positioniert Vera Rubin direkt für die nächste Welle von KI-Anwendungen: Agentensysteme, fortschrittliche Reasoning-Modelle und große Mixture-of-Experts-Architekturen. Diese Workloads erfordern eine weitaus größere Speicherkapazität und Interconnect-Bandbreite als die Chatbots und Bildgeneratoren, die die erste generative KI-Welle definierten.
Zu den ersten Cloud-Anbietern, die Vera Rubin-basierte Instanzen bereitstellen werden, gehören AWS, Google Cloud, Microsoft Azure und Oracle Cloud sowie NVIDIAs Cloud-Partner CoreWeave. Microsoft hat bereits eine Infrastrukturplanungsanleitung für groß angelegte Rubin-Bereitstellungen auf Azure veröffentlicht.
Geopolitische Bedeutung
Die Markteinführung erfolgt vor dem Hintergrund einer angespannten geopolitischen Lage. NVIDIA hat H200-Chip-Exporte nach China gestoppt und seine TSMC-Produktionskapazität auf Vera Rubin umgelenkt, was die technologische Kluft zwischen den Vereinigten Staaten und China vertieft. Eine vom Center for Strategic and International Studies zitierte Analyse deutet darauf hin, dass Chinas KI-Rechenkapazität im Jahr 2026 ohne Zugang zu fortschrittlichen US-Chips mehr als zehnmal geringer sein könnte als die der USA.
Branchenbeobachter stellen fest, dass Plattformen wie Vera Rubin zunehmend nicht nur als kommerzielle Produkte, sondern als strategische Infrastruktur im globalen Wettbewerb um künstliche allgemeine Intelligenz betrachtet werden. Wie CNN Business berichtete, zeichnet Vera Rubin effektiv NVIDIAs Dominanz bis weit in die späten 2020er Jahre vor – eine Roadmap, die Rivalen in Peking genau beobachten.
Wie es weitergeht
NVIDIA hat bereits signalisiert, dass Vera Rubin selbst von einer Architektur der nächsten Generation abgelöst werden wird, wodurch die jährliche Kadenz der Hardware-Weiterentwicklung des Unternehmens beibehalten wird. Vorerst setzt Vera Rubin jedoch einen neuen Maßstab: mehr Rechenleistung, niedrigere Kosten und ein Rack-Design, das für die Industrialisierung von Intelligenz in einem Ausmaß entwickelt wurde, das die Welt noch nicht gesehen hat.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook