Technologie

Vera Rubin de NVIDIA : le prochain bond en avant dans le calcul de l'IA

NVIDIA a dévoilé la plateforme Vera Rubin au CES 2026, promettant des performances d'inférence cinq fois supérieures à celles de Blackwell, une réduction de dix fois du coût par jeton et une refonte complète de l'infrastructure d'IA pour l'ère de l'IA agentique.

R
Redakcia
Share
Vera Rubin de NVIDIA : le prochain bond en avant dans le calcul de l'IA

Une nouvelle ère annoncée à Las Vegas

Au CES 2026, le PDG de NVIDIA, Jensen Huang, est monté sur scène à Las Vegas pour dévoiler la plateforme matérielle la plus ambitieuse de l'entreprise à ce jour : Vera Rubin. Nommée d'après l'astronome pionnière qui a confirmé l'existence de la matière noire, la plateforme succède à l'architecture Blackwell de NVIDIA, qui a battu tous les records, et représente le premier système de supercalculateur d'IA à six puces entièrement co-conçu par l'entreprise. Les puces sont déjà en pleine production, et les produits à l'échelle du rack devraient atteindre les partenaires cloud au cours du second semestre 2026.

Six puces, un supercalculateur

Contrairement aux générations précédentes, Vera Rubin n'est pas un simple GPU, mais une plateforme intégrée de six puces co-conçues. Au cœur de celle-ci se trouve le Vera CPU associé à deux Rubin GPU, formant un superchip unifié. La plateforme est complétée par quatre composants de mise en réseau et de stockage : le commutateur NVLink 6, le SuperNIC ConnectX-9, le DPU BlueField-4 et le commutateur Ethernet Spectrum-6.

La configuration phare, le Vera Rubin NVL72, intègre 72 GPU et 36 CPU dans un seul rack, offrant une performance d'inférence NVFP4 stupéfiante de 3,6 exaflops. Sa bande passante d'extension atteint 260 To/s, soit le double de celle du Blackwell GB200 NVL72.

Comparaison avec Blackwell

Le bond en avant des performances par rapport à Blackwell est substantiel pour chaque indicateur clé :

  • Performance d'inférence : 50 PFLOPS par puce, soit 5× plus élevée que celle du Blackwell GB200
  • Bande passante mémoire : 22 To/s avec mémoire HBM4, soit 2,75× plus que la HBM3E de Blackwell
  • Coût par jeton : Jusqu'à 10× de réduction du coût d'inférence par jeton
  • Efficacité de l'entraînement : 4× moins de GPU nécessaires pour entraîner les modèles de type « mixture-of-experts » (MoE)
  • Vitesse d'assemblage : La conception modulaire sans câble permet un entretien du rack 18× plus rapide

Selon Tom's Hardware, Vera Rubin consommera environ deux fois plus d'énergie que Blackwell, mais offrira dix fois plus de performances par watt, un gain d'efficacité significatif pour les opérateurs hyperscale.

Conçu pour l'ère de l'IA agentique

NVIDIA positionne Vera Rubin directement pour la prochaine vague d'applications d'IA : les systèmes agentiques, les modèles de raisonnement avancés et les grandes architectures de type « mixture-of-experts ». Ces charges de travail exigent une capacité de mémoire et une bande passante d'interconnexion bien supérieures à celles des chatbots et des générateurs d'images qui ont défini la première vague de l'IA générative.

Parmi les premiers fournisseurs de cloud à déployer des instances basées sur Vera Rubin figurent AWS, Google Cloud, Microsoft Azure et Oracle Cloud, ainsi que le partenaire cloud de NVIDIA, CoreWeave. Microsoft a déjà publié des recommandations de planification de l'infrastructure pour les déploiements Rubin à grande échelle sur Azure.

Enjeux géopolitiques

Le lancement intervient dans un contexte géopolitique tendu. NVIDIA a suspendu les exportations de puces H200 vers la Chine et a réorienté sa capacité de production de TSMC vers Vera Rubin, creusant ainsi le fossé technologique entre les États-Unis et la Chine. Une analyse citée par le Center for Strategic and International Studies suggère que, sans accès aux puces américaines avancées, la capacité de calcul de l'IA de la Chine en 2026 pourrait être plus de dix fois inférieure à celle des États-Unis.

Les observateurs du secteur notent que les plateformes comme Vera Rubin sont de plus en plus considérées non seulement comme des produits commerciaux, mais aussi comme une infrastructure stratégique dans la compétition mondiale pour l'intelligence artificielle générale. Comme l'a rapporté CNN Business, Vera Rubin définit effectivement la domination de NVIDIA jusqu'à la fin des années 2020, une feuille de route que les concurrents de Pékin surveillent de près.

Prochaines étapes

NVIDIA a déjà signalé que Vera Rubin sera elle-même remplacée par une architecture de nouvelle génération, maintenant ainsi le rythme annuel d'avancement du matériel de l'entreprise. Pour l'instant, cependant, Vera Rubin établit une nouvelle référence : plus de calcul, un coût inférieur et une conception de rack conçue pour l'industrialisation de l'intelligence à une échelle que le monde n'a pas encore connue.

Cet article est également disponible dans d'autres langues :

Articles connexes