Au CES 2026, Jensen Huang a porté sur scène quelque chose d’insolite : pas une carte graphique grand public, mais un rack serveur AI de 2,5 tonnes. Ce geste symbolique introduit ce qui peut être considéré comme la véritable “bombe nucléaire” de l’événement : la plateforme de calcul Vera Rubin, un écosystème hardware entièrement repensé pour accélérer l’entraînement des modèles AI de nouvelle génération.
Six puces, une seule vision : l’architecture qui défie le ralentissement de Moore
Vera Rubin représente un changement de paradigme par rapport au passé de NVIDIA. Alors que traditionnellement chaque génération de processeurs voyait l’évolution de seulement 1-2 puces, cette fois l’entreprise a redessiné simultanément 6 composants différents, tous déjà en production.
La raison est simple mais profonde : la loi de Moore ne suffit plus. Les modèles AI croissent de 10 fois par an, mais les améliorations traditionnelles des performances ne peuvent suivre. NVIDIA a donc choisi l’innovation “synchronisée à chaque niveau” de la plateforme.
Les six piliers de la “bombe nucléaire” technologique :
Le CPU Vera intègre 88 cœurs Olympus personnalisés, supporte 176 threads via la technologie multithreading spatiale NVIDIA, et offre une mémoire système de 1,5 To—le triple par rapport à la génération Grace précédente. La bande passante NVLink atteint 1,8 To/s.
Le GPU Rubin est la véritable star : avec une puissance d’inférence NVFP4 de 50 PFLOPS (5 fois supérieure à Blackwell), il contient 336 milliards de transistors et inclut le troisième moteur Transformer qui ajuste dynamiquement la précision selon les besoins.
La carte réseau ConnectX-9 supporte Ethernet à 800 Gb/s avec RDMA programmable, tandis que le DPU BlueField-4 a été spécifiquement conçu pour gérer les nouvelles architectures de stockage AI, combinant un CPU Grace à 64 cœurs avec 126 milliards de transistors.
Le commutateur NVLink-6 connecte jusqu’à 18 nœuds de calcul, permettant à 72 GPU Rubin de fonctionner comme une seule machine cohérente, avec une bande passante all-to-all de 3,6 To/s par GPU. Enfin, le commutateur optique Spectrum-6 utilise 512 canaux à 200Gbps chacun, intégrant la silicon photonics.
Performances qui changent la donne : de 3,5x à 10x d’amélioration
Dans le système Vera Rubin NVL72, le saut de performance par rapport à Blackwell est spectaculaire. L’inférence NVFP4 atteint 3,6 EFLOPS (+5x), tandis que l’entraînement atteint 2,5 EFLOPS (+3,5x). La mémoire disponible est presque triplée : 54TB de LPDDR5X et 20,7TB de HBM.
Mais la donnée la plus impressionnante concerne l’efficacité. Bien que le nombre de transistors n’augmente que de 1,7 fois ( atteignant 220 trillions), la productivité mesurée en tokens AI par watt-par-dollar augmente de 10 fois. Pour un centre de données de 50 milliards de dollars et un gigawatt de puissance, cela signifie doubler directement la capacité de profit.
Concrètement : pour entraîner un modèle de 100 trillions de paramètres, Vera Rubin nécessite seulement 1/4 des systèmes Blackwell, et le coût pour générer un token descend à environ 1/10 de l’ancien.
Ingénierie révolutionnaire : de l’assemblage à la refroidissement
La “bombe nucléaire” hardware n’est pas seulement une puissance brute. L’ingénierie de Vera Rubin résout des problèmes pratiques qui affectaient les systèmes précédents. Les anciens nœuds supercalculatoires nécessitaient 43 câbles et 2 heures d’assemblage manuel ; les nœuds Vera utilisent zéro câble, seulement 6 tubes de refroidissement liquide, et se montent en 5 minutes.
L’arrière du rack contient près de 3,2 km de câbles en cuivre dédiés : 5 000 câbles forment la colonne vertébrale NVLink à 400Gbps. Comme l’a ironiquement observé Jensen Huang : “Ils pourraient peser plusieurs centaines de livres—il faut être un CEO en pleine forme pour ce travail.”
Le problème de la mémoire de contexte : la solution BlueField-4
L’IA contemporaine fait face à un goulet d’étranglement critique : la “KV Cache” ( mémoire de travail de l’IA) croît avec des dialogues plus longs et des modèles plus grands. Vera Rubin résout cela avec les processeurs BlueField-4 intégrés dans le rack, chacun doté de 150TB de mémoire de contexte.
Chaque nœud possède 4 BlueField-4, qui distribuent la mémoire aux GPU : chaque GPU reçoit 16TB de mémoire supplémentaire en plus de ses 1TB natifs, maintenant une bande passante de 200Gbps sans compromis sur la vitesse.
Spectrum-X : le réseau conçu pour l’IA générative
Pour que des dizaines de racks et des milliers de GPU fonctionnent comme une seule mémoire distribuée, le réseau doit être “grand, rapide et stable”. Spectrum-X est la première plateforme Ethernet de bout en bout au monde spécifiquement conçue pour l’IA générative.
La dernière génération utilise le procédé COOP de TSMC et la silicon photonics, avec 512 canaux à 200Gbps chacun. La vision de Jensen Huang est convaincante : en améliorant la productivité de 25 %, cela équivaut à économiser 5 milliards de dollars sur un centre de données de 50 milliards. “On pourrait dire que ce système réseau est presque gratuit”, a-t-il souligné.
De la théorie à l’action : IA physique, robotique et conduite autonome
L’objectif de la “bombe nucléaire” n’est pas seulement le hardware. Jensen Huang a souligné que près de 10 trillions de dollars de ressources de calcul accumulées au cours de la décennie subissent une modernisation complète, mais pas seulement hardware—un changement de paradigme logiciel.
L’architecture des “trois ordinateurs” pour l’IA physique :
Ordinateurs d’entraînement basés sur GPU de classe training comme l’architecture GB300. Ordinateurs d’inférence, le “cervelet” qui prend des décisions en temps réel sur robots et dispositifs edge. Ordinateurs de simulation (Omniverse et Cosmos) qui génèrent des environnements virtuels où l’IA apprend par feedback physique.
Alpamayo : la conduite autonome avec capacité de raisonnement
Sur cette architecture, NVIDIA a présenté Alpamayo, le premier système de conduite autonome doté de véritables capacités de raisonnement. Contrairement aux systèmes traditionnels, Alpamayo est entièrement end-to-end et résout le “problème de la longue traîne”—lorsqu’il fait face à des situations routières inédites, il ne se contente pas d’exécuter du code mécanique, mais il raisonne comme un conducteur humain.
La Mercedes CLA équipée d’Alpamayo sera lancée aux États-Unis au premier trimestre 2026, suivie par l’Europe et l’Asie. Le système a reçu l’évaluation NCAP comme le véhicule le plus sûr au monde, grâce au “double stack de sécurité” NVIDIA : lorsque le modèle AI a peu de confiance, le système revient immédiatement à un mode de sécurité traditionnel.
La stratégie robotique : de Boston Dynamics à Disney
NVIDIA a montré comment neuf grandes entreprises AI et hardware étendent toutes leur champ vers la robotique. Chaque robot utilisera un ordinateur Jetson, sera entraîné dans le simulateur Isaac d’Omniverse, et la technologie sera intégrée dans les systèmes industriels de Synopsys, Cadence, Siemens et autres.
Jensen Huang a invité des robots humanoïdes et quadrupèdes d’entreprises comme Boston Dynamics et Agility, soulignant une perspective fascinante : le plus grand robot est la fabrique elle-même. La vision est que la conception de puces, systèmes et simulations d’usine sera toutes accélérée par l’IA physique.
Pourquoi cette “bombe nucléaire” maintenant ?
Dans un contexte où le scepticisme grandit autour d’une prétendue “bulle AI”, Jensen Huang a donné la priorité non seulement à la puissance brute de calcul, mais aussi aux applications concrètes. La “bombe nucléaire” de 2,5 tonnes est à la fois un symbole et une promesse : démontrer que l’IA peut vraiment transformer à la fois le monde numérique et le monde physique.
NVIDIA, qui vendait autrefois des “pales pour chercheurs d’or”, entre maintenant directement sur le marché où la compétition est la plus féroce—IA physique, robotique, conduite autonome. Comme Huang lui-même l’a suggéré : “Quand la guerre fait rage, on peut continuer à vendre des armes.”
Mais la véritable innovation de Vera Rubin n’est pas de construire une “bombe nucléaire” hardware plus puissante—c’est de démontrer qu’en synchronisant l’innovation à chaque niveau de la plateforme, les limites traditionnelles peuvent être dépassées.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La "bombe nucléaire" de 2,5 tonnes au CES 2026 : comment NVIDIA redessine l'avenir de l'IA avec Vera Rubin
Au CES 2026, Jensen Huang a porté sur scène quelque chose d’insolite : pas une carte graphique grand public, mais un rack serveur AI de 2,5 tonnes. Ce geste symbolique introduit ce qui peut être considéré comme la véritable “bombe nucléaire” de l’événement : la plateforme de calcul Vera Rubin, un écosystème hardware entièrement repensé pour accélérer l’entraînement des modèles AI de nouvelle génération.
Six puces, une seule vision : l’architecture qui défie le ralentissement de Moore
Vera Rubin représente un changement de paradigme par rapport au passé de NVIDIA. Alors que traditionnellement chaque génération de processeurs voyait l’évolution de seulement 1-2 puces, cette fois l’entreprise a redessiné simultanément 6 composants différents, tous déjà en production.
La raison est simple mais profonde : la loi de Moore ne suffit plus. Les modèles AI croissent de 10 fois par an, mais les améliorations traditionnelles des performances ne peuvent suivre. NVIDIA a donc choisi l’innovation “synchronisée à chaque niveau” de la plateforme.
Les six piliers de la “bombe nucléaire” technologique :
Le CPU Vera intègre 88 cœurs Olympus personnalisés, supporte 176 threads via la technologie multithreading spatiale NVIDIA, et offre une mémoire système de 1,5 To—le triple par rapport à la génération Grace précédente. La bande passante NVLink atteint 1,8 To/s.
Le GPU Rubin est la véritable star : avec une puissance d’inférence NVFP4 de 50 PFLOPS (5 fois supérieure à Blackwell), il contient 336 milliards de transistors et inclut le troisième moteur Transformer qui ajuste dynamiquement la précision selon les besoins.
La carte réseau ConnectX-9 supporte Ethernet à 800 Gb/s avec RDMA programmable, tandis que le DPU BlueField-4 a été spécifiquement conçu pour gérer les nouvelles architectures de stockage AI, combinant un CPU Grace à 64 cœurs avec 126 milliards de transistors.
Le commutateur NVLink-6 connecte jusqu’à 18 nœuds de calcul, permettant à 72 GPU Rubin de fonctionner comme une seule machine cohérente, avec une bande passante all-to-all de 3,6 To/s par GPU. Enfin, le commutateur optique Spectrum-6 utilise 512 canaux à 200Gbps chacun, intégrant la silicon photonics.
Performances qui changent la donne : de 3,5x à 10x d’amélioration
Dans le système Vera Rubin NVL72, le saut de performance par rapport à Blackwell est spectaculaire. L’inférence NVFP4 atteint 3,6 EFLOPS (+5x), tandis que l’entraînement atteint 2,5 EFLOPS (+3,5x). La mémoire disponible est presque triplée : 54TB de LPDDR5X et 20,7TB de HBM.
Mais la donnée la plus impressionnante concerne l’efficacité. Bien que le nombre de transistors n’augmente que de 1,7 fois ( atteignant 220 trillions), la productivité mesurée en tokens AI par watt-par-dollar augmente de 10 fois. Pour un centre de données de 50 milliards de dollars et un gigawatt de puissance, cela signifie doubler directement la capacité de profit.
Concrètement : pour entraîner un modèle de 100 trillions de paramètres, Vera Rubin nécessite seulement 1/4 des systèmes Blackwell, et le coût pour générer un token descend à environ 1/10 de l’ancien.
Ingénierie révolutionnaire : de l’assemblage à la refroidissement
La “bombe nucléaire” hardware n’est pas seulement une puissance brute. L’ingénierie de Vera Rubin résout des problèmes pratiques qui affectaient les systèmes précédents. Les anciens nœuds supercalculatoires nécessitaient 43 câbles et 2 heures d’assemblage manuel ; les nœuds Vera utilisent zéro câble, seulement 6 tubes de refroidissement liquide, et se montent en 5 minutes.
L’arrière du rack contient près de 3,2 km de câbles en cuivre dédiés : 5 000 câbles forment la colonne vertébrale NVLink à 400Gbps. Comme l’a ironiquement observé Jensen Huang : “Ils pourraient peser plusieurs centaines de livres—il faut être un CEO en pleine forme pour ce travail.”
Le problème de la mémoire de contexte : la solution BlueField-4
L’IA contemporaine fait face à un goulet d’étranglement critique : la “KV Cache” ( mémoire de travail de l’IA) croît avec des dialogues plus longs et des modèles plus grands. Vera Rubin résout cela avec les processeurs BlueField-4 intégrés dans le rack, chacun doté de 150TB de mémoire de contexte.
Chaque nœud possède 4 BlueField-4, qui distribuent la mémoire aux GPU : chaque GPU reçoit 16TB de mémoire supplémentaire en plus de ses 1TB natifs, maintenant une bande passante de 200Gbps sans compromis sur la vitesse.
Spectrum-X : le réseau conçu pour l’IA générative
Pour que des dizaines de racks et des milliers de GPU fonctionnent comme une seule mémoire distribuée, le réseau doit être “grand, rapide et stable”. Spectrum-X est la première plateforme Ethernet de bout en bout au monde spécifiquement conçue pour l’IA générative.
La dernière génération utilise le procédé COOP de TSMC et la silicon photonics, avec 512 canaux à 200Gbps chacun. La vision de Jensen Huang est convaincante : en améliorant la productivité de 25 %, cela équivaut à économiser 5 milliards de dollars sur un centre de données de 50 milliards. “On pourrait dire que ce système réseau est presque gratuit”, a-t-il souligné.
De la théorie à l’action : IA physique, robotique et conduite autonome
L’objectif de la “bombe nucléaire” n’est pas seulement le hardware. Jensen Huang a souligné que près de 10 trillions de dollars de ressources de calcul accumulées au cours de la décennie subissent une modernisation complète, mais pas seulement hardware—un changement de paradigme logiciel.
L’architecture des “trois ordinateurs” pour l’IA physique :
Ordinateurs d’entraînement basés sur GPU de classe training comme l’architecture GB300. Ordinateurs d’inférence, le “cervelet” qui prend des décisions en temps réel sur robots et dispositifs edge. Ordinateurs de simulation (Omniverse et Cosmos) qui génèrent des environnements virtuels où l’IA apprend par feedback physique.
Alpamayo : la conduite autonome avec capacité de raisonnement
Sur cette architecture, NVIDIA a présenté Alpamayo, le premier système de conduite autonome doté de véritables capacités de raisonnement. Contrairement aux systèmes traditionnels, Alpamayo est entièrement end-to-end et résout le “problème de la longue traîne”—lorsqu’il fait face à des situations routières inédites, il ne se contente pas d’exécuter du code mécanique, mais il raisonne comme un conducteur humain.
La Mercedes CLA équipée d’Alpamayo sera lancée aux États-Unis au premier trimestre 2026, suivie par l’Europe et l’Asie. Le système a reçu l’évaluation NCAP comme le véhicule le plus sûr au monde, grâce au “double stack de sécurité” NVIDIA : lorsque le modèle AI a peu de confiance, le système revient immédiatement à un mode de sécurité traditionnel.
La stratégie robotique : de Boston Dynamics à Disney
NVIDIA a montré comment neuf grandes entreprises AI et hardware étendent toutes leur champ vers la robotique. Chaque robot utilisera un ordinateur Jetson, sera entraîné dans le simulateur Isaac d’Omniverse, et la technologie sera intégrée dans les systèmes industriels de Synopsys, Cadence, Siemens et autres.
Jensen Huang a invité des robots humanoïdes et quadrupèdes d’entreprises comme Boston Dynamics et Agility, soulignant une perspective fascinante : le plus grand robot est la fabrique elle-même. La vision est que la conception de puces, systèmes et simulations d’usine sera toutes accélérée par l’IA physique.
Pourquoi cette “bombe nucléaire” maintenant ?
Dans un contexte où le scepticisme grandit autour d’une prétendue “bulle AI”, Jensen Huang a donné la priorité non seulement à la puissance brute de calcul, mais aussi aux applications concrètes. La “bombe nucléaire” de 2,5 tonnes est à la fois un symbole et une promesse : démontrer que l’IA peut vraiment transformer à la fois le monde numérique et le monde physique.
NVIDIA, qui vendait autrefois des “pales pour chercheurs d’or”, entre maintenant directement sur le marché où la compétition est la plus féroce—IA physique, robotique, conduite autonome. Comme Huang lui-même l’a suggéré : “Quand la guerre fait rage, on peut continuer à vendre des armes.”
Mais la véritable innovation de Vera Rubin n’est pas de construire une “bombe nucléaire” hardware plus puissante—c’est de démontrer qu’en synchronisant l’innovation à chaque niveau de la plateforme, les limites traditionnelles peuvent être dépassées.