Nvidia entre dans l'élevage de crevettes : mise tous azimuts sur l'ère de l'inférence IA d'un billion de dollars

robot
Création du résumé en cours

Journaliste du Securities Times Ruǎn Rùnshēng

Le géant mondial de la puissance de calcul, NVIDIA, se transforme d’un fabricant de puces en une usine d’IA, misant sur les opportunités du marché de l’inférence en intelligence artificielle. Lors de la conférence GTC 2026 (GPU Technology Conference) qui a débuté le 17 mars, le PDG de NVIDIA, Huang Renxun, a fortement révisé à la hausse ses prévisions de revenus pour la nouvelle génération de puces IA, visant un trillion de dollars, tout en lançant officiellement la prochaine plateforme matérielle et en dévoilant des produits tels qu’une pile logicielle pour la “culture de crevettes”.

Les professionnels du secteur soulignent qu’un signal fort émanant de cette GTC est l’accélération de l’ère de l’inférence. Par ailleurs, la nouvelle architecture de calcul de NVIDIA va entraîner des transformations dans des industries telles que la dissipation thermique et les matériaux d’emballage.

Renforcement de l’IA pour l’inférence

Lors de cette GTC, NVIDIA a insisté sur le fait que, pour la nouvelle étape de l’IA intelligente, l’inférence deviendra le cœur de la compétition en infrastructure IA. La société a officiellement lancé la plateforme de calcul de nouvelle génération Vera Rubin et le LPU (Unité de traitement linguistique) Groq3.

« Quand je parle de Hopper, je montre une puce ; mais quand je parle de Vera Rubin, c’est tout un système », a déclaré Huang Renxun, fondateur et PDG de NVIDIA. Il prévoit que ces dernières années, la demande en calcul a augmenté d’un million de fois, et que d’ici 2025-2027, cette croissance apportera au moins un trillion de dollars de revenus à l’entreprise.

La plateforme Vera Rubin comprend 7 puces, 5 systèmes à l’échelle rack, et un supercalculateur dédié à l’IA par agent, intégrant une nouvelle CPU Vera et une architecture de stockage Blue Field-4S TX. Par rapport à la plateforme Blackwell précédente, la nouvelle plateforme nécessite seulement un quart du nombre de GPU pour entraîner de grands modèles hybrides, avec une amélioration jusqu’à 10 fois du débit d’inférence par watt.

Lors de la conférence, Huang a mis en avant la puce d’inférence Groq 3 LPU, dévoilant un “œuf de Pâques” réservé lors de la présentation des résultats en février. Cette puce résulte de l’acquisition par NVIDIA en décembre dernier de la technologie clé de Groq pour environ 20 milliards de dollars, positionnée comme un “co-processeur d’inférence” pour le GPU Rubin, incarnant la stratégie d’inférence de NVIDIA.

Huang a indiqué qu’à l’ère de l’IA intelligente, la demande en inférence se diversifie rapidement. Face à des tâches nécessitant une interaction très élevée et des temps de réponse ultra courts, l’architecture GPU traditionnelle présente des redondances de performance. NVIDIA a donc introduit une architecture LPU, axée sur la génération de tokens à très faible latence, en collaboration avec le GPU. Vera Rubin gère la phase de “pré-remplissage” nécessitant une puissance de calcul massive, tandis que le LPU s’occupe de la phase de “décodage” très sensible à la latence. Dans cette architecture hybride, le débit d’inférence et l’efficacité énergétique peuvent être multipliés par 35.

« L’ère de l’inférence IA ne se résume plus à des paramètres de pointe, mais à la capacité de faire des optimisations hétérogènes plus fines autour de charges de travail réelles, en utilisant chaque unité de calcul à bon escient », a déclaré un responsable de YunTian LiFei. La recherche de performance optimale en inférence nécessite de plus en plus d’hétérogénéité dans le calcul, en segmentant les caractéristiques des charges de travail pour que chaque matériel assume la tâche la plus adaptée, maximisant ainsi l’efficacité globale du système. La stratégie de NVIDIA présentée ici suit cette logique. Des entreprises chinoises comme YunTian LiFei poursuivent également l’innovation dans l’architecture d’inférence, notamment autour de GPNPU, la séparation PD, et le stockage en 3D, suivant la même orientation industrielle.

Révolution des agents IA

OpenClaw, plateforme open source d’agents IA autonomes, a lancé une vague de “culture de crevettes” à l’échelle mondiale. Lors de cette GTC, Huang a loué OpenClaw, affirmant qu’elle “ouvre un nouveau front dans l’IA pour tous, et devient le projet open source à la croissance la plus rapide de l’histoire”, marquant l’ère de la création d’agents intelligents personnels.

NVIDIA prévoit de s’impliquer dans cette “culture de crevettes” en lançant le logiciel Nemo Claw, compatible avec la plateforme d’agents OpenClaw, permettant une installation en une seule commande, tout en améliorant la gestion de la sécurité, la fiabilité, l’évolutivité et la facilité d’utilisation des agents IA.

Le même jour, NVIDIA a renforcé ses collaborations logicielles, annonçant des partenariats avec des leaders mondiaux comme Cadence, Siemens et Synopsys, et intégrant ses plateformes CUDA-X™, Omniverse™ et ses outils logiciels accélérés par GPU dans des entreprises telles que Honda, Jaguar Land Rover, Samsung, SK Hynix et TSMC, pour accélérer la conception industrielle, le développement d’ingénierie et la fabrication.

Huang a déclaré : « Une nouvelle révolution industrielle est en marche, où l’IA physique et l’IA autonome redéfinissent fondamentalement la conception, l’ingénierie et la fabrication mondiales. En collaborant étroitement avec les géants du logiciel, les fournisseurs de services cloud et les OEM du monde entier, NVIDIA offre une plateforme de calcul accéléré complète, permettant à tous les secteurs de réaliser cette vision à une échelle et une vitesse sans précédent. »

Lors de la première journée de la conférence, le cours de l’action NVIDIA a augmenté de 1,65 %, clôturant à 183,22 dollars par action ; cependant, le même jour, l’indice de la chaîne industrielle NVIDIA en A-share a connu une correction, avec une baisse de près de 10 % pour Tenda Communication, 3,33 % pour Zhongji Xuchuang, et environ 3 % pour Shenghong Technology, leader en PCB pour l’IA.

Poussée par la nouvelle infrastructure de calcul

NVIDIA continue de mener la transformation de la chaîne industrielle de l’IA. Avec la complexification croissante de l’architecture AI Fab de NVIDIA et la montée en puissance de la consommation d’énergie, les techniques de refroidissement traditionnelles à air atteignent leurs limites physiques. La nouvelle armoire Rubin, entièrement refroidie par liquide, marque une étape clé pour la nouvelle génération d’infrastructures de calcul.

Lors de cette conférence, Limin Da, filiale de Lingyi ZhiZao, a présenté le seul fournisseur en Chine continentale de l’écosystème Vera Rubin, le manifold (distributeur) de l’architecture. En tant que composant central du système de refroidissement liquide, le distributeur et ses raccords rapides déterminent directement l’efficacité et la stabilité du système de dissipation thermique.

De plus, la nouvelle architecture Rubin pourrait également entraîner une révolution dans les matériaux d’emballage.

« En raison des exigences extrêmes de dissipation thermique et de transmission du signal de l’architecture Rubin, la commercialisation des substrats en verre a été considérablement accélérée », a déclaré Lu Bing, analyste chez Shenmeng Industry. Sous une densité de calcul extrême, les substrats organiques traditionnels (ABF) rencontrent de graves limites physiques.

Les fabricants locaux et internationaux se trouvent à un tournant critique entre la validation technologique et la production en série précoce. Selon Yole Group et d’autres organismes, 2026 sera l’année où les substrats en verre entreront dans une production commerciale à petite échelle, et dans le domaine de la mémoire à haute bande passante (HBM) et de l’emballage de puces logiques, la demande en matériaux en verre devrait connaître une croissance annuelle composée de 33 %.

Lu Bing souligne que la Chine dispose de la chaîne industrielle de panneaux la plus complète au monde et d’un marché de consommation massif. En tirant parti de cette échelle, les entreprises nationales ont déjà le potentiel de faire des percées dans certains matériaux et équipements (comme la micro-perçage laser), occupant une position clé dans la chaîne d’approvisionnement des puces IA.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler