NVIDIA GTC 2026|Huang Renxun : NVIDIA redéfinit l'informatique, le marché des centres de données atteint l'échelle du billion

ChainNewsAbmedia

Lors du Nvidia GTC 2026, Jensen Huang a déclaré avec confiance : de nombreuses entreprises natives de l’IA ont émergé parce que Nvidia « a redéfini le calcul ». Il a dit que nous sommes au début d’une nouvelle révolution des plateformes, similaire à celle de l’ordinateur personnel. Au cours des deux dernières années, avec l’avènement de ChatGPT, l’ère de l’IA générative a véritablement commencé.

Huang a présenté une diapositive clé révélant que le marché mondial de la puissance de calcul pour l’IA entre dans une phase de croissance explosive. Le graphique montre que la taille potentielle du marché mondial des centres de données (TAM) est passée d’environ 500 milliards de dollars en 2025 à plus de 1 000 milliards de dollars (1T$) en seulement un an, et continue de croître.

Le concept central de la diapositive est « Inference Inflection » (le point d’inflexion de l’inférence).

Auparavant, le développement de l’IA se concentrait principalement sur la phase d’entraînement, c’est-à-dire faire apprendre aux modèles de grandes quantités de données. Mais avec la maturité des grands modèles, l’IA commence à être déployée dans divers produits et services, tels que le service client, la génération d’images et le développement de logiciels. Cela signifie que l’accent du marché se déplace de l’entraînement vers l’inférence.

Lorsque l’IA est utilisée simultanément par des milliards d’utilisateurs, chaque question, chaque génération d’image ou de vidéo nécessite une puissance de calcul. Cette demande de calcul à haute fréquence et faible latence entraînera une croissance géométrique des besoins en puissance d’inférence.

Au début de son discours, Huang a consacré beaucoup de temps à présenter l’application de la pile logicielle de Nvidia dans différents secteurs, notamment l’écosystème de bibliothèques CUDA-X. Il a déclaré : « Nous sommes une entreprise d’algorithmes. » Il a souligné que la mise en œuvre de l’IA ne repose pas uniquement sur l’IA générative. « Mettre GenAI sur un mur pour voir s’il réussira n’est pas une stratégie. » Il pense que les problèmes rencontrés par différentes industries varient énormément, c’est pourquoi Nvidia doit développer des bibliothèques spécifiques à chaque domaine (domain-specific libraries).

Point d’inflexion de l’inférence : la taille du marché mondial des centres de données atteint un trillion de dollars

Lors de son discours principal au Nvidia GTC 2026, Huang a présenté une diapositive clé révélant que le marché mondial de la puissance de calcul pour l’IA entre dans une phase de croissance explosive. La figure montre que la taille potentielle du marché mondial des centres de données (TAM) est passée d’environ 500 milliards de dollars en 2025 à plus de 1 000 milliards de dollars (1T$) en seulement un an, et continue de croître.

Le concept central de la diapositive est « Inference Inflection » (le point d’inflexion de l’inférence). Auparavant, le développement de l’IA se concentrait principalement sur la phase d’entraînement, c’est-à-dire faire apprendre aux modèles de grandes quantités de données. Mais avec la maturité des grands modèles, l’IA commence à être déployée dans divers produits et services, tels que la recherche, le service client, la génération d’images et le développement logiciel. Cela indique un déplacement du centre d’attention du marché de l’entraînement vers l’inférence.

Lorsque l’IA est utilisée simultanément par des milliards d’utilisateurs, chaque question, chaque génération d’image ou de vidéo nécessite une puissance de calcul. Cette demande de calcul à haute fréquence et faible latence entraînera une croissance géométrique des besoins en puissance d’inférence, ce qui est considéré par Nvidia comme la principale force motrice derrière le marché des centres de données IA d’un trillion de dollars.

La structure du marché sur la droite de la diapositive montre que la demande actuelle en puissance de calcul pour l’IA provient principalement de deux types de clients. Environ 60 % de la demande vient des hyperscalers (fournisseurs de cloud à grande échelle) et des entreprises natives de l’IA. Parmi eux :

Amazon Web Services

Google Cloud

Microsoft

Et des développeurs de modèles d’IA :

OpenAI

Anthropic

xAI

Les 40 % restants proviennent de nouveaux domaines que Nvidia met en avant ces dernières années, notamment l’IA souveraine (Sovereign AI), ainsi que les applications industrielles et d’entreprise. L’IA souveraine désigne des infrastructures d’IA établies par les gouvernements pour leur propre langue, culture et données, telles que :

Création de superordinateurs IA nationaux

Entraînement de modèles linguistiques locaux

Établissement de la souveraineté des données nationales

De plus, les industries traditionnelles commencent à adopter massivement l’IA, notamment :

Automobiles et systèmes de conduite autonome

Manufacture et usines intelligentes

Analyse d’images médicales

Modèles de risque financier

Au centre de la diapositive, la liste des principaux écosystèmes de modèles d’IA, comprenant ChatGPT, Gemini, Grok et divers modèles open source. Parmi eux, Anthropic et Meta Superintelligence Labs sont identifiés comme de nouvelles forces émergentes après 2025, indiquant que la compétition entre modèles d’IA s’accélère rapidement.

GTC 2026 Huang : Nvidia est essentiellement une « entreprise d’algorithmes »

Huang a consacré beaucoup de temps dans son discours à présenter l’application de la pile logicielle de Nvidia dans divers secteurs, de la santé à la fabrication, en passant par la finance et le cloud computing. Il a souligné que toutes ces capacités reviennent finalement à l’écosystème de bibliothèques CUDA-X de Nvidia. « Nous sommes une entreprise d’algorithmes », a-t-il déclaré. Il a décrit CUDA-X comme le « joyau de la couronne » de Nvidia, soulignant que la véritable valeur des GPU réside dans la plateforme logicielle, et non seulement dans le matériel.

L’un des composants clés est cuDNN, une bibliothèque conçue pour accélérer efficacement les réseaux neuronaux profonds sur GPU, largement adoptée par les principaux frameworks d’IA, et devenue un élément fondamental de l’infrastructure moderne d’apprentissage profond.

Huang a réaffirmé l’importance du logiciel dans l’écosystème de l’IA, soulignant que cuDNN est l’une des bibliothèques les plus cruciales de l’entreprise, voire la grande explosion qui a déclenché la vague d’intelligence artificielle moderne. Nvidia a montré lors de la conférence une courte vidéo sur son écosystème CUDA-X, comprenant une séquence entièrement générée par l’IA et la simulation, presque indiscernable du réel, illustrant les avancées en accélération GPU et en frameworks d’apprentissage profond pour le traitement visuel.

Huang : l’IA nécessite des « bibliothèques spécifiques à l’industrie »

Huang a indiqué que la mise en œuvre de l’IA ne repose pas uniquement sur l’IA générative. « Mettre GenAI sur un mur pour voir s’il réussira n’est pas une stratégie. » Il pense que, face à la diversité des problèmes dans différentes industries, Nvidia doit développer des bibliothèques spécifiques à chaque domaine (domain-specific libraries) pour fournir des solutions optimisées.

C’est aussi la raison pour laquelle l’écosystème CUDA-X continue de s’étendre, couvrant aujourd’hui des dizaines de secteurs, notamment :

Calcul scientifique

Imagerie médicale

Conduite autonome

Analyse financière

Ingénierie des données

Ces bibliothèques permettent aux GPU de maximiser leur performance dans divers scénarios industriels.

Une pile d’IA intégrée verticalement et ouverte horizontalement

Huang décrit la stratégie de Nvidia comme « intégrée verticalement, ouverte horizontalement ». Cela signifie que Nvidia offre une pile complète, du silicium, des systèmes, des logiciels jusqu’aux plateformes applicatives, tout en permettant à diverses entreprises et développeurs de créer des applications sur sa plateforme. Dans un contexte où la demande en calcul IA explose, Nvidia considère ce modèle comme la seule voie pour accélérer le calcul (accelerated computing).

Le principal champ de bataille de l’IA : les données non structurées

Huang a également mentionné une autre tâche importante de l’IA : le traitement des données non structurées. Il a souligné qu’environ 90 % des données mondiales sont non structurées, telles que les images, vidéos, voix et textes en langage naturel, mais qu’elles étaient auparavant considérées comme presque inutilisables en raison de leur difficulté à rechercher et analyser. Avec la maturité de l’IA et des technologies GPU, ces données sont progressivement transformées en actifs exploitables.

Par exemple, IBM utilise la plateforme WatsonX, accélérée par cuDF de Nvidia, pour améliorer l’efficacité de traitement de ses données, permettant une analyse rapide de grandes quantités de données non structurées.

OpenAI va intégrer AWS pour soulager la pression sur la puissance de calcul

En évoquant l’infrastructure de l’IA, Huang a également mentionné que OpenAI fait face à une « limite totale de puissance de calcul ». Il a indiqué que cette année, OpenAI va déployer l’infrastructure d’Amazon Web Services pour atténuer cette énorme demande en calcul.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire