Jeunesse ne savait pas que Su Ma était bon, elle prenait des déchets pour des trésors.


À l'époque, DEEPSEEK est sorti, le marché boursier américain AI a fortement chuté, AMD est même tombé à 80, en quelques mois, il est déjà à 300, c'est vraiment sans voix.
Mais il n'y a pas d'autre choix, manquer quelque chose c'est parce qu'on ne comprend pas, ne pas comprendre, apprendre, pratiquer.
En ce qui concerne la puissance de calcul AI, ces trois dernières années ont principalement été consacrées à « l'entraînement » — OpenAI entraînant GPT-4, Anthropic entraînant Claude, Google entraînant Gemini, ce sont toutes des phases d'entraînement.
Les caractéristiques de l'entraînement sont une fois, concentrée, à pic.
Mais chaque fois que vous posez une question à ChatGPT, chaque fois que vous faites écrire un code à Claude, chaque fois que vous utilisez Midjourney pour générer une image — vous n'utilisez pas la puissance de calcul d'entraînement, mais celle d'inférence.
Les caractéristiques de l'inférence sont continues, dispersées, à longue traîne.
Une fois l'entraînement terminé, ce modèle est mis en ligne. Après sa mise en ligne, il répond aux demandes de plusieurs centaines de millions d'utilisateurs 24 heures sur 24.
Après trois mois, la consommation de puissance de calcul de l'entraînement dans le bilan global est devenue invisible — tout est de l'inférence.
Ce changement de niveau me permet d'illustrer avec une comparaison.
En 2023, environ 20 % des dépenses en puissance de calcul AI sont consacrées à l'inférence, en 2024, cette proportion grimpe à 50 %, et d'ici 2026, elle dépasse 55 %, et continue d'augmenter.
Certaines prévisions plus radicales estiment qu'en 2030, l'inférence représentera 70-80 %.
Notez que ce n'est pas parce que la demande d'entraînement diminue — les dépenses absolues d'entraînement continuent d'augmenter, mais l'inférence augmente beaucoup plus vite.
Sur cette grande pente de l'inférence, NVIDIA occupe la première place.
Pour l'année fiscale 2026 (jusqu'en janvier 2026), le chiffre d'affaires du centre de données de NVIDIA est de 194 milliards de dollars, il y a deux ans, ce chiffre était inférieur à 50 milliards.
Une telle croissance n'a jamais été vue dans l'histoire des semi-conducteurs.
L'écosystème CUDA avec cinq millions de développeurs, vingt ans d'accumulation, la consommation simultanée côté entraînement et côté inférence — c'est une véritable monopolisation.
NVIDIA en tête, AMD en deuxième position, Google TPU, Amazon Trainium, Meta MTIA et autres ASIC auto-développés en troisième place — voilà la structure actuelle du marché.
Quelle est la position d'AMD sur cette table de jeu ? C'est la deuxième chaise.
Cette chaise est très importante — sans la deuxième chaise, la première n'a pas de pression pour négocier.
Mais la deuxième chaise n'est pas la première.
Donc, la vraie question devient deux sous-questions :
Première, AMD peut-elle rester assise confortablement sur cette deuxième chaise pendant dix ans ?
Deuxièmement, combien vaut cette chaise une fois stabilisée ?
De plus, AMD a une perspective sous-estimée : l'histoire réelle derrière les 170 000 dollars de MI300X de Meta.
« Rapport de recherche AMD : 10 ans de recul, 300 dollars, est-ce cher ? »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler