Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
« Nvidia份额只剩48%,推理大时代机会在哪? »
Ceci est le neuvième article de la série AI Investment Research en 100 articles, 20 000 mots, il est conseillé de le sauvegarder d’abord, peu de gens pourront le finir.
Les premiers articles ont porté sur Intel, AMD, ARM. Leurs cours en bourse ont tous connu une forte hausse l’année dernière — AMD a doublé, Intel a triplé, ARM a aussi atteint un sommet historique. Après cette hausse, une question simple est apparue : peut-on encore tenir ces actions qui ont déjà augmenté ? Y a-t-il encore des opportunités dans celles qui n’ont pas encore monté ?
Pour répondre à cette question, un mot-clé incontournable est — le raisonnement. Dans l’analyse précédente, ces deux mots revenaient fréquemment lorsque l’on parlait de la montée de ces entreprises.
Alors : quelle est l’ampleur du secteur du raisonnement ? À quel stade en est-on actuellement ? Quelles entreprises en bénéficieront ? Quelles sont déjà valorisées par le marché, lesquelles ne le sont pas ?
C’est une compréhension essentielle à avoir en premier.
1. Quelle est la taille du secteur
L’entraînement de modèles est « écrire un programme », le raisonnement est « le processus par lequel ce programme est appelé chaque jour ». Après l’entraînement de GPT, des centaines de millions de personnes lui posent des questions chaque jour, chaque interaction consomme de la puissance de calcul pour le raisonnement. Claude Code exécute une tâche, un agent tourne en boucle 100 fois, chaque boucle étant un raisonnement.
De nombreuses études sectorielles et médias convergent vers une même idée : après la mise en production des modèles, le raisonnement deviendra la majeure partie du coût du cycle de vie, avec une estimation courante entre 80 et 90 %. Autrement dit, dans la facture de puissance de calcul de l’ère de l’IA à venir, 8 euros sur 10 seront consacrés au raisonnement.
Mais ces trois dernières années, le marché a presque exclusivement discuté de l’entraînement, car c’est une histoire plus « sexy » — combien de H100, combien de paramètres, qui entraîne la prochaine génération de modèles en premier. Le raisonnement était considéré comme une étape secondaire après l’entraînement.
Ce biais cognitif est en train d’être corrigé, et c’est la raison fondamentale pour laquelle ces semi-conducteurs ont été réévalués au cours de la dernière année.
Mais quelle est réellement la taille du secteur du raisonnement ? On peut l’estimer selon 5 angles précis.
Premier : le nombre d’utilisateurs. ChatGPT a 900 millions d’utilisateurs actifs hebdomadaires, 50 millions payants. La comparaison en Chine est plus directe — le volume d’appels par token par jour est passé de 100 milliards début 2024 à 140 trillions en 2026, soit une multiplication par 1400. Ce secteur n’est pas du tout saturé.
Deuxième : l’intensité d’utilisation. Le volume de tokens traités par OpenAI était de 6 milliards par minute en octobre 2025, il est passé à 15 milliards en avril 2026 — en six mois, multiplié par 2,5. Plus de 40 % des revenus proviennent de la version entreprise, et l’utilisation par les entreprises est plusieurs dizaines de fois plus intense que celle des consommateurs.
Troisième : la longueur des dialogues. La longueur du contexte est passée de quelques centaines de tokens dans les premiers temps à 1 million dans la documentation API de DeepSeek V4 Pro / Flash, avec une sortie maximale de 384 000. Plus le contexte est long, plus la consommation de mémoire et de puissance pour un seul raisonnement est élevée.
Quatrième : la puissance de calcul nécessaire pour le modèle lui-même augmente. Les modèles de raisonnement comme OpenAI o1, DeepSeek R1, Claude Thinking, avant de répondre, doivent d’abord « réfléchir » en interne sur plusieurs milliers voire dizaines de milliers de tokens. Jensen Huang a mentionné, en prenant DeepSeek R1 comme exemple, que le raisonnement pourrait nécessiter une charge de calcul bien plus grande, jusqu’à cent fois plus.
Autrefois, poser une question à l’IA lui faisait obtenir une réponse immédiate ; aujourd’hui, pour une question complexe, l’IA doit d’abord « réfléchir » une demi-minute avant de répondre. Ce « temps de réflexion » supplémentaire correspond à une consommation accrue de puissance.
Cinquième : les agents. Une tâche d’agent nécessite généralement 10 à 100 appels au modèle. Le volume hebdomadaire d’OpenAI Codex dépasse déjà 3 millions — ce n’est qu’un produit parmi d’autres d’une seule entreprise. Selon un expert de la chaîne de valeur IA, la consommation totale de puissance des agents intelligents pourrait dépasser de plus de 10 fois celle des grands modèles de langage de même taille.
En multipliant ces cinq facteurs, la demande totale en raisonnement pourrait connaître une expansion de plusieurs ordres de grandeur en trois à cinq ans, ce qui n’est pas une exagération mais une tendance de plus en plus majoritaire.
En économie, il existe un vieux phénomène appelé le paradoxe de Jevons — lorsque l’efficacité d’utilisation d’un bien s’améliore, la consommation totale augmente en réalité, car le coût baisse, ce qui incite à plus d’usages. Après l’amélioration de l’efficacité de la machine à vapeur, la consommation de charbon en Angleterre a explosé ; après la baisse du prix du token de raisonnement, le nombre d’appels à l’IA a augmenté de façon exponentielle. C’est le même scénario. Selon l’IEA, la consommation électrique mondiale des centres de données passera de 1,5 % de la consommation totale en 2024 à près du double, soit 945 TWh en 2030 — à peu près la consommation annuelle combinée de l’Allemagne et de la France.
De plus, les actions concrètes dans l’industrie renforcent cette thèse :
Anthropic voit son ARR passer de 1 milliard de dollars fin 2024 à 30 milliards début 2026 — en 14 mois, multiplié par 30. Pour soutenir cette croissance, la société a réservé plus de 11 GW de puissance de calcul fin 2025 à début 2026, incluant une commande de TPU pour 21 milliards de dollars auprès de Broadcom. OpenAI a déjà promis de déployer 10 GW de puces sur mesure. Google a relevé son objectif de livraison de TPU à 6 millions d’unités en 2026, soit une hausse de 50 %.
Les dépenses en capital des fournisseurs de cloud sont également très révélatrices. Google prévoit un investissement de 175 à 185 milliards de dollars en 2026, presque le double de 2025 ; Amazon investira 200 milliards de dollars ; Meta prévoit une augmentation de 65 %, atteignant 118 milliards. Au total, les huit principaux fournisseurs de cloud dépenseront plus de 600 milliards de dollars en 2026, soit une croissance annuelle de 40 %.
En rassemblant tout cela, la conclusion est simple : la courbe de demande en raisonnement pour l’IA dépasse déjà la capacité d’approvisionnement de tout fournisseur de matériel.
C’est la réalité fondamentale du secteur du raisonnement : à l’époque de l’entraînement, on « crée un dieu » ; à l’ère du raisonnement, ce dieu est appelé par des centaines de millions de personnes chaque jour, chaque agent l’utilise 100 fois, chaque fois pour réfléchir sur des dizaines de milliers de tokens. La transition de l’un à l’autre ne se traduit pas par une augmentation linéaire de la consommation, mais par une croissance exponentielle.
2. Quelles actions bénéficieront ?
Un secteur vaste ne signifie pas que toutes les entreprises en profiteront, et la domination exclusive de Nvidia commence à s’éroder !
En 2026, la part de marché mondiale des puces d’inférence IA de Nvidia sera d’environ 48,2 %, AMD représentera environ 16,7 %, le camp ASIC totalisera environ 18,5 % (dont Google TPU à 7,8 %, AWS Inferentia à 5,2 %, autres ASIC à 5,5 %), et les puces d’origine nationale représenteront 16,6 %.
Nvidia conserve plus de 80 % de parts dans le marché de l’entraînement, mais dans celui de l’inférence, elle ne détient plus que moins de la moitié, à 48,2 %.
Pourquoi ce changement ?
À l’époque de l’entraînement, Nvidia s’appuyait sur sa force globale — GPU haute performance + interconnexion NVLink + écosystème CUDA. Cette combinaison permettait de dominer le marché de l’entraînement.