
Le débat autour du rapport « Crise mondiale de l’intelligence 2028 » se focalise souvent sur une question centrale : l’IA provoquera-t-elle un effondrement systémique de l’économie mondiale en 2028 ?
Cette interrogation est par nature dramatique. Cependant, se limiter au dilemme « effondrement ou non » revient à négliger des variables structurelles majeures. L’enjeu réel ne réside pas dans le résultat macroéconomique d’une année donnée, mais dans l’évolution du rôle de l’humanité au sein du système économique, à mesure que l’IA devient l’outil principal de productivité.
Sur le plan économique, les révolutions technologiques modifient profondément la pondération des facteurs dans la fonction de production.
La transformation majeure ne concerne pas seulement l’efficacité accrue, mais « qui détient la plus grande part dans la création de valeur ».
Si les tâches cognitives — analyse, modélisation, génération de contenu, codage, prise de décision de processus — sont de plus en plus assurées par l’IA, la part du revenu du travail dans la production totale risque de diminuer, tandis que les rendements du capital augmentent. Cela aura un impact direct sur la structure des revenus, la mobilité sociale et la capacité de consommation. Ainsi, la disruption liée à l’IA s’apparente davantage à un ajustement de redistribution qu’à une simple évolution technologique.
Les crises financières systémiques nécessitent généralement une rupture de la chaîne de crédit, de graves déséquilibres entre actifs et passifs, et un effet de levier excessif. Historiquement, les grandes crises résultent de déséquilibres internes au système financier, et non d’outils de productivité.
L’IA constitue une innovation technologique qui améliore la productivité. Elle peut modifier la structure des profits et l’emploi, mais n’altère pas fondamentalement la qualité des actifs bancaires ni le fonctionnement du système de crédit.
Par ailleurs, la diffusion technologique rencontre des obstacles concrets :
Même si les modèles d’IA progressent rapidement, leur remplacement à grande échelle dépend de transformations organisationnelles. Cette « friction institutionnelle et organisationnelle » agit comme un amortisseur.
À court terme, il est plus probable d’observer une différenciation sectorielle et une réévaluation des profits qu’une défaillance soudaine du système de crédit mondial.
Les déséquilibres structurels constituent un risque plus crédible qu’un effondrement total.
Le premier déséquilibre provient de la structure des compétences. Une grande partie de la main-d’œuvre actuelle a été formée dans un contexte où « la cognition humaine était rare ». Si l’analyse standardisée et les tâches génératives sont automatisées, ces compétences devront être revalorisées.
Le second déséquilibre concerne la structure des revenus. Si les gains de productivité liés à l’IA se concentrent chez les détenteurs de puissance de calcul et de plateformes technologiques, alors que le pouvoir de négociation du travail recule, la demande des consommateurs pourrait être fragilisée.
Le troisième déséquilibre résulte de la gestion des attentes. Les marchés de capitaux anticipent souvent la croissance pour la décennie à venir. Lorsque les résultats réels déçoivent, les corrections de valorisation accentuent la volatilité.
Ces risques peuvent se conjuguer pour provoquer des turbulences périodiques. Cependant, turbulence et effondrement sont deux concepts fondamentalement distincts.
La substitution technologique suit généralement une logique de « remplacement des tâches » plutôt qu’une disparition totale des emplois.

Un emploi regroupe plusieurs tâches, dont certaines peuvent être automatisées, tandis que d’autres nécessitent un jugement et une coordination humains. Les évolutions les plus probables sont :
À court terme, les entreprises ajusteront leur effectif par une réduction des recrutements, une consolidation des postes et une attrition naturelle, plutôt que par un remplacement massif ponctuel. À long terme, la valeur du travail cognitif standardisé va diminuer, tandis que celle des compétences en jugement complexe et en intégration de systèmes va croître.
Les systèmes éducatifs et de formation devront donc évoluer vers :
plutôt que la simple mémorisation et le calcul de formules.
Si la puissance de calcul et les données deviennent des actifs de production majeurs, les propriétaires d’infrastructures et de ressources algorithmiques bénéficieront d’un pouvoir de négociation renforcé.
Cela pourrait entraîner deux conséquences :
Les précédents historiques montrent qu’à mesure que la concentration technologique augmente, les institutions s’ajustent. Les questions de concurrence, de réforme fiscale et de normes industrielles pourraient devenir des sujets de débat.
En résumé, l’expansion technologique et la restructuration institutionnelle évoluent généralement de concert.
À mesure que les machines surpassent largement les humains en rapidité et en précision, la valeur humaine ne disparaît pas — elle se déplace vers des domaines plus stratégiques.
Parmi ceux-ci :
L’IA fournit des résultats computationnels, mais « le choix du chemin » reste une décision institutionnelle et politique. Le rôle humain pourrait alors évoluer d’exécutant à participant dans la prise de décision et l’autorisation.
Selon les lois de diffusion technologique et les mécanismes macroéconomiques, les scénarios les plus plausibles sont :
Ces évolutions s’apparentent davantage à un remaniement structurel qu’à un effondrement économique. En cas de crise, elle découlerait plus probablement de bulles d’actifs et d’un effet de levier excessif que de l’IA elle-même.
Le véritable défi de l’ère de l’IA réside dans la gestion de la période de transition.
Durant cette phase :
Les politiques et institutions doivent trouver un équilibre entre efficacité et stabilité.
Quelle que soit l’approche, une trajectoire durable dépend de gains de productivité réels et d’une adéquation de la demande — et non d’incitations durablement distordues.
La « Crise mondiale de l’intelligence 2028 » propose un scénario à fort impact qui permet d’envisager des risques extrêmes. D’un point de vue macroéconomique et historique, l’IA devrait conduire à une transformation structurelle de long terme plutôt qu’à une destruction systémique à court terme.
La vraie question n’est pas : l’IA va-t-elle détruire l’économie ?
Mais : lorsque la capacité cognitive n’est plus rare, comment l’humanité redéfinira-t-elle la valeur, la distribution et les structures de pouvoir ?
La technologie est neutre. L’avenir dépend des choix institutionnels, des stratégies éducatives et de l’allocation du capital. L’ère de l’IA n’est pas une fin, mais le début d’un nouvel ordre.





