Berkeley Haas School of Business a suivi 200 employés du secteur technologique pendant neuf mois, découvrant que les outils d’IA n’ont pas réduit la charge de travail, mais ont plutôt engendré un mode de travail intensif en « multitâche parallèle », où la charge cognitive et le risque d’épuisement augmentent simultanément.
(Précédent : Décryptage de « x402 » : reconstruire la confiance dans le paiement à l’ère de l’IA, la coupe du Graal vers la prochaine civilisation machine)
(Contexte supplémentaire : L’importance de X402 pour les paiements en stablecoin)
Table des matières
Si vous avez lu au cours de l’année passée un quelconque mémorandum d’investissement dans le secteur technologique, vous avez probablement rencontré une narration similaire : l’IA va considérablement augmenter la productivité, permettant aux employés de faire moins de tâches tout en produisant davantage, ce qui fera exploser la marge bénéficiaire des entreprises, et l’humanité pourra enfin consacrer du temps à des travaux « plus créatifs ».
Cette narration paraît séduisante. Mais le problème est… elle pourrait être fausse.
Deux chercheurs de Berkeley, Aruna Ranganathan et Xingqi Maggie Ye, ont publié une étude de neuf mois dans la « Harvard Business Review ». De avril à décembre 2025, ils ont suivi 200 employés d’une entreprise technologique américaine, observant les changements comportementaux après l’intégration d’outils d’IA dans leur travail quotidien.
La conclusion est simple : l’IA n’a pas réduit le travail, elle l’a intensifié.
L’équipe de recherche a constaté que l’introduction d’outils d’IA n’a pas réellement permis aux employés de réduire leur charge ou leurs heures. Au contraire, elle a créé un tout nouveau rythme — le « multitâche parallèle ».
Concrètement : les employés écrivent du code manuellement tout en laissant l’IA générer des versions alternatives ; ils font fonctionner plusieurs agents IA pour traiter différentes tâches en même temps ; ils reprennent même des projets longtemps abandonnés, pensant « de toute façon, l’IA peut s’en occuper en arrière-plan ».
Apparence : une augmentation de la productivité. Plus de projets en cours simultanément, un rythme accéléré. Mais la réalité observée par les chercheurs est la suivante :
« Des changements constants d’attention, des vérifications fréquentes des résultats de l’IA, et une liste de tâches qui ne cesse de s’allonger. Cela crée une charge cognitive, ainsi qu’un sentiment permanent de juggling — même si le travail semble productif. »
En d’autres termes, les employés font effectivement plus de choses. Mais ils sont aussi plus fatigués. Et cette fatigue n’est pas celle d’un « travail efficace » en fin de journée, mais celle d’un « sentiment d’être vidé » après coup.
Les données de Berkeley proviennent d’entreprises, mais ce même mode de fonctionnement se manifeste aussi en dehors des murs de l’entreprise.
Simon Willison, développeur reconnu, a relayé cette étude sur son blog personnel, admettant que ses propres expériences rejoignent fortement ces conclusions. En tant que praticien actif des grands modèles de langage (LLM), il partage publiquement ses workflows utilisant l’IA. Il indique qu’il peut simultanément avancer sur deux ou trois projets parallèles, avec une charge de travail bien supérieure à avant.
Mais le prix à payer : il s’épuise en une à deux heures.
Il a aussi observé chez d’autres développeurs un phénomène similaire : certains, motivés par « un prompt de plus », écrivent jusqu’à 3 heures du matin, impactant gravement leur sommeil. Ce n’est pas du simple dépassement d’horaire, c’est comme jouer à un jeu vidéo sans sauvegarde — on sait qu’il faut arrêter, mais le prochain niveau est trop tentant.
Lorsque la recherche académique et l’expérience pratique convergent vers la même conclusion, ce n’est pas un cas isolé, mais une problématique structurelle.
L’insight clé de l’équipe de recherche n’est pas tant que « l’IA rend plus fatigué », mais leur diagnostic : l’organisation manque de cadres structurés pour l’usage de l’IA.
La majorité des entreprises, lors de l’intégration d’outils d’IA, se contente d’acheter des licences, de créer des comptes, et de fournir un PDF avec un « cadre optimal », en espérant que les employés découvrent eux-mêmes la meilleure façon de faire. C’est comme monter un moteur turbo sur un vélo, puis dire au cycliste « à toi de voir ».
Les chercheurs recommandent : les entreprises doivent établir un cadre pratique formel pour l’IA, définir clairement dans quels scénarios l’utiliser, dans quels cas s’en abstenir, et comment distinguer « une vraie augmentation d’efficacité » d’un simple effort supplémentaire pour rester au même niveau.
Mettons cette conclusion dans un contexte plus large.
Au cours de l’année écoulée, « l’IA augmente la productivité » a été l’un des principaux moteurs de la valorisation des entreprises technologiques. De Nvidia à Microsoft, d’OpenAI à de jeunes startups d’IA, toute la chaîne de valeur suppose : l’IA va multiplier par 2 à 10 la production de chaque travailleur du savoir, permettant aux entreprises de faire plus avec moins, et d’accroître leur marge.
Mais si la recherche de Berkeley est correcte, si l’effet réel de l’IA n’est pas « faire moins » mais « faire plus, mais plus fatigué », alors cette logique de valorisation doit être révisée.
L’augmentation de la productivité et l’intensification du travail ne sont pas la même chose. La première réduit les coûts et augmente les profits ; la seconde peut augmenter la production à court terme, mais à long terme, elle peut conduire à l’épuisement, à une rotation du personnel, et à une dégradation de la qualité. Si l’on applique la découverte de Berkeley à la gestion d’entreprise, l’IA pourrait ne pas augmenter la marge, mais redistribuer la structure des coûts humains : coûts de formation plus élevés, dépenses accrues en santé mentale, coûts de remplacement plus importants.
Cela ne veut pas dire que l’IA n’a pas de valeur. Elle en a, évidemment. Mais sa valeur pourrait ne pas résider dans « faire moins », mais dans « faire différemment ». Et faire différemment ne signifie pas forcément plus facile.
L’étude implique aussi une dimension peu discutée : la période d’adaptation. Willison souligne que la diffusion rapide de l’IA entre 2023 et 2025 oblige le secteur de la connaissance à réapprendre comment travailler en deux ans.
Ce réapprentissage ne se produira pas automatiquement. Il nécessite une conception organisationnelle consciente, une mise à jour des mentalités managériales, et surtout : reconnaître que « produire plus » et « travailler mieux » sont deux choses totalement différentes.
Silicon Valley aime parler de « 10x engineers » pour désigner des ingénieurs exceptionnellement productifs. L’IA promet de faire de chacun un « 10x ». Mais cette étude nous dit peut-être que ce que l’on obtient, ce n’est pas 10 fois plus d’efficacité, mais 10 fois plus de fatigue… Qu’en pensez-vous ?