Les agents d’IA arrivent dans nos outils de travail comme une promesse de gain de temps, de créativité et d’autonomie. Présentés comme des “copilotes” ou des “collègues virtuels”, ils s’intègrent désormais aux suites bureautiques, aux dossiers médicaux électroniques et aux plateformes de relation client. Pourtant, derrière le discours d’optimisation se dessine un paysage plus contrasté : pour une large partie des salariés, l’IA génère aujourd’hui plus de charge mentale qu’elle n’en retire.
Cette ambivalence nourrit une question centrale pour l’avenir du travail du savoir : les agents d’IA sont-ils un levier d’autonomie ou une nouvelle source de surcharge cognitive et émotionnelle ? À partir d’études récentes (Upwork Research Institute, Workplace Intelligence, Quantum Workplace, travaux sur Copilot, Almanac Copilot, Pro‑Pilot, etc.), cet article propose de démêler les promesses des réalités, et de montrer que tout se joue moins dans la technologie elle‑même que dans la façon dont on l’intègre aux organisations.
1. Quand l’IA ajoute une couche cachée de travail
Une étude mondiale menée par l’Upwork Research Institute et Workplace Intelligence (2 500 répondants) met en lumière un paradoxe frappant : 77 % des employés qui utilisent l’IA déclarent que celle‑ci a augmenté leur charge de travail plutôt que de la réduire. Loin de se traduire mécaniquement par des gains de temps, l’arrivée des agents d’IA impose une nouvelle série de micro‑tâches : relire, corriger, modérer les contenus générés, apprendre des interfaces changeantes, adapter ses méthodes de travail. Cette “couche invisible” vient se greffer au travail noyau au lieu de s’y substituer.
Dans le détail, 39 % des répondants disent passer davantage de temps à relire et modérer les contenus produits par l’IA, tandis que 23 % déclarent investir plus de temps dans l’apprentissage des outils. On assiste ainsi à une forme de « double travail » : produire ou décider… puis superviser ce qu’a produit la machine. Cette supervision n’est pas neutre cognitivement : elle exige vigilance, sens critique et responsabilité juridique ou éthique, souvent sans réduction formelle des objectifs ou de la charge initiale.
Les mêmes enquêtes montrent un climat de tension généralisé : 71 % des employés à temps plein se disent en situation de burnout, 65 % peinent à suivre les exigences croissantes de productivité et un salarié sur trois envisage de quitter son poste dans les six prochains mois. L’IA ne crée pas ces dynamiques à elle seule, mais elle s’y insère dans des systèmes déjà tendus, où chaque “gain de temps” se traduit trop souvent par un accroissement des attentes plutôt que par un allègement réel.
2. L’écart dirigeants, salariés : la promesse de productivité face au vécu de surcharge
Les mêmes données mettent en évidence un fossé grandissant entre la vision des dirigeants et l’expérience des employés. Plus de 96, 98 % des dirigeants interrogés affirment que l’IA va booster la productivité de leur organisation. Dans leurs discours, les agents d’IA deviennent un levier stratégique pour “faire plus avec moins”, rester compétitif et absorber la complexité croissante des marchés. Mais ces projections se déploient souvent sur un modèle d’organisation du travail pratiquement inchangé.
Du côté des salariés, le ressenti est nettement différent : l’IA s’accompagne d’une intensification du travail, d’une accélération du rythme et d’un renforcement des attentes. Là où les dirigeants imaginent un transfert de certaines tâches répétitives vers les agents autonomes, les employés constatent surtout la multiplication des livrables, des itérations et des canaux de communication , désormais dopés à l’IA. Le résultat : une infiltration de la logique « toujours plus vite, toujours plus » dans chaque recoin de l’activité quotidienne.
Ce décalage s’explique en grande partie par une erreur de conception : introduire des outils d’IA dans des organisations sans questionner les objectifs, les moyens et les marges de manœuvre des équipes. Tant que les gains de productivité potentiels ne sont pas explicitement convertis en réduction de charge, en temps de récupération ou en espace pour la qualité, ils sont spontanément “captés” par le système sous forme de nouvelles demandes. L’IA n’apparaît alors ni comme un levier d’autonomie, ni comme un allié, mais comme un amplificateur de pression.
3. Burnout et usage intensif d’IA : un risque sous‑estimé
Les chiffres issus de la base Quantum Workplace , plus de 700 000 employés dans 8 000 organisations , rappellent que l’IA ne constitue pas une solution magique au burnout. Les employés qui utilisent fréquemment l’IA présentent un taux de burnout élevé de 45 %, contre 35 % chez ceux qui ne l’utilisent jamais. Autrement dit, les “gros utilisateurs” d’IA sont aujourd’hui plus exposés à l’épuisement que les autres, ce qui invite à dépasser l’idée selon laquelle la technologie allégerait mécaniquement la fatigue mentale.
Des psychologues du travail comparent l’IA à l’eau : ni bonne ni mauvaise en soi, mais pouvant devenir délétère en cas d’usage intensif et mal régulé. Lorsqu’une organisation compense les gains de productivité individuels par une augmentation des objectifs plutôt que par une réduction de la charge, l’IA se comporte comme une “épée” plutôt que comme un “bouclier”. Elle accélère le rythme, densifie les journées et pousse les individus à rester cognitivement mobilisés en continu.
Des praticiens de la santé mentale vont plus loin, en décrivant l’usage intensif des outils d’IA comme l’équivalent de “neuf heures à la salle de sport” pour le cerveau chaque jour. Surchauffe attentionnelle, tentation de tester sans fin des prompts, flux ininterrompu de suggestions et de corrections : cette gym cérébrale permanente réduit les temps de récupération mentale, indispensables à la consolidation des apprentissages, à la créativité et simplement au repos psychique. Sans régulation explicite, les agents d’IA peuvent ainsi devenir des moteurs de surstimulation plus que de simplification.
4. Quand les agents d’IA allègent vraiment la charge : l’exemple des tâches bien définies
À l’inverse, plusieurs études montrent que l’IA peut véritablement réduire la charge cognitive lorsque les tâches sont claires, standardisées et bien encadrées. L’étude “Almanac Copilot” (2024) illustre ce potentiel avec un agent autonome capable de naviguer dans les dossiers médicaux électroniques (EHR), de retrouver des informations et de préparer des ordonnances. Sur 300 requêtes cliniques courantes, l’agent atteint 74 % de réussite, avec pour objectif explicite de réduire la fatigue documentaire des cliniciens, déjà éprouvés par l’“alert fatigue” et la lourdeur des systèmes EHR.
Dans ce cas, l’agent d’IA agit comme un filtre et un assistant documentaire qui automatise une part nettement délimitée du travail cognitif : rechercher dans des bases de données, pré‑remplir des formulaires, structurer des informations objectives. Le clinicien conserve la décision finale et le jugement clinique, mais délègue à l’IA une portion précise, répétitive et formalisable de la tâche. La valeur ajoutée est tangible : moins de clics, moins de navigation, moins de charge de mémoire de travail.
Cette logique se retrouve dans une étude expérimentale de 2025 sur Copilot pour Microsoft Word. Pour des tâches objectives, comme des exercices de compréhension de texte de type SAT, l’assistant d’IA réduit la charge de travail perçue, augmente les performances et renforce le plaisir au travail. En d’autres termes, quand la définition du “bon résultat” est claire, la délégation à l’IA devient un véritable levier d’autonomie : l’utilisateur peut se concentrer sur l’interprétation, la décision ou la stratégie, pendant que l’agent traite les aspects procéduraux.
5. Tâches créatives, identitaires et émotionnelles : l’IA entre aide et perturbation
La même étude sur Copilot souligne toutefois que le bénéfice de l’IA varie fortement avec la nature de la tâche. Pour des activités créatives, comme la rédaction de poésie, les participants déclarent une baisse de la charge perçue , l’IA fournit des idées, des formulations, des variations , mais sans gain de performance mesurable. Sur les tâches très subjectives ou identitaires (auto‑réflexion, introspection), aucun bénéfice net n’est observé : l’IA peut même brouiller la frontière entre ce que l’on pense vraiment et ce que la machine propose.
Dans ces domaines, l’agent d’IA risque d’ajouter une couche de métacognition : il faut se demander si le texte reflète vraiment son intention, si l’on se reconnaît dans ce qui est produit, s’il n’y a pas une forme de décalage ou de trahison de soi. Au lieu de libérer l’esprit, l’outil introduit un doute permanent sur l’authenticité du résultat. La charge ne vient plus seulement de la tâche, mais de l’arbitrage constant entre soi et la machine.
Le prototype Pro‑Pilot (2024), conçu comme un “coworker empathique” pour les représentants en front‑office, illustre cette ambiguïté. D’un côté, les réponses générées par l’IA face à des clients incivils sont jugées plus sincères et plus actionnables que celles d’humains, et les entretiens indiquent qu’il aide les agents à se recentrer, à éviter la rumination négative et à alléger une partie du travail émotionnel. De l’autre, les participants soulignent que l’IA ne peut pas remplacer le soutien humain et qu’elle soulève des questions de surveillance et d’authenticité : qui parle vraiment au client ? Qui porte la responsabilité émotionnelle de la relation ?
6. Copilotes intégrés au travail de la connaissance : autonomie sous condition
Une étude qualitative menée sur l’usage de M365 Copilot pendant six mois dans une organisation apporte un regard nuancé sur les gains réels au quotidien. Les utilisateurs apprécient fortement l’aide à la rédaction d’e‑mails, à la synthèse de réunions ou à la recherche de contenu. sur ces tâches répétitives, l’IA permet de gagner du temps et de réduire la monotonie, donnant le sentiment d’avoir un assistant polyvalent à portée de main. Pour beaucoup, c’est un premier pas concret vers plus d’autonomie sur la gestion du temps et des priorités.
Mais cette expérience révèle aussi des zones de déception : dès que les tâches exigent une compréhension fine du contexte, un raisonnement complexe ou une intégration fluide aux flux de travail existants, les limites de l’IA apparaissent. Les utilisateurs doivent alors vérifier systématiquement les sorties, recouper les informations, corriger des malentendus subtils. Ce besoin de supervision permanente réduit le gain d’autonomie annoncé et crée un nouveau type de “surveillance cognitive continue”, où l’esprit reste en alerte face aux erreurs possibles de la machine.
Autrement dit, les copilotes intégrés au travail de la connaissance sont efficaces pour gratter des minutes, moins pour transformer en profondeur l’expérience du travail. Sans redéfinition des rôles, des objectifs et des marges de manœuvre, ils risquent de rester au stade d’outils d’optimisation locale plutôt que de vecteurs d’émancipation. Le salarié ne devient pas “copilote” de l’IA ; il devient parfois le contrôleur qualité d’une chaîne automatisée qui a surtout déplacé la charge plutôt que de l’alléger.
7. L’IA au service de la santé au travail : bouclier conditionnel contre le burnout
Au‑delà de l’assistance directe à la tâche, certains usages de l’IA se positionnent explicitement comme outils de prévention du burnout. Un reportage de 2025 met en avant des entreprises IT qui utilisent des systèmes d’IA pour analyser des signaux de surmenage : heures travaillées, engagement sur les plateformes collaboratives, baisse d’interactions, retards récurrents. Ces organisations rapportent une baisse de 25 % de l’épuisement émotionnel, avec des modèles capables d’identifier environ 30 % des personnes à risque et de recommander des réallocations de charge ou des pauses ciblées.
Ces résultats montrent que l’IA peut devenir un véritable allié pour objectiver des signaux faibles souvent invisibles aux managers et permettre des interventions plus précoces. Cependant, les experts insistent sur une condition non négociable : ces systèmes doivent s’inscrire dans une politique de santé au travail cohérente, qui prévoit du temps de repos “non optimisé”, des marges de manœuvre réelles et la garantie que les gains ne seront pas immédiatement réinvestis dans davantage de tâches.
Le risque, sinon, est de transformer ces outils en dispositifs de contrôle déguisés : mesurer finement le surmenage pour ensuite calibrer la charge… au plus près du seuil de rupture, au lieu de le faire redescendre durablement. L’IA, dans ce cas, deviendrait un moyen de pousser plus loin la productivité en frôlant en permanence la limite humaine, au lieu de jouer le rôle de bouclier protecteur que beaucoup lui prêtent aujourd’hui.
8. Vers des agents d’IA vraiment autonomisants : pistes de conception et de gouvernance
Pour que les agents d’IA deviennent un levier d’autonomie plutôt qu’une nouvelle source de charge mentale, plusieurs principes de conception et de gouvernance se dégagent des études récentes. Le premier est la clarté des tâches déléguées : plus une activité est définissable, standardisable et objectivable, plus l’agent peut l’assumer de bout en bout sans exiger une supervision lourde. L’exemple d’Almanac Copilot dans les EHR ou des tâches objectives avec Copilot Word illustre ce “sweet spot” où l’IA soulage réellement la charge cognitive.
Le deuxième principe concerne la redistribution explicite des gains de productivité. Les organisations qui veulent éviter l’“effet épée” doivent s’engager à convertir une partie des gains en réduction de charge, temps de récupération, formation ou amélioration de la qualité, plutôt qu’en augmentation systématique des objectifs. Sans cet engagement, l’IA restera perçue comme un outil d’intensification du travail, quel que soit son niveau de sophistication technique.
Enfin, un troisième principe porte sur la transparence et le droit à la déconnexion cognitive. Les salariés ont besoin de savoir quand ils interagissent avec un agent autonome, de comprendre ses limites, de pouvoir choisir le niveau de délégation et de s’accorder des temps “sans IA” pour préserver leur capacité de concentration profonde et de réflexion personnelle. Instituer des zones ou des moments sans assistance numérique devient, paradoxalement, une condition pour bénéficier pleinement des apports de l’IA le reste du temps.
Au final, les agents d’IA ne sont ni la baguette magique de la productivité, ni la cause unique de la fatigue contemporaine : ils agissent comme des amplificateurs des environnements dans lesquels on les déploie. Dans des organisations qui tolèrent déjà la surcharge, ils intensifient le rythme, fragmentent l’attention et alimentent le sentiment de devoir tout superviser. Dans des contextes qui pensent la santé au travail, la clarté des tâches et la redistribution des gains, ils peuvent au contraire réduire la paperasse, le travail émotionnel et une partie de la complexité inutile.
La vraie question n’est donc pas de savoir si l’IA est un levier d’autonomie ou une nouvelle charge mentale, mais sous quelles conditions elle bascule de l’un à l’autre. Ce basculement se joue dans des décisions très concrètes : quels types de tâches confier aux agents, quelles marges de manœuvre accorder aux équipes, quel usage faire des gains de productivité, et quelle place laisser au repos non optimisé. Tant que ces questions ne sont pas traitées explicitement, les salariés resteront coincés entre l’espoir d’un copilote libérateur et l’expérience d’une gym cérébrale permanente.
















