L’idée qu’une intelligence artificielle puisse “mesurer” la charge mentale au travail séduit de nombreuses organisations. Sur le papier, ces outils promettent de détecter la surcharge, d’anticiper l’épuisement, d’optimiser la répartition des tâches et d’objectiver des situations souvent difficiles à nommer. Mais en santé mentale comme en psychologie du travail, ce qui semble mesurable n’est pas toujours fidèlement interprétable. La charge mentale ne se réduit ni à un flux de clics, ni à une cadence, ni à des signaux comportementaux isolés.
En 2025, la question n’est donc plus seulement de savoir si l’IA entre dans le monde du travail, mais comment préserver l’autonomie quand elle sert à surveiller, classer, prédire ou évaluer. Les données européennes récentes montrent une progression rapide de la numérisation et de l’IA, mais aussi une montée des inquiétudes liées à la vie privée, à l’intensité du travail et à la perte de marge de manœuvre. Préserver l’autonomie face aux évaluations d’IA de la charge mentale suppose un cadre à la fois psychologique, éthique et juridique.
Pourquoi l’évaluation algorithmique de la charge mentale pose un problème spécifique
La charge mentale est une réalité complexe, située, et profondément relationnelle. Elle dépend du volume de tâches, bien sûr, mais aussi de leur fragmentation, des interruptions, de l’incertitude, du manque de reconnaissance, des conflits de rôle et du sentiment de ne plus pouvoir décider de son rythme. Lorsqu’un système d’IA prétend l’évaluer, il simplifie souvent cette complexité en indicateurs indirects : temps de connexion, délais de réponse, activité numérique, flux de production ou disponibilité apparente.
Cette réduction peut être trompeuse. Une personne très active numériquement n’est pas nécessairement en surcharge, et une personne plus lente n’est pas forcément moins engagée. En clinique du travail, on sait qu’une partie importante de la souffrance provient justement du décalage entre le travail réel et les indicateurs qui prétendent le représenter. Plus l’outil est présenté comme “objectif”, plus il risque de rendre invisibles les dimensions qualitatives de l’expérience psychique.
Le problème devient plus aigu lorsque l’outil ne se contente pas d’observer, mais influence l’organisation du travail : répartition des tâches, appréciation de la performance, déclenchement d’alertes, voire décisions de gestion RH. Dans ces cas, l’évaluation algorithmique de la charge mentale peut devenir prescriptive. Elle ne décrit plus seulement l’activité ; elle façonne les comportements attendus, parfois au prix d’une adaptation forcée des salariés au système.
Ce que disent les données européennes récentes sur autonomie et stress
Les chiffres récents confirment que cette discussion n’a rien d’abstrait. Une enquête du Centre commun de recherche de la Commission européenne menée en 2024-2025 auprès de 70 316 travailleurs dans les 27 États membres indique que 90 % utilisent des outils numériques au travail et 30 % des outils d’IA. Le rapport souligne aussi des enjeux croissants de vie privée, d’autonomie et d’intensité du travail, avec des corrélations entre certaines formes de plateformisation, un stress accru et une autonomie réduite.
Autrement dit, l’essor des outils numériques ne produit pas automatiquement un travail plus soutenable. Il peut aussi intensifier les exigences, augmenter la surveillance et réduire la capacité de décider comment, quand et dans quel ordre réaliser ses tâches. Même sans “IA forte”, la surveillance numérique et le management algorithmique reconfigurent déjà les conditions psychologiques du travail. C’est un point essentiel : le risque ne vient pas seulement de technologies spectaculaires, mais de dispositifs ordinaires qui orientent en continu l’activité.
L’OCDE, dans son rapport de février 2025 sur le management algorithmique, va dans le même sens. Elle conclut que ces outils sont fortement associés à une baisse de l’autonomie au travail, ainsi qu’à une hausse du stress, de la surveillance détaillée, de l’insatisfaction professionnelle, des charges perçues et parfois de l’insécurité professionnelle. Les effets délétères sur le bien-être ne sont donc pas théoriques ; ils apparaissent déjà dans les enquêtes de terrain.
Quand l’IA prétend inférer l’état mental : une ligne rouge européenne
Un point mérite une attention particulière : les systèmes qui prétendent déduire l’état émotionnel ou mental d’un travailleur à partir de signaux comportementaux, physiologiques ou biométriques. Dans le débat public, ces technologies sont parfois présentées comme des outils de prévention du stress. En réalité, elles posent un problème majeur de validité scientifique, de vie privée et de liberté psychique. Être observé comme si son intériorité pouvait être décodée par machine modifie profondément le rapport à soi et au travail.
Le cadre européen a tracé ici une limite claire. Le Parlement européen a explicitement indiqué que l’emotion recognition in the workplace fait partie des usages interdits par l’AI Act. Cette interdiction est particulièrement importante pour la préservation de l’autonomie, car elle empêche qu’un employeur ou une plateforme s’autorise à inférer la fatigue, la détresse, la motivation ou la disponibilité émotionnelle d’une personne à partir de signaux interprétés par une IA.
Ces interdictions s’appliquent déjà depuis le 2 février 2025 pour les dispositions concernées, comme le rappelle le résumé officiel EUR-Lex. Cela signifie qu’en matière d’évaluations intrusives de la charge mentale, les protections ne relèvent pas seulement d’un horizon réglementaire futur. Une partie du cadre est déjà en vigueur. Pour les professionnels comme pour les salariés, c’est un repère concret : toute promesse technologique de “lecture” émotionnelle au travail doit être abordée avec une extrême prudence, et souvent refusée.
Les systèmes d’évaluation des travailleurs sont considérés comme à haut risque
Au-delà des usages interdits, de nombreux systèmes d’IA utilisés pour affecter, surveiller ou évaluer des travailleurs sont classés comme “à haut risque” dans l’Union européenne. Cela concerne notamment des outils liés au recrutement, à la promotion, au licenciement, à l’attribution de tâches, ainsi qu’à la surveillance ou à l’évaluation dans une relation de travail. Un dispositif d’IA censé estimer la charge mentale peut entrer dans cette logique dès lors qu’il influence des décisions importantes sur le travail ou la carrière.
Cette qualification n’est pas symbolique. Elle implique des obligations strictes : gestion des risques, qualité des données, transparence, robustesse, sécurité et supervision humaine. Lors de l’entrée en vigueur de l’AI Act en août 2024, la Commission européenne a rappelé que les systèmes RH à base d’IA devaient intégrer des mécanismes explicites de mitigation des risques, des jeux de données de haute qualité, une information claire des utilisateurs et une supervision humaine effective.
D’un point de vue psychologique, cette exigence de supervision humaine est centrale. Une évaluation de la charge mentale ne peut pas être laissée à une logique purement automatisée, car elle touche à l’interprétation du fonctionnement cognitif, émotionnel et social d’une personne. Même avec de bons indicateurs, une machine ne peut pas saisir seule le contexte : deuil, trauma, situation familiale, conflit hiérarchique, handicap invisible, conditions matérielles de travail ou sens subjectif de la tâche.
Préserver l’autonomie, ce n’est pas refuser toute technologie
Il serait pourtant réducteur d’opposer un refus global de l’IA à son adoption sans réserve. Certaines technologies peuvent aider à identifier des déséquilibres organisationnels, à alléger des tâches répétitives ou à mieux répartir certaines charges. Le problème n’est pas l’outil en soi, mais la manière dont il est conçu, présenté et utilisé. Une technologie qui informe et soutient n’a pas le même effet qu’une technologie qui profile, note et impose.
Les données d’opinion vont d’ailleurs dans ce sens. L’Eurobaromètre 2025 montre que 62 % des Européens voient favorablement l’IA et les robots au travail, et 70 % pensent qu’ils améliorent la productivité. Mais 84 % estiment aussi qu’ils doivent être gérés avec précaution pour protéger la vie privée et assurer la transparence. EU-OSHA résume la même idée : l’acceptabilité sociale existe, mais elle est conditionnée à des garde-fous robustes.
Préserver l’autonomie ne signifie donc pas bloquer toute innovation. Cela signifie poser des limites claires sur ce que l’outil peut observer, déduire et décider. En pratique, pour une évaluation d’IA de la charge mentale, le minimum protecteur correspond à cinq leviers convergents dans les sources européennes et internationales : information, explicabilité, supervision humaine, droit de recours et limitation de la surveillance émotionnelle. Sans ce socle, l’outil risque de transformer la prévention en contrôle.
La transparence et la contestation sont des protections psychologiques autant que juridiques
Un salarié ne peut préserver son autonomie s’il ignore qu’un système l’évalue, sur quelles données il repose, quels objectifs il poursuit et quelles conséquences concrètes ses résultats peuvent avoir. L’opacité n’est pas un simple défaut technique ; c’est un facteur de stress en soi. Quand les critères restent flous, les personnes ont tendance à s’auto-surveiller davantage, à anticiper des sanctions invisibles et à se conformer à des normes implicites souvent plus strictes que celles réellement appliquées.
C’est pourquoi la transparence et le droit de contestation sont essentiels. La directive européenne sur le travail de plateforme impose davantage de transparence sur l’usage des algorithmes en gestion RH, une surveillance par du personnel qualifié, ainsi qu’un droit de contester les décisions automatisées. Le Conseil de l’UE l’exprime clairement : les travailleurs auront “the right to contest automated decisions”. Pour certaines décisions, le texte 2024/2831 prévoit même une déclaration écrite des motifs lorsqu’une décision prise ou soutenue par un système automatisé affecte des aspects essentiels de la relation contractuelle.
Sur le plan de la santé mentale, cette possibilité de comprendre et de contester réduit le sentiment d’impuissance. Elle restaure une forme d’agentivité, c’est-à-dire la capacité à agir sur ce qui nous arrive. C’est particulièrement important dans les contextes où la vulnérabilité psychique est déjà présente : antécédents de trauma, épuisement, précarité professionnelle ou expériences répétées d’injustice. Un système opaque peut réactiver ces vécus ; un système discutable et encadré peut au contraire limiter leur impact.
La participation des travailleurs doit faire partie du dispositif
Les garde-fous ne peuvent pas se limiter à la conformité documentaire. L’Organisation internationale du Travail alerte en 2025 sur le fait que beaucoup de systèmes d’IA RH reposent sur des objectifs peu clairs, des données biaisées ou incomplètes et des processus opaques. Elle appelle à “stronger worker participation, clearer governance mechanisms and greater transparency”. Ce point est décisif : une évaluation de la charge mentale ne devrait jamais être déployée sans les personnes qui vont en subir les effets.
Associer les travailleurs permet d’abord de tester la pertinence réelle des indicateurs. Les salariés savent souvent très bien ce qui alourdit leur charge : interruptions constantes, doubles contraintes, instabilité des priorités, sous-effectif, logiciels mal conçus, culture de l’urgence, injonctions contradictoires. Si l’outil ne capte pas ces réalités, il risque de produire une représentation fausse du travail et d’aggraver les problèmes qu’il prétend résoudre.
La participation est aussi une condition de légitimité psychologique. Quand les personnes peuvent discuter les critères, signaler les erreurs, proposer des ajustements et comprendre l’objectif poursuivi, le sentiment d’être gouverné par une mécanique impersonnelle diminue. Inversement, un dispositif imposé sans débat peut être vécu comme une dépossession. Le cœur de la protection de l’autonomie en 2025-2026 réside donc autant dans la gouvernance partagée que dans les obligations techniques.
Comment reconnaître un usage protecteur plutôt qu’intrusif
Un usage protecteur de l’IA en matière de charge mentale commence par une question simple : l’outil sert-il à ouvrir un dialogue ou à fermer la discussion ? S’il produit des indicateurs destinés à nourrir des échanges avec prudence, à repérer des tensions collectives et à guider une prévention non punitive, le risque reste plus limité. S’il classe les individus, déclenche des sanctions, intensifie la cadence ou transforme des approximations en vérités administratives, le danger augmente nettement.
Plusieurs signaux d’alerte méritent d’être repérés. Par exemple : l’absence d’explication claire sur les données collectées ; l’idée qu’un score résumerait à lui seul l’état de surcharge ; l’utilisation d’indicateurs comportementaux comme substituts de l’état psychique ; l’absence d’interlocuteur humain identifiable ; l’impossibilité de corriger une erreur ; ou encore l’usage des résultats pour évaluer la loyauté, la motivation ou la “résilience” d’un salarié. Ce sont des indices d’un glissement de la prévention vers la normalisation.
À l’inverse, un cadre plus respectueux repose sur des finalités limitées, des données minimisées, des explications compréhensibles, des décisions finales prises par des humains responsables et la possibilité réelle de recours. Le Parlement européen a d’ailleurs rappelé, dans le contexte du travail de plateforme, qu’une personne ne doit pas pouvoir être licenciée sur la seule base d’une décision algorithmique. Cette logique devrait inspirer plus largement toute évaluation d’IA touchant à la charge, à la performance ou à la disponibilité d’un travailleur.
Préserver l’autonomie face aux évaluations d’IA de la charge mentale demande donc plus qu’une fascination prudente pour la technologie. Cela exige de reconnaître une vérité simple : la vie psychique au travail ne peut pas être entièrement capturée par des scores, des corrélations ou des inférences comportementales. Lorsqu’un outil se présente comme neutre alors qu’il influence la manière de travailler, de se justifier et de se sentir observé, il devient un enjeu de santé mentale autant que de conformité.
Dans le contexte européen de 2025-2026, les repères deviennent plus clairs. Les usages les plus intrusifs, comme la reconnaissance des émotions au travail, sont prohibés ; les systèmes d’évaluation des travailleurs sont soumis à des obligations renforcées ; et le droit évolue vers davantage de transparence, de supervision humaine et de contestation. Pour les organisations, l’enjeu n’est pas seulement d’être en règle, mais de concevoir des outils qui n’érodent pas la dignité décisionnelle des personnes. Pour les travailleurs et les professionnels de la santé mentale, l’objectif reste le même : faire en sorte que l’IA n’évalue jamais la charge mentale au prix de l’autonomie humaine.















