À mesure que l’IA s’installe dans les outils RH, les logiciels de pilotage des équipes et les dispositifs de prévention des risques, une question devient centrale : comment protéger les salariés sans transformer leur vie émotionnelle en objet de mesure permanente ? La surveillance émotionnelle promet parfois de détecter le stress, l’épuisement ou la démotivation. Mais derrière cette promesse se cachent des enjeux majeurs de santé mentale, de vie privée, de confiance et de dignité au travail.
Les grandes institutions internationales convergent aujourd’hui sur un point essentiel : la santé mentale au travail est un enjeu de santé publique, pas seulement de performance. L’Organisation mondiale de la santé rappelle qu’un environnement de travail négatif, un manque de soutien ou une charge excessive peuvent nuire à la santé physique et psychique. Dans la Région européenne de l’OMS, la perte de productivité liée à la santé mentale représente environ 140 milliards de dollars par an. Autrement dit, prévenir la souffrance psychique au travail est indispensable, mais cette prévention ne peut pas reposer sur des dispositifs intrusifs ou opaques.
Comprendre ce que recouvre la surveillance émotionnelle
La surveillance émotionnelle désigne l’ensemble des pratiques qui cherchent à capter, inférer ou interpréter les états affectifs des travailleurs à partir de données numériques. Cela peut inclure l’analyse de la voix, des expressions faciales, du rythme de frappe, des interactions sur les outils collaboratifs, voire des indicateurs de comportement considérés comme des signaux de stress, d’engagement ou de fatigue. Dans certains cas, ces dispositifs sont présentés comme des outils de sécurité ou de prévention du burnout.
Le problème est que l’émotion n’est ni un simple chiffre ni une donnée neutre. Un silence en réunion, un ton bref dans un message ou une baisse de productivité ponctuelle ne signifient pas automatiquement détresse psychique, désengagement ou risque clinique. Les interprétations algorithmiques peuvent réduire la complexité humaine à des catégories simplifiées, avec un risque élevé d’erreur, de surinterprétation et de stigmatisation.
Dans le monde du travail, cette logique s’inscrit souvent dans un cadre plus large de management algorithmique. L’OCDE souligne que la surveillance par l’IA peut nuire à la santé mentale, notamment lorsqu’elle réduit l’autonomie des salariés et affaiblit leur capacité à comprendre ou contester les décisions. Dès lors, la question n’est pas seulement technique : elle concerne aussi les rapports de pouvoir, la qualité du management et les limites éthiques du contrôle en entreprise.
La santé mentale au travail ne se résume pas aux données
L’un des risques majeurs de l’enthousiasme technologique est de faire croire que les difficultés psychiques au travail pourraient être détectées et gérées principalement par des tableaux de bord. Or l’OMS rappelle que les principaux facteurs de risque restent souvent classiques : management inadapté, manque de soutien, environnement stressant, surcharge, ambiguïté des rôles ou compétences insuffisamment développées. En pratique, un outil d’IA ne corrige pas à lui seul une culture professionnelle délétère.
Cette distinction est importante, car elle évite de déplacer la responsabilité vers les individus. Si un salarié apparaît comme “fatigué” ou “désengagé” dans un système de détection, la bonne question n’est pas seulement de savoir ce qui ne va pas chez lui, mais aussi ce qui, dans l’organisation, produit cette détresse. Sans cette lecture systémique, la surveillance émotionnelle risque d’identifier des symptômes sans traiter les causes.
Une approche fondée sur les preuves conduit donc à remettre l’organisation du travail au centre. Préserver la santé mentale suppose de prévenir les expositions nocives, d’offrir des marges de manœuvre, d’améliorer le soutien managérial et de reconnaître le travail accompli. Les recommandations de l’OMS insistent d’ailleurs sur la prévention, l’information, la participation des employés et la reconnaissance, bien davantage que sur l’intensification de la surveillance.
Quand l’IA améliore réellement la sécurité des équipes
Il serait pourtant réducteur de présenter l’IA comme un danger uniforme. Bien conçue, elle peut contribuer à la sécurité des équipes. Dans certains contextes, des systèmes d’analyse peuvent aider à repérer des situations de surcharge, à anticiper des accidents, à mieux distribuer certaines tâches pénibles ou à signaler des configurations de travail associées à un risque accru d’épuisement. L’OCDE reconnaît d’ailleurs que l’IA peut aussi servir à prévenir des dangers et à détecter le burnout.
Le Forum économique mondial rapporte également que certaines organisations observent des bénéfices concrets lorsque l’IA est intégrée avec discernement : réduction du burnout, apprentissage plus rapide, travail plus engageant, notamment lorsque les outils libèrent du temps pour des tâches à plus forte valeur humaine ou stratégique. Dans ce cas, la technologie agit comme un soutien, non comme un dispositif de contrôle total.
La différence tient souvent à l’intention, au design et à la gouvernance. Une IA qui aide à alléger la charge cognitive, à mieux répartir le travail ou à identifier des besoins de soutien peut renforcer le bien-être. À l’inverse, une IA qui note, classe, soupçonne ou surveille en continu les comportements affectifs risque d’accroître l’anxiété. La même technologie peut donc produire des effets opposés selon le cadre dans lequel elle est déployée.
Les dérives du management algorithmique et la fragilisation de la confiance
Lorsque la surveillance émotionnelle s’insère dans une logique de management algorithmique opaque, la confiance devient la première victime. L’Organisation internationale du travail avertit que, sans approche centrée sur l’humain, l’IA peut nuire à l’équité, à la transparence et à la confiance au travail. Ce constat est particulièrement important en RH, où les salariés peuvent se sentir évalués par des critères qu’ils ne comprennent pas et qu’ils n’ont jamais réellement validés.
L’OCDE souligne que les employeurs eux-mêmes s’inquiètent de l’insuffisance de protection de la santé physique et mentale des travailleurs, ainsi que du manque de transparence sur la logique des décisions algorithmiques. Lorsqu’un salarié ne sait pas quelles données sont collectées, comment elles sont interprétées ni quelles conséquences peuvent en découler, il est exposé à une insécurité psychologique supplémentaire. Cette opacité est incompatible avec une véritable culture de prévention.
Le Forum économique mondial parle même de “surveillance theatre” pour décrire certains outils de suivi numérique, comme le keystroke logging ou le suivi comportemental intensif. En clair, ces dispositifs donnent l’illusion d’une meilleure compréhension du travail, alors qu’ils incitent surtout les employés à adapter leur comportement pour éviter le contrôle. On obtient alors moins de vérité sur le vécu réel, et davantage de conformisme anxieux.
Pourquoi la transparence et l’autonomie sont des protections essentielles
Face à ces risques, la transparence n’est pas un détail juridique : c’est une condition de sécurité psychique. Les travailleurs doivent savoir quelles données sont recueillies, à quelles fins, pendant combien de temps, avec quelles limites et avec quel niveau de supervision humaine. Sans cette clarté, la surveillance émotionnelle alimente facilement la méfiance, l’autocensure et la peur d’être mal interprété.
L’autonomie joue un rôle tout aussi décisif. L’OCDE observe que la gestion algorithmique peut réduire la voix des travailleurs et leur marge de manœuvre. Or la littérature sur les risques psychosociaux montre depuis longtemps qu’un faible contrôle sur son activité constitue un facteur de stress important. Une technologie qui prétend protéger la santé mentale tout en retirant de l’autonomie crée donc une contradiction profonde.
Les garde-fous recommandés par l’OCDE vont dans le bon sens : évaluations des risques, audits, certifications, mécanismes de gouvernance et supervision humaine appropriée. Ces protections doivent viser explicitement la vie privée, la santé mentale et la capacité des salariés à contester une décision ou à demander une révision humaine. En matière d’IA au travail, la prévention ne peut être crédible que si elle est vérifiable.
Consulter les salariés : une exigence éthique et une stratégie efficace
Les meilleures pratiques récentes insistent sur la co-construction avec les équipes. L’OMS recommande d’impliquer les employés dans la prise de décision, de les informer des aides disponibles et de reconnaître leurs performances. Cette logique est à l’opposé d’un modèle de surveillance émotionnelle unilatérale, où l’organisation observe, classe et agit sans véritable dialogue.
Les données récentes de l’OCDE confirment la place centrale de cette consultation. Près de 90 % des managers interrogés déclarent avoir au moins une mesure en place pour encadrer la gestion algorithmique, et la consultation des travailleurs figure parmi les réponses les plus courantes. Ce point est crucial : les salariés ne doivent pas être de simples objets de collecte de données, mais des acteurs de la définition des règles.
Le dialogue social permet aussi d’améliorer la qualité des dispositifs. Les équipes savent souvent mieux que quiconque quels indicateurs sont absurdes, quelles situations génèrent réellement de la pression, et quels outils peuvent aider sans devenir intrusifs. Associer les salariés, les représentants du personnel, les RH, les managers et les spécialistes de santé au travail permet de distinguer plus clairement l’assistance utile du contrôle abusif.
Les incidents liés à l’IA montrent que le risque est déjà concret
Les atteintes potentielles à la santé mentale ne relèvent plus d’une spéculation abstraite. Les données de l’OCDE sur les incidents et dangers liés à l’IA mentionnent explicitement des risques et dommages pour la santé physique et mentale, avec une hausse des signalements sur la période couverte jusqu’en 2025. Cela signifie que les effets indésirables de certains systèmes sont déjà observés, documentés et suffisamment significatifs pour entrer dans les bases de suivi internationales.
Dans le champ professionnel, ces dommages peuvent prendre des formes variées : augmentation du stress, sentiment d’être surveillé en permanence, perte de confiance, pression à la performance continue, peur d’une mauvaise catégorisation, ou encore impression d’être remplacé par une logique automatique incompréhensible. Chez des personnes déjà fragilisées, notamment après un traumatisme, un burnout ou une situation de harcèlement, ce type d’environnement peut aggraver fortement la détresse.
Prendre ces signaux au sérieux implique de sortir d’un discours trop abstrait sur “l’innovation”. Une innovation n’est pas socialement acceptable parce qu’elle est nouvelle, mais parce qu’elle démontre qu’elle réduit les risques sans créer de dommages disproportionnés. En matière de santé mentale au travail, le principe de prudence et l’évaluation continue devraient être la norme, surtout lorsqu’il s’agit d’inférer des états émotionnels ou de guider des décisions managériales.
Vers une IA au travail réellement centrée sur le bien-être
Le message des institutions internationales est remarquablement cohérent : adopter l’IA, oui, mais avec supervision humaine et objectifs explicites de bien-être. L’OCDE défend une approche “safe, secure and trustworthy” dans le monde du travail, calibrée avec une supervision humaine appropriée. Cela suppose de définir clairement ce qui est acceptable, ce qui est proportionné et ce qui doit être exclu.
Concrètement, une organisation responsable devrait commencer par une question simple : ce dispositif améliore-t-il réellement la sécurité des équipes, ou se contente-t-il d’étendre le contrôle ? Si l’outil augmente la charge mentale, réduit l’autonomie, brouille les responsabilités ou pousse les salariés à jouer un rôle émotionnel pour être bien notés, il faut reconsidérer son usage. La protection de la santé mentale ne peut pas passer par la production d’un climat de suspicion permanente.
À l’inverse, une IA réellement centrée sur l’humain soutient le travail au lieu d’absorber l’espace psychique des travailleurs. Elle aide à repérer des besoins collectifs, à améliorer l’organisation, à orienter vers des ressources de soutien et à réduire certaines tâches répétitives ou stressantes. Elle laisse une place claire au jugement humain, au contexte, à la parole des salariés et au droit à l’erreur. C’est à cette condition que la technologie peut devenir un levier de sécurité plutôt qu’un facteur supplémentaire de vulnérabilité.
Préserver la santé mentale en milieu professionnel à l’ère de l’IA ne consiste donc pas à choisir entre innovation et protection, mais à refuser les faux dilemmes. Les entreprises peuvent utiliser des outils numériques pour mieux prévenir les risques, à condition de ne pas confondre vigilance et intrusion, ni prévention et contrôle émotionnel. La frontière est parfois fine, mais elle est décisive pour la dignité et la sécurité psychique des équipes.
Dans un monde du travail déjà marqué par l’intensification, l’incertitude et la surcharge informationnelle, la priorité devrait rester claire : créer des environnements soutenants, transparents et participatifs. L’IA peut y contribuer si elle demeure un moyen au service du lien, de la prévention et de l’autonomie. Lorsqu’elle prétend lire l’intériorité des salariés sans garanties suffisantes, elle menace au contraire ce qu’elle devrait protéger.
















