Depuis la pandémie de Covid‑19, l’intelligence artificielle s’est invitée massivement dans les outils de “productivité” et de gestion des équipes. Derrière les promesses de gains d’efficacité et de télétravail mieux organisé, se déploie toutefois un autre visage, beaucoup plus inquiétant : celui d’une surveillance automatisée qui scrute chaque clic, chaque frappe au clavier et chaque minute passée devant l’écran.
Partout dans le monde, les logiciels de monitoring alimentés par l’IA se généralisent, au point de devenir une nouvelle norme managériale, souvent imposée sans véritable débat. Or les chiffres sont clairs : 45 % des salariés déclarent que ces dispositifs ont un impact négatif sur leur santé mentale et plusieurs études font le lien entre intensification du contrôle, stress chronique et burn‑out. Quand l’IA surveille les salariés au lieu de les aider, elle risque de les épuiser , et de dégrader au passage la qualité même du travail qu’elle prétend optimiser.
1. Une explosion mondiale des logiciels de surveillance “intelligents”
Entre mars 2020 et juin 2023, la demande en logiciels de surveillance des salariés a bondi de 54 %. Le basculement massif vers le télétravail, au plus fort de la crise sanitaire, a servi de catalyseur à un marché déjà en plein essor. De nombreux employeurs, désorientés par la distance, ont cherché dans ces outils une illusion de contrôle et de visibilité sur ce que font réellement leurs équipes.
Ces logiciels, initialement centrés sur le simple suivi du temps ou la capture d’écran, intègrent désormais des modules d’IA capables d’analyser à grande échelle des volumes d’e‑mails, les applications utilisées, la fréquence des frappes clavier ou les déplacements de la souris. Ils produisent des indicateurs de “productivité” supposés objectifs, des “scores” individuels, des classements de performance, et parfois des alertes automatiques adressées aux managers.
Mais cette marchandisation du suivi permanent n’est pas neutre. Selon plusieurs enquêtes, 45 % des salariés exposés à ces systèmes déclarent une dégradation de leur santé mentale. Le sentiment d’être constamment observé, mesuré et évalué nourrit une anxiété diffuse, une perte de confiance et une pression permanente à rester “performant”, y compris au détriment du repos et de la déconnexion.
2. Aux États‑Unis, la promesse d’un +20 % de productivité… à quel prix ?
Aux États‑Unis, des éditeurs comme ActivTrak, Teramind, Time Doctor ou Hubstaff vendent des suites de “workforce analytics” présentées comme la nouvelle frontière du management scientifique. Leurs fonctionnalités vont bien au‑delà de la simple feuille de temps : suivi des sites visités, analyse des e‑mails, enregistrement des mouvements de souris, captures d’écran régulières, voire prise de photos ou vidéos du salarié à son poste.
ActivTrak promet par exemple jusqu’à +20 % de productivité en trois mois grâce à ces analyses automatisées. Dans ce récit marketing, l’IA servirait à identifier les “temps morts”, à rationaliser les habitudes de travail et à aligner chaque minute sur les priorités de l’entreprise. L’argument central est celui d’une optimisation continue, chiffrée, pilotée en temps réel.
Des experts en libertés numériques et en santé au travail rappellent toutefois l’angle mort de ce discours : la qualité du travail n’est pas toujours quantifiable, et l’obsession de la mesure peut produire l’effet inverse de celui recherché. La surcharge de contrôles accroît le stress, favorise les erreurs et les accidents, et encourage des comportements de contournement (travailler pour le score plutôt que pour le sens). Au final, le bilan global , notamment en termes de créativité, de coopération ou de loyauté , peut être largement négatif.
3. Télétravail, algorithmic management et santé mentale en Europe
En Europe, l’Agence européenne pour la sécurité et la santé au travail (EU‑OSHA) observe une hausse de 83 % des outils de surveillance et de monitoring numérique depuis la pandémie. Ces dispositifs ne se limitent plus au contrôle de présence : ils s’intègrent dans des solutions d’“algorithmic management” qui attribuent automatiquement les tâches, mesurent chaque clic, notent les performances et organisent le travail en flux tendu.
Ce pilotage par algorithmes transforme la relation au travail. Le salarié devient le maillon d’un système de scoring permanent où chaque interaction est susceptible d’être évaluée. Pour les télétravailleurs, dont la frontière entre vie privée et vie professionnelle est déjà fragile, la sensation d’un “œil” numérique qui ne se ferme jamais peut être particulièrement délétère.
L’EU‑OSHA alerte ainsi sur de sérieux risques psychosociaux : perte d’autonomie, stress accru, anxiété liée au sentiment d’être constamment observé (on parle d’“anticipatory surveillance”, la surveillance anticipée), augmentation des cas de burn‑out. L’outil qui, en théorie, devait organiser et faciliter le travail finit par l’intensifier et l’invisibiliser, en étendant parfois de fait le temps de travail sans compensation ni déconnexion réelle.
4. 2026 : vers une normalisation de la surveillance des équipes à distance
Un panorama sur la vie privée au travail anticipe qu’en 2026, 60 % des employeurs disposant d’équipes à distance utiliseront un logiciel de monitoring. L’adoption de ces outils a déjà bondi de 50 % avec la généralisation du télétravail liée au Covid. La logique sous‑jacente est simple : si les salariés ne sont plus visibles physiquement, il faudrait compenser par une visibilité numérique renforcée.
Concrètement, ces logiciels combinent suivi de temps, captures d’écran, enregistrement d’activités et analyses d’IA sur les flux de travail. Ils génèrent des tableaux de bord pour les managers, des rapports comparatifs entre équipes, des historiques de performance par individu. Ce qui n’était qu’un dispositif ponctuel devient ainsi une infrastructure pérenne de surveillance.
Face à cette expansion, les autorités européennes de protection des données rappellent que la mise en place de tels systèmes n’est pas libre de droits. Les entreprises doivent démontrer la nécessité du dispositif, informer clairement les salariés, évaluer sa proportionnalité et limiter au maximum l’intrusion , a fortiori lorsque l’IA est utilisée pour profiler, évaluer ou automatiser des décisions. Sans ce cadre, la surveillance numérique risque de s’installer comme une norme silencieuse, difficile à contester.
5. Stress, burn‑out et fuite des talents : le coût humain du monitoring
Les effets psychologiques de la surveillance numérique font l’objet d’un consensus croissant dans la recherche. L’American Psychological Association (APA) souligne que les salariés qui se sentent surveillés par l’IA ou d’autres technologies de suivi présentent davantage de signes de stress et d’épuisement professionnel que ceux qui ne sont pas surveillés. La perception de contrôle continu agit comme un stresseur de fond, même lorsque le monitoring n’est pas utilisé activement pour sanctionner.
Les conséquences vont au‑delà de la santé mentale immédiate. Les personnes préoccupées par l’usage d’outils d’IA et de surveillance au travail sont presque deux fois plus nombreuses à envisager de quitter leur emploi dans l’année (46 % contre 25 %). Pour les entreprises, cela signifie un risque accru de rotation du personnel, de perte de compétences et de difficultés de recrutement, dans un contexte où l’attractivité des employeurs devient un enjeu stratégique.
Des chercheurs cités par l’APA concluent que, pour la plupart des métiers, les coûts en termes de stress et de burn‑out dépassent les bénéfices supposés de ces contrôles électroniques. Au lieu d’améliorer la performance, la surveillance systématique tend à la fragiliser, en sapant la motivation intrinsèque, la confiance et le sentiment de reconnaissance , autant de dimensions essentielles à un engagement durable.
6. “Constantly monitored” : quand les travailleurs contestent l’IA qui les observe
Les travaux académiques et syndicaux documentés par la presse internationale montrent que les systèmes d’IA au travail sont souvent déployés sans réelle consultation des salariés. La logique descendante domine : direction et services informatiques choisissent une solution, puis l’imposent, parfois sous couvert de “modernisation” ou de “sécurisation” des activités, sans expliquer clairement les usages ni les limites.
Dans ces contextes, de nombreux travailleurs décrivent un sentiment de surveillance permanente , le fameux “constantly monitored”. Le fait de ne pas comprendre exactement ce qui est mesuré, ni comment ces données sont exploitées, accentue la méfiance : tout peut potentiellement être retenu contre eux. La relation managériale se transforme alors en relation de contrôle, marquée par la suspicion et l’auto‑censure.
À l’inverse, les chercheurs spécialisés sur l’IA et le travail notent que lorsque les travailleurs sont associés à la conception des outils, ceux‑ci deviennent généralement moins intrusifs et plus utiles. La co‑conception permet de définir collectivement ce qui doit être mesuré, à quelles fins, avec quelles garanties de transparence et de recours. Elle redonne aux salariés une part de pouvoir d’agir, ce qui réduit le stress et renforce la légitimité des dispositifs.
7. France : vers une “protection des travailleurs à l’heure de l’IA”
En France, juristes et spécialistes du droit du travail s’inquiètent de l’émergence d’un “salarié amélioré” constamment mesuré et profilé par l’IA. Dans les revues de droit social et les Chroniques du travail, plusieurs analyses décrivent la montée en puissance de l’algorithmic management : scoring de performance, vidéosurveillance algorithmique, capteurs divers, indicateurs de comportement.
Ces travaux soulignent les lacunes de la régulation actuelle face au déploiement rapide de ces technologies. Le Code du travail et le RGPD offrent des protections importantes, mais mal adaptées à la sophistication des nouveaux systèmes d’IA, notamment lorsqu’ils combinent données de productivité, données comportementales et parfois données de santé (via des capteurs biométriques ou des analyses de langage).
D’où l’appel à de nouveaux droits spécifiques : droit à l’explicabilité des algorithmes qui évaluent ou orientent le travail, droit à la contestation des décisions automatisées, droit à la limitation de la surveillance et au respect d’une sphère de vie privée au travail. L’enjeu est d’éviter que la technologie ne redessine, de fait, le contrat de travail, en transformant subrepticement le salarié en simple “objet de données”.
8. Vidéosurveillance algorithmique : frontière floue entre sécurité et flicage
La “vidéosurveillance algorithmique” (VSA) illustre particulièrement bien cette dérive. Basée sur l’IA, elle promet d’analyser en temps réel les flux vidéo pour détecter des comportements jugés “anormaux” ou non conformes aux règles internes. Dans le discours des fournisseurs, il s’agit d’un outil de sûreté et de prévention des risques.
Mais la frontière entre sécurité et flicage est ténue. En janvier 2025, le tribunal administratif de Grenoble a jugé illégale l’utilisation du logiciel Briefcam, un système de VSA, par la ville de Moirans. La décision rappelle la sensibilité extrême de ces outils au regard de la vie privée, du droit du travail et des libertés publiques. Ce qui vaut dans l’espace public vaut aussi, a fortiori, dans les espaces professionnels.
Les débats autour des Jeux Olympiques de Paris 2024 ont, eux aussi, révélé le risque de banalisation de ces systèmes d’analyse automatisée des corps et des comportements. Une fois la technologie installée pour des événements exceptionnels, la tentation est forte de la maintenir et de l’étendre, y compris dans des environnements de travail. Les salariés se retrouvent alors transformés en silhouettes analysées en permanence, ce qui ne peut qu’alimenter le stress et l’auto‑contrôle.
9. Quand l’IA prétend prévenir le burn‑out… mais contribue à l’épuisement
Paradoxalement, la lutte contre le burn‑out devient un nouvel argument de vente pour les technologies de surveillance. Des projets mêlant capteurs (rythme cardiaque, activité sur les outils numériques) et IA promettent de “prévenir l’épuisement professionnel” en détectant baisse de productivité, envois de messages tardifs ou désengagement sur les plateformes collaboratives. L’idée est séduisante : repérer tôt les signaux faibles pour intervenir avant qu’il ne soit trop tard.
Le rapport Global Talent Trends 2024‑2025 souligne d’ailleurs que plus de 80 % des employés se disent exposés au risque de burn‑out, alimentant un marché florissant de “solutions” d’IA vendues comme systèmes d’alerte précoce. Dans des environnements très stressants, des recherches explorent même l’usage du traitement automatique du langage (NLP) pour analyser en masse les e‑mails, tickets ou formulaires internes, afin de prédire une probabilité d’épuisement à partir de marqueurs linguistiques.
Mais ces dispositifs soulèvent des questions éthiques majeures : consentement éclairé des salariés, risque de profilage psychologique, possibilité d’usages disciplinaires des résultats. En France, des organismes de santé au travail (INRS, CIAMT, etc.) mettent en garde contre une “surveillance généralisée déguisée en bienveillance”, lorsque les données de santé ou de comportement servent à sanctionner au lieu de déclencher une adaptation réelle des conditions de travail. L’IA censée protéger du burn‑out peut alors devenir un facteur supplémentaire d’angoisse.
10. Lien ambigu entre usage intensif de l’IA et burn‑out
Au‑delà de la surveillance directe, l’usage intensif de l’IA dans le travail lui‑même pose question. Une étude largement relayée en 2024 fait état d’un risque de burn‑out 45 % plus élevé chez les employés qui utilisent fréquemment l’IA, en particulier lorsque celle‑ci est perçue comme une source de pression à la performance plutôt que comme une aide. Quand l’IA devient une norme de productivité à atteindre, elle crée une injonction implicite à suivre, à accélérer, à ne jamais ralentir.
D’autres enquêtes, basées sur des données portant sur plusieurs millions de travailleurs, montrent une adoption de l’IA autour de 45‑46 % en 2025‑2026, avec des niveaux de “remote burnout” pouvant atteindre 86 % dans certains contextes fortement surveillés. Ces chiffres suggèrent que ce n’est pas l’IA en soi qui est problématique, mais la manière dont elle est intégrée dans l’organisation du travail : vecteur de contrôle ou levier d’autonomie.
Lorsque l’IA est vécue comme un outil de soutien, qui simplifie les tâches routinières et laisse plus de temps pour le travail à forte valeur ajoutée, les effets peuvent être positifs. Mais lorsqu’elle sert à accélérer les cadences, à densifier les journées et à alimenter une évaluation permanente, elle devient un puissant facteur d’épuisement et de désengagement, surtout à distance.
11. L’IA peut aussi améliorer le bien‑être au travail… si elle cesse de fliquer
Heureusement, les travaux de l’OCDE sur l’IA et le travail montrent qu’un autre usage est possible. Dans le secteur de la santé par exemple, les professionnels qui déclarent utiliser l’IA comme outil de soutien , et non de contrôle , rapportent plus souvent une amélioration de leur qualité de vie au travail. L’IA y prend en charge une partie de la charge administrative ou de l’aide au diagnostic, redonnant du temps au soin direct.
L’enquête “AI and worker well-being”, menée sur des données micro issues de plusieurs pays de l’OCDE, indique que les utilisateurs d’IA sont significativement plus nombreux à rapporter de meilleurs résultats en santé mentale, en plaisir au travail et en sentiment de sécurité. Les effets positifs se situent entre +8,9 % et +21,3 %, à condition que l’IA soit perçue comme augmentant l’autonomie, la marge de manœuvre et la maîtrise du travail, tout en réduisant les tâches pénibles ou répétitives.
La clé réside donc dans le design organisationnel : qui contrôle qui ? Une IA qui observe en silence pour produire des scores opaques alimente la peur et la méfiance. Une IA transparente, co‑conçue avec les travailleurs, centrée sur le soutien plutôt que sur la surveillance, peut au contraire devenir un levier de mieux‑être, à condition que les objectifs de santé au travail priment réellement sur les seuls indicateurs de performance.
12. Encadrer l’IA au travail : pistes pour éviter l’épuisement
En France, la puissance publique commence à prendre la mesure de ces enjeux. Des documents de travail publiés en 2024‑2025 par le ministère du Travail et par France Stratégie identifient explicitement le “renforcement de la surveillance”, la “sur‑spécialisation” et les risques d’“épuisement” comme des scénarios probables lorsque l’IA est utilisée pour hyper‑segmenter et intensifier les tâches.
Les débats politiques récents , Sommet pour l’action sur l’IA, programmes gouvernementaux sur “l’IA et le monde du travail” , insistent sur la nécessité de mécanismes de co‑conception avec les travailleurs et leurs représentants. L’objectif : éviter que l’IA ne se traduise par une extension invisible du temps de travail et du contrôle, et promouvoir au contraire des usages orientés vers la prévention des risques, la simplification des tâches et le renforcement des compétences.
Concrètement, cela suppose de consolider les droits collectifs (information‑consultation des CSE, négociation sur les outils numériques), de garantir l’explicabilité des algorithmes qui affectent la carrière ou le quotidien des salariés, et de poser des lignes rouges claires en matière de surveillance (interdiction de certains capteurs, limitation stricte de la VSA en milieu professionnel, encadrement des analyses de langage et des données de santé). Sans ces garde‑fous, l’IA risque d’alimenter une nouvelle ère de taylorisme numérique épuisant.
Quand l’intelligence artificielle surveille les salariés, elle change profondément la nature du lien de subordination : le manager de proximité s’efface derrière des tableaux de bord, les décisions se fondent sur des chiffres dont la genèse échappe à la plupart des intéressés, et chacun est sommé d’optimiser sa “performance” en continu. Ce régime de contrôle permanent nourrit le stress, l’isolement et le burn‑out, tout en affaiblissant la confiance indispensable à un travail de qualité.
Pourtant, rien n’impose que l’IA soit utilisée de cette manière. En faisant de la co‑conception, de la transparence et de la limitation de la surveillance des principes cardinaux, il est possible de la mettre au service de l’autonomie, de la santé et du sens au travail. L’enjeu n’est pas de refuser la technologie, mais de reprendre la main sur ses finalités : substituer à une IA qui épuise une IA qui émancipe, et faire de la protection des travailleurs la condition, et non le dommage collatéral, de toute innovation.
















