Depuis le 2 février 2025, une petite révolution silencieuse s’est opérée dans les bureaux, entrepôts, open spaces et centres d’appels européens : la reconnaissance automatisée des émotions des salariés y est désormais, en principe, illégale. Avec l’entrée en vigueur progressive de l’AI Act, l’Union européenne a tranché une question brûlante : peut‑on laisser des algorithmes lire sur les visages, les voix ou même les ondes cérébrales des employés pour mesurer leur humeur, leur stress ou leur engagement ? Sa réponse est claire : au travail et à l’école, c’est non.
Derrière cette interdiction, il ne s’agit pas seulement de réguler une nouvelle technologie à la mode, mais de fixer une limite politique et éthique à l’intrusion de l’IA dans la sphère la plus intime : nos émotions. En classant la « reconnaissance des émotions » comme pratique prohibée dans certains contextes, l’UE tente de protéger la dignité et la vie privée des personnes en situation de vulnérabilité institutionnelle, comme les salariés face à leur employeur ou les élèves face à leurs établissements. Ce nouveau cadre va obliger les entreprises à revoir en profondeur leurs pratiques de management et de surveillance.
Ce que l’AI Act interdit exactement au travail
L’AI Act, le grand règlement européen sur l’intelligence artificielle, publié le 12 juillet 2024 et entré en vigueur le 1er août 2024, introduit une catégorie de pratiques tout simplement prohibées. Parmi elles, l’article 5(1)(f) vise précisément les systèmes de reconnaissance des émotions utilisés sur les lieux de travail et dans les établissements d’enseignement. Concrètement, cela signifie que l’employeur ne peut plus s’appuyer sur des outils d’IA qui tentent d’inférer l’état émotionnel ou les intentions de ses employés à partir de données biométriques.
Les lignes directrices publiées par la Commission européenne le 4 février 2025 apportent des exemples très parlants. Est interdit, par exemple, le centre d’appel qui utilise des webcams et l’analyse vocale pour suivre en temps réel la colère ou le stress de ses opérateurs. De même, un supermarché n’a plus le droit de recourir à des caméras pour mesurer le « niveau de bonheur » de ses caissiers et ajuster leurs plannings en fonction de ces scores émotionnels. Les outils d’Emotion AI intégrés dans les logiciels de recrutement, d’entretien vidéo ou de suivi de période d’essai sont également dans le viseur.
La logique du législateur européen est simple : dès lors que l’expression émotionnelle est analysée dans un contexte de subordination ou d’évaluation (embauche, performance, comportement), le risque de pression, de stigmatisation et de discrimination devient trop important. C’est ce déséquilibre structurel de pouvoir entre employeur et employé qui justifie une interdiction pure et simple, plutôt qu’un simple encadrement ou une qualification en « haut risque » comme pour d’autres usages de l’IA.
Que recouvre la « reconnaissance des émotions » pour l’UE ?
Le champ de la « reconnaissance des émotions » tel que défini par l’AI Act est volontairement large. Il ne se limite pas au sourire capté par une caméra. Le texte et la doctrine associée parlent de tout système d’IA qui infère ou identifie des émotions ou des intentions à partir de données biométriques : visage, voix, micro‑expressions, mouvements des yeux, dilatation des pupilles, posture, rythme cardiaque, mais aussi signaux cérébraux issus de technologies comme l’EEG ou l’IRM fonctionnelle (fMRI).
Les exemples typiques d’états émotionnels cités couvrent un spectre très large : bonheur, tristesse, colère, surprise, dégoût, honte, embarras, excitation, mépris, anxiété, attention, ennui, voire mensonge ou « sincérité ». Tout système qui prétend déduire de ces signaux une humeur, un niveau d’engagement, de stress ou d’enthousiasme rentre dans cette catégorie. Le champ va donc bien au‑delà du simple « détection de sourire » sur une photo : il englobe les analyses vocales dans les outils de call center, l’eye‑tracking, les capteurs de stress et, plus largement, les solutions de neuromarketing lorsqu’elles visent des salariés.
Les lignes directrices insistent aussi sur le fait que les neurotechnologies destinées à « monitorer » l’engagement, la fatigue mentale ou l’anxiété des employés, par exemple via des casques EEG fournis dans un environnement industriel, relèvent pleinement de la reconnaissance des émotions. Même si ces données ne sont pas toujours perçues comme biométriques par les utilisateurs, le droit européen les traite comme telles dès lors qu’elles permettent de déduire un état émotionnel ou mental lié à une personne identifiée ou identifiable.
Pourquoi l’UE parle de pratique « inacceptable »
Pour comprendre la sévérité de cette interdiction, il faut se tourner vers les considérants de l’AI Act, notamment le considérant 44. Celui‑ci souligne l’incertitude scientifique majeure qui entoure encore la capacité des algorithmes à « lire » de manière fiable les émotions à partir de signaux biométriques. Les expressions faciales et vocales varient fortement d’un individu à l’autre et d’une culture à l’autre. Un même signe , un silence, un haussement de sourcil, un ton plus sec , peut traduire la concentration, la fatigue, la gêne ou la colère selon le contexte.
Dans ce contexte, baser des décisions de gestion de carrière, de rémunération ou de licenciement sur des inférences émotionnelles revient à introduire une part d’arbitraire algorithmique difficilement contestable par l’employé. Le risque de discrimination est d’autant plus élevé pour les personnes issues de minorités culturelles ou neurodivergentes, dont les codes d’expression peuvent s’écarter des normes implicites sur lesquelles les outils sont entraînés. C’est cette combinaison d’opacité, de pseudo‑scientificité et d’impact direct sur la vie des personnes qui justifie la qualification de « pratique inacceptable ».
L’interdiction vise également à protéger la dignité humaine. Autoriser la surveillance émotionnelle constante reviendrait à transformer le lieu de travail en laboratoire de psychologie appliquée, où chaque haussement de ton ou micro‑expression faciale pourrait être enregistré, interprété et archivé. L’UE estime qu’un salarié ne devrait pas avoir à « performer » ses émotions sous l’œil d’algorithmes pour conserver son emploi ou optimiser son bonus. Le droit au « for intérieur » , cette part de nous‑mêmes que l’on ne souhaite pas livrer , est ici au cœur de la régulation.
Calendrier : une interdiction déjà en vigueur
Sur le plan juridique, l’AI Act suit un calendrier d’application étalé dans le temps. Si le règlement est formellement entré en vigueur le 1er août 2024, la plupart de ses dispositions , notamment celles relatives aux systèmes d’IA dits « à haut risque » , ne deviendront applicables qu’à partir du 2 août 2026, avec des extensions possibles jusqu’en 2027. Pourtant, ce calendrier ne concerne pas les pratiques classées comme manifestement inacceptables.
Les articles 5 du règlement, qui listent les systèmes et usages d’IA tout simplement prohibés, bénéficient d’un régime accéléré. Selon les analyses juridiques et le calendrier officiel, l’interdiction de la reconnaissance des émotions au travail et à l’école est opposable dans toute l’UE depuis le 2 février 2025. Autrement dit, les employeurs ne peuvent plus invoquer la phase de transition pour maintenir ou déployer ce type de systèmes dans l’attente des autres obligations.
Dans la pratique, cela signifie que les organisations doivent dès maintenant , et non en 2026 , auditer leurs solutions d’IA, identifier les éventuels modules d’Emotion AI actifs dans les environnements de travail, et les désactiver ou les reconfigurer. Les autorités de contrôle nationales, souvent les mêmes que pour le RGPD ou les régulateurs sectoriels, disposent déjà du pouvoir de sanctionner ces pratiques au titre de l’AI Act.
Quelles exceptions pour la sécurité et la santé au travail ?
L’interdiction n’est toutefois pas absolue. L’article 5(1)(f) prévoit une exception étroite : les systèmes de reconnaissance des émotions peuvent être utilisés dans des lieux de travail ou d’enseignement lorsqu’ils poursuivent « strictement » un objectif médical ou de sécurité. Cette précision ouvre la porte à certains cas très encadrés, par exemple la détection de fatigue ou de somnolence chez des conducteurs routiers, des pilotes, des machinistes de trains ou des opérateurs de machines dangereuses.
Dans de tels environnements à haut risque, savoir si une personne est sur le point de s’endormir ou montre des signes de détresse aiguë peut prévenir des accidents graves. On peut imaginer des caméras embarquées ou des capteurs biométriques déclenchant une alerte ou imposant une pause automatique en cas de somnolence manifeste. De même, des dispositifs médicaux destinés à suivre le stress aigu ou les crises d’angoisse dans un cadre thérapeutique peuvent rester licites, y compris lorsqu’ils sont utilisés sur le lieu de travail dans le cadre d’un accompagnement volontaire.
Mais même dans ces cas exceptionnels, les garde‑fous juridiques restent nombreux. Le RGPD continue à s’appliquer pleinement à ces traitements de données biométriques et de santé : nécessité d’une base légale solide (souvent le consentement explicite ou une obligation de sécurité prévue par le droit du travail), minimisation des données, limitation des finalités, droits d’accès et d’opposition des salariés. L’employeur ne peut pas profiter de ces dispositifs pour glisser, subrepticement, vers une évaluation générale de la performance ou de la personnalité des employés.
Des sanctions lourdes pour les entreprises récalcitrantes
L’AI Act ne se contente pas d’interdire la reconnaissance des émotions au travail : il assortit cette interdiction de sanctions particulièrement dissuasives. L’utilisation de systèmes d’IA relevant des pratiques prohibées peut donner lieu à des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel de l’entreprise, le montant le plus élevé étant retenu. Pour les grands groupes internationaux, le risque financier est donc considérable.
Au‑delà des sanctions pécuniaires, l’entreprise s’expose également à des injonctions de cesser les traitements, à des audits techniques et organisationnels, et à un risque réputationnel important. L’opinion publique est de plus en plus sensible aux sujets de surveillance au travail, et la dénonciation de systèmes « lisant les émotions » des salariés peut rapidement se transformer en crise médiatique, voire en conflit social.
Les directions des ressources humaines et les DSI ont donc intérêt à ne pas considérer cette interdiction comme un simple détail réglementaire, mais comme un sujet stratégique de conformité. Cela implique parfois de réévaluer des projets innovants présentés comme « engagement analytics », « bien‑être au travail en temps réel » ou « optimisation comportementale » qui, derrière un vernis marketing, s’appuient sur des technologies de reconnaissance émotionnelle désormais illégales dans l’UE.
Articulation avec le RGPD et la protection de la dignité
L’interdiction de la reconnaissance des émotions ne vient pas de nulle part : elle s’inscrit dans le prolongement direct du RGPD, qui encadre déjà strictement le traitement de données biométriques et de santé. Les systèmes d’Emotion AI reposent en effet sur la captation et l’analyse de caractéristiques physiques ou physiologiques uniques (visage, voix, signaux cérébraux) permettant potentiellement d’identifier une personne et d’en déduire des informations extrêmement sensibles sur son état mental.
Dans un contexte de travail, ces informations peuvent révéler bien plus que l’humeur du moment : stress chronique, épuisement, dépression latente, anxiété sociale, neurodivergences… Autant de données que le salarié peut ne pas vouloir partager, et qui ne devraient en aucun cas être exploitées pour ajuster des objectifs, refuser une promotion ou justifier un licenciement. C’est précisément ce type de dérive que l’AI Act cherche à prévenir en coupant court à la tentation de « profiler » émotionnellement les employés.
Cette approche rejoint une vision plus large des droits fondamentaux au travail : protection de la dignité, de la vie privée, de l’autonomie et de la non‑discrimination. En interdisant la reconnaissance des émotions dans les environnements marqués par un fort déséquilibre de pouvoir, l’UE envoie un signal : la technologie ne doit pas devenir un prétexte pour intensifier le contrôle des corps et des esprits au service d’objectifs de productivité à court terme.
Comment les entreprises s’adaptent à ce nouveau cadre
Pour de nombreuses entreprises, en particulier celles qui avaient investi dans des solutions de neuromarketing interne, d’analyse faciale ou d’eye‑tracking pour mesurer « l’engagement » de leurs équipes, l’interdiction de la reconnaissance des émotions au travail oblige à un virage stratégique. Des fournisseurs de ces technologies reconnaissent déjà devoir redéfinir leurs offres pour éviter tout lien direct avec l’évaluation des performances ou le monitoring individuel des salariés.
Certains repositionnent leurs produits sur des usages autorisés, par exemple l’analyse émotionnelle de clients dans des contextes marketing (sous réserve de respecter le RGPD et les règles de transparence), ou dans des cadres médicaux et de recherche dûment encadrés. D’autres misent davantage sur des indicateurs non biométriques et agrégés de satisfaction ou de bien‑être au travail, issus de questionnaires anonymes, de baromètres sociaux ou d’analyses de texte non individualisées.
Pour les directions d’entreprise, le défi est de concilier la quête légitime d’amélioration du climat de travail avec le respect des nouvelles limites imposées par le droit. Cela passe par une gouvernance de l’IA plus mature : cartographie des systèmes existants, identification des modules de reconnaissance émotionnelle, analyses d’impact sur les droits fondamentaux, consultation des représentants du personnel, et mise en place de chartes internes excluant explicitement ces pratiques. À terme, cette contrainte pourrait même devenir un avantage compétitif en renforçant la confiance des salariés et des candidats.
Une interdiction ciblée : travail et école, mais pas tous les usages
Il est important de noter que l’UE n’a pas banni toute forme de reconnaissance des émotions dans l’absolu. La prohibition vise spécifiquement les environnements de travail et d’enseignement, où les personnes se trouvent en situation de dépendance et de vulnérabilité institutionnelle. Dans d’autres contextes commerciaux, certains usages restent possibles, sous réserve de respecter le RGPD, les obligations de transparence de l’AI Act et les règles sectorielles applicables.
Ainsi, un chatbot commercial qui ajuste son ton en fonction de la colère perçue dans la voix d’un client n’est pas automatiquement interdit par l’AI Act, tant qu’il n’est pas utilisé pour évaluer ou sanctionner le salarié, mais bien pour adapter la relation client. De même, des panneaux publicitaires qui changent de contenu en fonction de l’émotion supposée des passants captée par caméra restent, en principe, possibles, à condition que les personnes soient correctement informées et que les données ne soient pas réutilisées à des fins de profilage abusif.
Cette distinction peut sembler subtile, mais elle est centrale pour comprendre la philosophie du règlement : l’UE ne ferme pas la porte à toute innovation en matière d’Emotion AI, mais trace une ligne rouge nette là où l’asymétrie de pouvoir et l’impact sur les droits fondamentaux sont les plus forts. Le lieu de travail et l’école sont ainsi érigés en espaces protégés, où l’on ne peut pas être contraint de « livrer » ses émotions à des algorithmes.
Avec l’interdiction de la reconnaissance des émotions au travail, l’Union européenne pose un jalon majeur dans la régulation de l’intelligence artificielle. Elle affirme que tout ce qui est techniquement possible n’est pas socialement acceptable, surtout lorsque cela touche au noyau intime de la personne. Loin d’être un simple détail technique dans un règlement volumineux, cette mesure redéfinit les frontières de ce qui peut être observé, mesuré et exploité dans la relation de travail.
Les entreprises qui anticiperont ces évolutions, en abandonnant la tentation de la surveillance émotionnelle pour privilégier la confiance, le dialogue et la participation, pourraient y gagner plus qu’elles ne perdent en termes de productivité à court terme. Pour les salariés, cette interdiction marque une reconnaissance forte de leur droit à conserver une part de leur vie intérieure à l’abri des algorithmes. La bataille pour un usage éthique de l’IA ne fait que commencer, mais l’UE vient de tracer une première ligne rouge claire : au travail, nos émotions ne sont pas un KPI.
















