Accueil / Travail / IA au travail: fin de la reconnaissance des émotions

IA au travail: fin de la reconnaissance des émotions

Depuis 2024‑2025, l’Europe a coupé court à une des promesses les plus polémiques de l’« emotion AI » : l’utilisation d’outils capables d’inférer l’état affectif des personnes au travail. Le règlement (UE) 2024/1689 (AI Act) a posé un interdit clair dont les effets pratiques sont devenus applicables à partir du 2 février 2025, poussant employeurs, éditeurs et fournisseurs à repenser des produits et des usages longtemps commercialisés.

Cette interdiction s’inscrit à la croisée de préoccupations scientifiques, éthiques et juridiques : fiabilité contestée des inférences émotionnelles, risques discriminatoires et intrusifs, mais aussi enjeux économiques liés à un marché en croissance. L’article fait le point sur le cadre légal, les motifs de la proscription, les conséquences concrètes et les perspectives pour la recherche et la gouvernance.

Le nouveau cadre légal européen

Le cœur du dispositif est l’article 5(1)(f) de l’AI Act qui prohibe « la mise sur le marché, la mise en service ou l’utilisation » de systèmes d’IA visant à inférer les émotions des personnes dans les contextes du travail et de l’éducation, avec des exceptions très limitées (raisons médicales ou de sécurité strictement définies).

Le règlement (UE) 2024/1689 a été publié au Journal officiel le 12 juillet 2024 et est entré en vigueur le 1er août 2024 ; les interdictions qualifiées d’« usages inacceptables » , dont la reconnaissance des émotions au travail , sont devenues applicables à compter du 2 février 2025. Les lignes directrices de la Commission publiées le 4 février 2025 précisent la portée pratique de l’interdiction et restreignent fortement les exceptions.

La portée juridique vise notamment les IA qui infèrent des émotions à partir de données biométriques (visage, voix, posture, voire frappes clavier lorsqu’elles sont assimilées à de la biométrie) et protège explicitement les candidats pendant les processus de recrutement. Le texte précise que certains états « médicaux » ou la « fatigue » peuvent être exclus de la notion d’« émotion » selon l’interprétation stricte des exceptions.

Ce qui est interdit , portée et exemples concrets

Les Guidelines de la Commission énumèrent des exemples concrets d’usages interdits : suivi automatisé des émotions via webcams et captation vocale dans des centres d’appels, analyse faciale lors de réunions vidéo pour évaluer l’engagement ou la performance, et systèmes d’évaluation ou de tri de candidats fondés sur des inférences émotionnelles.

Autrement dit, tout dispositif commercialisé ou mis en service sur le marché européen visant explicitement à « lire » l’état affectif des salariés ou des candidats tombe sous le coup de l’interdiction, sauf dans des cadres médico‑légitimes ou de sécurité étroitement limités et documentés.

Les employeurs doivent aussi s’interroger sur les usages périphériques : même des fonctions annexes d’un logiciel RH exploitant des signaux dits « affectifs » peuvent nécessiter retrait ou adaptation pour conformité, et les fournisseurs doivent fournir documentation et évaluations d’impact détaillées lorsqu’un cas d’usage pourrait approcher la zone prohibée.

Pourquoi l’interdiction? Fondements scientifiques et éthiques

La décision de bannir ces usages au travail repose en grande partie sur des critiques scientifiques: de nombreuses revues et expertises montrent une grande variabilité contextuelle et culturelle des expressions émotionnelles, ce qui limite la validité des inférences automatiques.

La neuroscientifique Lisa Feldman Barrett a résumé une critique centrale : « The best available scientific evidence indicates that there are no universal expressions of emotion ». Ce constat alimente le scepticisme sur la capacité réelle des systèmes d’IA à « lire » fidèlement les états affectifs individuels à travers cultures et contextes.

Au‑delà de la fiabilité, l’argument éthique est fort : risque de discrimination, de surveillance intrusive et d’« automatisation de l’empathie » , des outils qui évaluent ou modifient les relations de travail en se fondant sur des inférences douteuses. C’est pourquoi le texte et les analyses réglementaires insistent sur la protection des droits fondamentaux et la prévention des usages abusifs.

Conséquences pratiques pour employeurs et éditeurs

Pour les employeurs, la première conséquence a été l’arrêt ou le retrait des fonctionnalités d’analyse émotionnelle dans les outils RH et les suites de monitoring destinées au marché européen. Les équipes juridiques et informatiques doivent revoir les clauses contractuelles avec les fournisseurs, effectuer des évaluations d’impact (DPIA / FRIA) et documenter strictement les finalités des traitements.

Les éditeurs qui veulent conserver des fonctions liées aux signaux affectifs doivent désormais soit requalifier leurs usages (par ex. en insistant sur des finalités médicales clairement justifiées), soit fermer l’accès aux fonctionnalités pour les utilisateurs européens, car le règlement a un effet extraterritorial sur les services offerts au marché UE.

Le non‑respect des interdictions expose à des sanctions lourdes : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, ce qui rend le risque financier majeur pour les acteurs qui tenteraient d’éluder la règle. Les autorités nationales de protection des données mènent en parallèle des consultations et publient recommandations pour aider à la conformité.

Réactions industrielles et dynamique du marché

Le marché des solutions d’« emotion analytics » a continué de croître jusqu’à récemment , estimé à environ 3,4 milliards USD pour le segment logiciel en 2024 , ce qui explique l’intérêt commercial et la résistance de certains acteurs face aux critiques et aux régulations.

Des entreprises ont déjà anticipé les doutes scientifiques et sociaux : Microsoft, par exemple, a restreint puis retiré en 2022 l’accès public à certaines fonctions « émotion » d’Azure Face, invoquant l’absence de consensus scientifique et les risques d’abus. D’autres fournisseurs ont adapté leurs offres pour éviter de cibler explicitement des inférences émotionnelles exploitables en contexte professionnel.

Malgré l’interdiction en milieu de travail, la demande commerciale et les investissements continuent ailleurs (outils marketing, bien‑être personnel hors cadre professionnel), d’où une pression concurrentielle persistante qui pousse à l’innovation mais aussi à la vigilance réglementaire.

Perspectives internationales et recherche future

L’AI Act a un effet extraterritorial : les entreprises hors UE qui fournissent des services au marché européen doivent se conformer. À l’international, la gouvernance reste fragmentée , aux États‑Unis, par exemple, il n’existe pas (en 2025) d’équivalent fédéral unique, ce qui crée un paysage légal morcelé et des risques d’arbitrage règlementaire.

Paradoxalement, l’interdiction d’usage au travail n’a pas étouffé la recherche. Des équipes poursuivent l’exploration des signaux affectifs et la distinction entre « émotion ressentie » et « émotion perçue », avec de nouveaux jeux de données et méthodes publiés en 2025. La communauté scientifique continue donc de débattre et d’affiner les cadres conceptuels et méthodologiques.

Les spécialistes en gouvernance, tels qu’Andrew McStay, appellent à des instruments complémentaires (normes, standards, soft law) pour encadrer les usages restants et prévenir les dérives. Les autorités recommandent par ailleurs la transparence, les DPIA et la documentation détaillée des données d’entraînement et des biais connus pour tout projet impliquant des signaux affectifs, même hors du périmètre interdit.

En pratique, on peut s’attendre à une polarisation : d’un côté, une zone réglementée et protégée en Europe où l’usage d’IA pour inférer les émotions au travail est largement fermé ; de l’autre, des terrains d’expérimentation et des marchés moins régulés où la recherche et des applications différentes persistent.

Pour les acteurs européens et ceux qui veulent commercer en Europe, la règle est claire : revoir les produits, documenter les risques et prévoir des mesures de conformité strictes. Pour la communauté scientifique, la route reste ouverte mais sous contrôle renforcé et sous l’œil vigilant des régulateurs et du public.

En synthèse au 23/10/2025, l’ère des usages automatisés d’IA visant à « lire » les émotions des salariés en Europe est largement close, sauf exceptions médicales ou de sécurité très étroites. Le débat mondial demeure vivant, partagé entre pressions commerciales, contestations scientifiques et renforcement des gouvernances.

Le message pour les décideurs est double : protéger les personnes contre des inférences peu fiables et dangereuses, et en même temps canaliser la recherche et l’innovation vers des usages responsables, transparents et évalués rigoureusement.