Les États‑Unis voient émerger les premières interdictions et réglementations ciblant l’usage de l’intelligence artificielle dans les services de santé mentale. En 2025 plusieurs États ont adopté des lois contrastées : le Nevada et l’Illinois ont imposé des limitations strictes ou des interdictions pratiques, tandis qu’Utah a choisi un cadre de transparence et de protection des données.
Ces décisions s’inscrivent dans un contexte de préoccupation croissante sur la sécurité des patients, les biais des modèles de langage et la responsabilité légale des plateformes. L’accumulation d’études scientifiques, de plaintes citoyennes et de pressions professionnelles a accéléré la réaction des législateurs d’État.
Cadre législatif : Nevada, Illinois et Utah
Au Nevada l’Assembly Bill 406 (AB406) a été adoptée et finalisée le 6 juin 2025 ; le texte interdit l’utilisation d’IA pour fournir des services qui « constitueraient la pratique des soins mentaux ou comportementaux » si ces services étaient fournis par une personne, et réserve l’IA à des tâches administratives.
La loi du Nevada prévoit des sanctions civiles pour violation, avec des montants signalés allant jusqu’à 15 000 $ par infraction selon les synthèses législatives. Le texte « enrolled » est consultable dans les registres législatifs pour vérifier la rédaction exacte et les dates d’entrée en vigueur.
En Illinois la « Wellness and Oversight for Psychological Resources Act » (HB1806) a été signée début août 2025. Cette loi interdit aux systèmes d’IA de fournir de la psychothérapie ou de prendre des décisions cliniques sans supervision humaine et réserve l’usage de l’IA aux fonctions administratives.
La WOPR Act confie l’application à l’Illinois Department of Financial and Professional Regulation (IDFPR) et prévoit des amendes civiles signalées jusqu’à 10 000 $ par violation. Lors de la promulgation, Mario Treto, Jr. (IDFPR) a déclaré : « The people of Illinois deserve quality healthcare from real, qualified professionals and not computer programs… »
Par contraste l’Utah, via le HB452 entré en vigueur le 7 mai 2025, a choisi de définir les « mental health chatbots » et d’imposer des obligations de divulgation (indication qu’il s’agit d’IA avant l’accès et parfois ensuite), d’interdire la vente ou le partage de données de santé identifiables et de limiter la publicité non divulguée, avec des amendes administratives signalées jusqu’à 2 500 $ par violation.
Pourquoi ces interdictions et restrictions ?
Plusieurs facteurs expliquent la réaction des législateurs : études académiques, incidents rapportés, plaintes de consommateurs et recommandations d’organisations professionnelles. Une étude de Stanford (prépublication arXiv, avril 2025) a montré que des grands modèles de langage exprimaient des stigmates accrus et produisaient des réponses cliniquement inappropriées dans des scénarios à risque.
Les résultats de la recherche indiquent des performances nettement inférieures à celles de thérapeutes humains sur des scénarios critiques : des taux d’« réponses appropriées » souvent inférieurs à 60 % selon les comptes rendus médiatiques et les communiqués universitaires. Ces lacunes sont particulièrement préoccupantes lorsque les réponses peuvent encourager des délires, ignorer des signaux suicidaires ou stigmatiser des troubles comme l’alcoolisme ou la schizophrénie.
Face à ces risques, les législateurs ont estimé que laisser des systèmes d’IA agir sans supervision humaine présentait un danger réel pour la sécurité et la confidentialité des patients, d’où le choix d’interdictions strictes dans certains États et de règles de transparence dans d’autres.
Sanctions, autorités de contrôle et application
Les lois adoptées précisent des mécanismes d’application variés. Au Nevada, AB406 prévoit des sanctions civiles pouvant atteindre 15 000 $ par infraction, renforçant la dissuasion financière contre l’offre de services d’IA non conformes.
En Illinois l’IDFPR est l’autorité chargée de l’application et peut imposer des amendes allant jusqu’à 10 000 $ par violation. Les régulateurs disposent ainsi d’outils pour contrôler les pratiques commerciales et protéger la déontologie professionnelle en santé mentale.
Dans l’Utah, les violations des obligations de divulgation, de protection des données et de publicité sont punissables par des amendes administratives (jusqu’à 2 500 $ par violation dans certaines analyses), ce qui reflète une approche moins punitivement restrictive mais orientée vers la conformité et la transparence.
Réactions des professionnels, des associations et de la société civile
Des chapitres d’associations professionnelles, notamment NASW‑Illinois et NASW‑Nevada, ont soutenu ou recommandé des restrictions pour protéger la pratique clinique et les patients vulnérables ; leur lobbying a été cité comme un moteur important des lois d’État.
Une coalition d’associations de consommateurs et de droits numériques (Consumer Federation of America, AI Now, Tech Justice, etc.) a par ailleurs déposé en juin 2025 une plainte/demande d’enquête auprès de la FTC contre des chatbots de grandes plateformes (Character.AI, Meta) pour exercice non autorisé de la pratique thérapeutique et pratiques trompeuses, alléguant fabrication de licences et promesses de confidentialité non tenues.
La presse spécialisée et généraliste a mis en avant ce mélange d’appels à la protection des patients et de craintes quant à un encadrement insuffisant : beaucoup d’experts réclament des règles coordonnées au‑delà du patchwork d’actions étatiques.
Conséquences pratiques pour les entreprises et les utilisateurs
Face aux lois et plaintes, plusieurs acteurs commerciaux ont adapté leurs services : modifications du marketing, ajout d’avertissements explicites, limitation d’accès dans certains États et retrait de certaines fonctionnalités à visée thérapeutique.
Ces premiers textes contraignent déjà l’écosystème commercial d’« IA‑thérapeute » : plateformes et startups revoient leurs modèles de déploiement, leurs clauses de confidentialité et les promesses faites aux utilisateurs afin de limiter l’exposition réglementaire et les risques de responsabilité.
Pour les utilisateurs cela se traduit par une plus grande prudence, des indications claires lorsque l’interlocuteur est une IA et, selon les États, l’impossibilité d’utiliser certaines fonctionnalités thérapeutiques automatiques sans supervision humaine qualifiée.
Questions juridiques et perspectives réglementaires fédérales
Les avocats et cabinets spécialisés soulignent des risques multiples : exercice non autorisé de la psychologie ou de la médecine, responsabilité pour produit ou négligence, et lacunes en matière de confidentialité (notamment HIPAA) lorsque des données de santé sont traitées par des plateformes d’IA.
Le débat porte sur l’attribution de la responsabilité en cas de préjudice : sera‑ce la plateforme, le développeur du modèle, le fournisseur de l’interface, ou un utilisateur supervisant l’outil ? Les textes d’État actuels apportent des réponses partielles mais laissent des zones d’ombre juridiques importantes.
Plusieurs analystes médias et juridiques prévoient une multiplication des lois d’État et une forte probabilité d’intervention fédérale si l’hétérogénéité réglementaire persiste, afin d’harmoniser les obligations de sécurité, de responsabilité et de protection des données pour les services d’IA en santé mentale.
Les premières interdictions et régulations en 2025 marquent une étape importante : elles traduisent la volonté d’encadrer l’usage de l’IA lorsque la vulnérabilité des personnes et la probabilité de préjudice clinique sont élevées. Nevada et Illinois ont opté pour des mesures robustes, Utah pour la transparence et la protection des données.
À court terme, cela crée un paysage réglementaire fragmenté qui pousse les acteurs à la prudence ; à moyen terme, le mélange d’études scientifiques, d’actions civiles et de pressions professionnelles laisse penser qu’une coordination nationale , ou au moins des standards fédéraux , pourrait se profiler pour clarifier responsabilités, sécurité et droits des patients face aux outils d’IA.
















