L’intelligence artificielle entre rapidement dans les pratiques de soin, de la rédaction de comptes rendus à l’aide au triage, en passant par l’analyse d’images, l’aide à la décision et les interfaces conversationnelles. Pour les cliniciens, cette évolution ne pose pas seulement une question d’outillage technique. Elle transforme aussi les conditions du jugement professionnel, la responsabilité, la relation thérapeutique et la confiance des patients. Dans le champ de la santé mentale comme ailleurs, former les professionnels à l’IA devient donc une exigence de sécurité, d’éthique et de qualité des soins.
Les données récentes montrent que cette priorité est désormais mesurable. Aux États-Unis et au Canada, la part des facultés de médecine MD/DO intégrant l’IA au cursus est passée de 53 % en 2023 à 77 % en 2024, selon l’AAMC/AACOM. Mais apprendre l’IA ne signifie pas seulement comprendre des modèles ou des interfaces : les compétences attendues incluent aussi les dimensions éthiques, juridiques et professionnelles. Autrement dit, la vraie question n’est plus de savoir s’il faut former les cliniciens à l’intelligence artificielle, mais comment le faire sans fragiliser le soin.
Former les cliniciens à l’intelligence artificielle : une nouvelle littératie clinique
La formation des cliniciens à l’intelligence artificielle ne devrait pas être pensée comme un module optionnel réservé aux profils technophiles. L’AAMC présente désormais des compétences IA destinées à la fois aux apprenants et aux médecins en exercice, avec un objectif clair : savoir utiliser, évaluer et encadrer les outils d’IA en lien avec les équipes interprofessionnelles, les data scientists et les dirigeants de systèmes de santé. Cette vision est importante, car elle place l’IA dans la continuité des compétences cliniques, et non à leur périphérie.
Dans la pratique, cette littératie implique au minimum de comprendre ce qu’un système fait, ce qu’il ne fait pas, sur quelles données il repose, dans quels contextes ses performances chutent et quels risques il introduit. Un score élevé à un examen ou une démonstration impressionnante ne suffit pas à prouver qu’un outil est fiable dans une consultation réelle, face à l’incertitude, aux préférences du patient, au temps contraint et aux conséquences d’une erreur. Les performances de type USMLE observées avec certains grands modèles de langage illustrent un potentiel, mais ne valent pas validation clinique supervisée.
Pour les lecteurs concernés par la santé mentale, cet enjeu est particulièrement sensible. Les outils d’IA peuvent sembler fluidifier l’écoute, résumer des échanges ou générer des formulations empathiques. Pourtant, la compréhension du contexte traumatique, de la vulnérabilité psychique, de l’alliance thérapeutique et des nuances relationnelles ne se laisse pas réduire à une sortie textuelle convaincante. Former à l’IA, c’est donc aussi apprendre à distinguer la plausibilité d’une réponse de sa pertinence clinique et humaine.
L’éthique et les droits humains comme socle pédagogique
L’OMS fournit ici un repère essentiel. Son cadre sur l’éthique et la gouvernance de l’IA pour la santé rappelle que ces technologies doivent mettre « ethics and human rights at the heart of design, deployment, and use ». Cette formule n’est pas seulement normative : elle offre une architecture pédagogique concrète. Elle invite à enseigner l’IA à partir de questions de dignité, d’autonomie, de justice, de sécurité et d’intérêt public, plutôt qu’à partir de la seule performance algorithmique.
Pour les cliniciens, cela signifie apprendre à repérer les situations où l’IA peut amplifier des asymétries déjà présentes dans le soin : inégalités d’accès, biais de données, erreurs sur des populations sous-représentées, simplification excessive de cas complexes ou réduction de la parole du patient à des catégories techniques. Dans le champ psychologique et psychiatrique, ces risques peuvent toucher des personnes déjà exposées à la stigmatisation, aux ruptures de confiance ou aux effets d’un traumatisme. Une formation éthique sérieuse doit donc inclure des études de cas ancrées dans les réalités cliniques.
Le cadre international FUTURE-AI renforce cette approche avec six principes particulièrement utiles pour l’enseignement : fairness, universality, traceability, usability, robustness et explainability. Ces axes ont l’avantage de relier des notions parfois abstraites à des questions très concrètes pour les soignants : pour qui l’outil fonctionne-t-il moins bien ? Peut-on retracer ce qu’il a fait ? Est-il utilisable sans augmenter la charge cognitive ? Résiste-t-il à des contextes réels ? Peut-on expliquer son rôle au patient et à l’équipe ?
Pourquoi la supervision humaine doit être apprise, et pas seulement affirmée
On répète souvent que l’IA doit rester sous supervision humaine. Mais cette formule reste vide si les professionnels n’apprennent pas ce que supervise réellement un clinicien, à quel moment il doit interrompre l’usage, comment il documente une divergence et comment il remonte un incident. L’AI Act européen rend cette exigence plus opérationnelle : pour les usages à haut risque pouvant affecter la santé, les déployeurs doivent garantir la supervision humaine et le monitoring, tandis que les fournisseurs assurent une surveillance post-commercialisation et les autorités organisent la surveillance du marché.
L’Article 26 du texte ajoute des obligations concrètes, notamment la conservation des logs automatiquement générés pendant une période appropriée d’au moins six mois lorsqu’ils sont sous le contrôle du déployeur, ainsi que l’interdiction d’utiliser un système non conforme aux exigences d’enregistrement. Pour la formation, le message est clair : la supervision ne se limite pas au « bon sens clinique ». Elle suppose une culture de traçabilité, d’alerte, de documentation et de signalement. Ce sont des compétences professionnelles à entraîner.
Cette évolution rejoint une idée de plus en plus discutée : superviser des outils de GenAI ressemble parfois davantage à la formation et à la certification des cliniciens qu’au contrôle d’un dispositif statique. Comme le résume un compte rendu réglementaire de 2026 citant un Viewpoint de JAMA Health Forum, il faut traiter la supervision « more like clinician training, with structured evaluation, supervised use, and ongoing recertification ». Autrement dit, les systèmes apprenants exigent une vigilance continue, pas une confiance accordée une fois pour toutes.
Former aussi les superviseurs, les enseignants et les institutions
Une erreur fréquente consiste à imaginer que seuls les cliniciens de première ligne ont besoin d’être formés. En réalité, les superviseurs, les enseignants, les cadres et les responsables qualité doivent eux aussi monter en compétence. L’AAMC a lancé une série de 10 webinaires dédiés aux enseignants en médecine, couvrant les notions de base, l’éthique, le prompting, l’évaluation des sorties, la conception curriculaire et l’éducation clinique. Ce point est décisif : on ne peut pas exiger une supervision sûre de l’IA sans former ceux qui encadrent cette supervision.
À l’échelle organisationnelle, la gouvernance institutionnelle devient un niveau central de sécurité. Un article de npj Digital Medicine en 2025 insiste sur la nécessité d’un cadre institutionnel pour soutenir des soins augmentés par l’IA de manière éthique, juste et équitable. L’AMA, de son côté, recommande des groupes de travail réunissant des représentants médicaux, infirmiers, cliniques, opérationnels, financiers, juridiques, conformité, technologie, data science, pharmacie et expérience patient. Cette coalition multidisciplinaire rappelle que l’IA n’est pas un simple achat logiciel, mais un changement socio-technique.
Pour la formation, cela implique d’aller au-delà d’un cours isolé sur les algorithmes. Les établissements doivent enseigner les politiques d’usage, les procédures de déploiement, les critères d’évaluation, la conformité, les responsabilités de chacun et le suivi de l’impact sur les utilisateurs. Dans un service de santé mentale, par exemple, cela peut inclure la manière dont une note générée automatiquement est relue, validée, corrigée, intégrée au dossier, expliquée au patient et auditée en cas d’erreur.
Désinformation, hallucinations et biais : apprendre la vérification systématique
Les grands modèles de langage offrent des capacités frappantes de reformulation, de synthèse et de production textuelle. Mais leur fluidité peut créer une illusion de fiabilité. Une étude du BMJ en 2024 a montré un taux de refus de seulement 5 % face à des demandes de génération de désinformation sanitaire, avec production de faux billets intégrant titres accrocheurs, références fictives et faux témoignages. La leçon pédagogique est simple : un style convaincant n’est jamais une garantie de vérité.
Dans la formation des cliniciens, cela impose des routines de vérification explicites. Il faut apprendre à contrôler les références, comparer les sorties à des recommandations fiables, repérer les formulations trop assurées, tester les limites du système et éviter de supposer qu’un outil commercial est intrinsèquement sûr. Les safeguards existent parfois, mais ils restent inégalement déployés. L’usage clinique des LLM doit donc s’accompagner d’une posture méthodique de doute, comparable à celle que l’on applique déjà à toute source secondaire.
La question du biais demande une pédagogie tout aussi concrète. Un cadre d’audit en 5 étapes proposé dans npj Digital Medicine en 2025 recommande de définir le but et la tolérance au risque avec les parties prenantes, de choisir le modèle, d’exécuter l’audit sur des scénarios cliniquement pertinents, de comparer les résultats aux décisions humaines non assistées, puis d’assurer une surveillance continue du drift. Cette comparaison avec la pratique humaine est précieuse : elle évite de juger l’IA dans l’absolu et permet une adoption plus lucide, centrée sur les bénéfices réels et les risques comparés.
Consentement, information du patient et relation thérapeutique
À mesure que l’IA s’insère dans les échanges cliniques, le consentement éclairé et l’information du patient deviennent des objets pédagogiques de premier plan. La World Medical Association souligne en 2025 que le niveau d’intervention de l’IA affecte significativement le consentement éclairé, et que ces technologies peuvent réduire l’interaction directe entre médecin et patient. Cela est particulièrement important lorsque la qualité du soin dépend de la relation, de la temporalité de l’écoute et de la capacité à accueillir l’ambivalence ou la détresse.
Des obligations de transparence apparaissent déjà dans certains contextes. En Californie, une loi entrée en vigueur en janvier 2025 impose aux établissements, cliniques et cabinets utilisant l’IA générative pour communiquer des informations cliniques aux patients de les informer que la communication a été créée par GenAI, sauf exemptions prévues. Même si ce cadre n’est pas universel, il signale une direction claire : les patients ne doivent pas découvrir après coup qu’un message présenté comme clinique a été automatisé.
La formation doit aussi aborder les usages à fort enjeu relationnel, comme le consentement chirurgical, l’annonce diagnostique, l’éducation thérapeutique ou le soutien psychologique. Un article du Journal of Medical Ethics note que les LLM peuvent améliorer l’accessibilité de l’information, tout en posant des problèmes de simplification excessive et d’erreurs, ce qui appelle une supervision médicale explicite. Il rappelle aussi un point essentiel pour les professions du soin : l’empathie simulée ne remplace pas la relation clinique, car elle ne porte ni la responsabilité morale ni l’engagement humain réel qui fondent la confiance.
De la conformité à la culture de vigilance continue
Les cadres réglementaires et techniques convergent de plus en plus vers une logique de cycle de vie. La FDA indique qu’en janvier 2025, l’IMDRF a finalisé 10 principes directeurs de Good Machine Learning Practice pour des dispositifs IA/ML sûrs, efficaces et de haute qualité sur l’ensemble du total product life cycle. Une étude indexée sur PubMed concernant les dispositifs autorisés par la FDA en 2024 note également une montée des attentes en matière de transparence, d’équité et de sécurité, ainsi que l’inclusion de Predetermined Change Control Plans. Pour les cliniciens, cela signifie qu’un outil peut évoluer : l’évaluation initiale ne suffit pas.
Le NIST AI RMF: Generative AI Profile va dans le même sens avec des attentes autour de la documentation, de la transparence, de l’évaluation, du monitoring et de la réponse aux incidents. En pratique, ces éléments peuvent devenir des modules de formation très concrets : comment lire une documentation produit, quels indicateurs suivre, quand suspendre un usage, comment documenter une anomalie, à qui signaler un incident et comment protéger les données. Cette dimension est moins visible que les démonstrations technologiques, mais elle est beaucoup plus déterminante pour la sécurité réelle.
Enfin, la gouvernance de l’IA en santé se déplace vers un modèle distribué. Les compétences curriculaires, la supervision humaine obligatoire, les audits de biais, la surveillance post-déploiement, la transparence envers le patient et l’interopérabilité des données dessinent un écosystème partagé entre clinicien, institution, régulateur et développeur. L’UNESCO insiste d’ailleurs sur le capacity building non seulement des autorités de supervision, mais aussi des acteurs de l’éducation en santé, avec un accent sur la gouvernance, la responsabilité, la protection des données et l’intégrité des contenus. Former les cliniciens à l’intelligence artificielle, c’est donc former simultanément un environnement de pratique plus mature.
Au fond, la question n’est pas de choisir entre enthousiasme technologique et rejet prudent. Elle est de construire une compétence clinique nouvelle, capable d’intégrer l’IA sans lui abandonner la responsabilité du soin. Une bonne formation doit apprendre à utiliser certains outils, à en refuser d’autres, à documenter les écarts, à protéger les patients et à préserver ce qui, dans la pratique clinique, ne peut pas être externalisé : le jugement situé, la responsabilité et la qualité de la relation.
Pour les professionnels comme pour le grand public, cette exigence est aussi une condition de confiance. Une étude de JAMA Network Open en 2025 suggère que l’existence de mécanismes de supervision renforce l’acceptabilité de l’IA médicale par les patients. Former les cliniciens à l’intelligence artificielle ne consiste donc pas seulement à suivre l’innovation. C’est une manière de rendre l’innovation plus sûre, plus explicable et plus humaine.
















