Accueil / Psychologie / Suivi cognitif: quand l’IA quantifie nos états mentaux

Suivi cognitif: quand l’IA quantifie nos états mentaux

Le suivi cognitif n’est plus un concept de science-fiction. Entre bandeaux EEG « intelligents », applications de santé mentale génératives et jumeaux numériques du cerveau, l’IA rend désormais possible la quantification fine de nos états mentaux, parfois à notre insu. Derrière les promesses de mieux‑être, de performance et de médecine personnalisée se dessine un nouvel enjeu politique majeur : qui aura le droit de lire, prédire ou influencer nos pensées ?

En 2025, l’UNESCO a qualifié les données neuronales de « données particulièrement sensibles » et a alerté sur un possible « far west » de la capture non régulée des états mentaux. Dans le même temps, chercheurs, législateurs et cliniciens tentent de poser des garde‑fous, tandis que les entreprises avancent rapidement sur les marchés de la productivité, du bien‑être et du divertissement. Comprendre ce que signifie ce suivi cognitif est devenu essentiel pour défendre notre intimité mentale et notre liberté de pensée.

Du quantified self au quantified mind

Depuis une décennie, le quantified self a habitué le grand public à mesurer ses pas, son sommeil ou sa fréquence cardiaque. Le suivi cognitif va plus loin : il vise à mesurer l’attention, la mémoire, l’humeur, le niveau de stress, voire les intentions ou les tendances pathologiques. Avec l’essor de l’IA, ces mesures ne reposent plus seulement sur des questionnaires ou des tests ponctuels, mais sur l’analyse continue de flux de données physiologiques, comportementales et neuronales.

Des projets comme « AI on the Pulse » illustrent cette bascule. En 2025, cette équipe a montré qu’un modèle d’IA universel appliqué aux données de montres connectées et de capteurs ambiants pouvait apprendre le « profil normal » d’un individu et détecter ensuite des anomalies subtiles. Ces écarts peuvent signaler un stress inhabituel, un épisode dépressif naissant ou un déclin cognitif précoce, bien avant que la personne ne consulte un spécialiste. Le suivi cognitif s’installe ainsi au cœur du quotidien, au domicile, en dehors des cabinets médicaux.

En parallèle, le cadre conceptuel évolue. Le commentaire publié en juin 2025 dans Nature Mental Health^1 rappelle que les technologies neurocognitives devraient être pensées comme des instruments de droits humains, en particulier pour les personnes en situation de handicap psychique. Leurs états mentaux risquent d’être davantage suivis, profilés et modulés par l’IA. Ce « quantified mind » pose une question de fond : comment bénéficier d’un suivi précis sans glisser vers une surveillance mentale permanente ?

Neurotechnologies et IA : comment nos états mentaux deviennent mesurables

La convergence entre neurotechnologies et IA change l’échelle du possible. Sur le plan matériel, de nouveaux dispositifs comme les bandeaux EEG intelligents ouvrent la voie à une captation discrète et prolongée de l’activité cérébrale. Une preuve de concept publiée en novembre 2025^2 décrit un serre‑tête à électrodes brodées, confortable et sans gel, permettant d’enregistrer sur la durée des signaux cérébraux de qualité comparable aux casques professionnels. Il devient envisageable de suivre chez soi, jour après jour, l’attention, la fatigue ou certaines réponses émotionnelles.

Sur le plan logiciel, les modèles de fondation appliqués à l’EEG franchissent un nouveau cap. Le projet FoME^3, présenté en 2024, a entraîné un modèle de 745 millions de paramètres sur 1,7 To d’EEG de scalp et intracrânien. En apprenant des motifs temps‑fréquence génériques, l’IA atteint l’état de l’art sur plusieurs tâches : classification, prévision de signaux, détection de charge mentale ou de risques pathologiques. L’enjeu n’est plus seulement de lire l’activité cérébrale, mais de prédire l’évolution d’un état cognitif à partir de flux continus.

Le NIH BRAIN Initiative s’intéresse désormais aux « jumeaux numériques du cerveau » : des simulations personnalisées de notre activité cérébrale nourries par ces masses de neurodonnées^4. Ces modèles pourraient anticiper la réaction d’une personne à un traitement, ou prévoir l’apparition d’épisodes dépressifs ou épileptiques. Mais ils reposent sur l’accumulation et le couplage de données neuronales, comportementales et émotionnelles, transformant notre vie mentale en un objet de modélisation prédictive.

Suivi cognitif au quotidien : des bandeaux EEG aux IA de “self‑thérapie”

Le suivi cognitif ne reste pas cantonné au monde hospitalier. Les bandeaux EEG grand public , utilisés pour la méditation, le travail ou le jeu vidéo , promettent déjà de mesurer la « concentration » ou la « calme » en temps réel. Des produits à base de signaux cérébraux ou de variabilité cardiaque offrent des tableaux de bord d’humeur et d’engagement, parfois connectés à des plateformes qui stockent, analysent et partagent ces données. Le rapport de la Neurorights Foundation (2024), cité par trois sénateurs américains en 2025^5, montre que la quasi‑totalité des 30 entreprises étudiées se réservent le droit d’accéder à ces données cérébrales, souvent pour les partager ou les vendre.

En parallèle, les IA génératives se transforment en « thérapeutes de poche ». Un reportage de janvier 2026 dans Le Monde^6 décrit comment des jeunes racontent de manière détaillée leur anxiété, leurs traumatismes ou leurs pensées suicidaires à des chatbots de type ChatGPT, ou à des applications spécialisées, bien plus fréquemment qu’à un professionnel de santé. Chaque échange constitue un matériau riche sur l’état cognitif : distorsions de pensée, vulnérabilités, paranoïa, idées fixes. Combinées à des données comportementales (géolocalisation, horaires, sommeil) et biométriques, ces conversations forment une cartographie fine du psychisme.

Les systèmes de collecte émotionnelle in situ comme AnnoSense^7 vont encore plus loin. Ce cadre propose de récolter des données affectives « authentiques » via smartphone, capteurs physiologiques et questionnaires répétés dans la journée. Pour la recherche, c’est une avancée majeure en psychométrie. Mais pour l’industrie, c’est un manuel pour construire des plateformes capables de reconstruire, en continu, notre paysage émotionnel. Le risque est de banaliser un tracking psychologique massif, présenté comme un simple service de bien‑être.

Le “closed‑loop” : quand l’IA ne fait pas que mesurer, mais agit sur le cerveau

Le suivi cognitif change de nature lorsqu’il s’inscrit dans des systèmes fermés dits « closed‑loop ». Ces dispositifs enregistrent en temps réel l’état cérébral ou comportemental, puis ajustent automatiquement un traitement : stimulation électrique, dosage médicamenteux, modification d’un environnement sonore ou visuel. Une revue de 2025 dans npj Digital Medicine^8 montre que de nombreux systèmes de ce type infèrent des états d’humeur, d’attention ou de pathologie pour décider en continu des interventions, souvent sans réflexion approfondie sur les conséquences neuroéthiques.

Considérons un implant de stimulation cérébrale profonde pour la dépression résistante : il peut mesurer certains marqueurs d’activité associée à des ruminations ou à une humeur basse, puis déclencher une stimulation corrective. Sur le papier, il s’agit d’un progrès thérapeutique considérable. Mais où s’arrête le soin et où commence une forme de régulation comportementale ? Le commentaire de Bublitz et al.^1 souligne ce flou : les mêmes boucles fermées pourraient servir à atténuer des comportements jugés « indésirables » plutôt qu’à soulager une souffrance, en particulier chez des personnes dont le consentement est fragile.

Cette automatisation du soin pose aussi des questions d’identité et d’agence. Si un algorithme ajuste en permanence notre seuil de réactivité émotionnelle ou notre niveau d’impulsivité, dans quelle mesure restons‑nous les auteurs de nos décisions ? La revue signale un « fossé persistant » entre la conformité réglementaire (autorisations éthiques et juridiques) et la réflexion sur l’autonomie, les changements de personnalité et la responsabilité. Le suivi cognitif, lorsqu’il se double d’une action automatique, redessine la frontière entre l’aide et le contrôle.

Neurorights et cadre international : la réponse de l’UNESCO

Face à cette accélération technologique, l’UNESCO a engagé un travail inédit de normalisation éthique. En mai 2025, les États membres se sont accordés sur le projet final de Recommandation sur l’éthique des neurotechnologies^9, devant être adopté formellement lors de la 43e Conférence générale. Ce texte définit les « données neuronales » comme une catégorie de données particulièrement sensibles, compte tenu de leur capacité à révéler des émotions, des intentions, un état de santé mentale ou des traits de personnalité.

La Recommandation met l’accent sur trois piliers : la vie privée mentale, la liberté cognitive et l’intégrité psychologique. Elle vise explicitement les systèmes d’IA capables d’inférer nos états mentaux à partir de signaux cérébraux, de données comportementales ou de dialogues avec des IA. Le processus d’élaboration a été long , groupe ad hoc d’experts, consultations mondiales en 2024, négociations intergouvernementales en 2024‑2025 , reflet de l’urgence à encadrer ce « far west » de la neurotech, selon les propres termes des responsables de l’UNESCO.

Pour les personnes avec handicap mental ou troubles psychiatriques, cette approche par les droits est cruciale. Le texte commenté dans Nature Mental Health^1 insiste : le suivi cognitif et les dispositifs prédictifs ou fermés ne doivent pas devenir des outils de profilage, de discrimination (par exemple en assurance ou à l’embauche) ni de contrôle comportemental déguisé sous couvert de soin. La Recommandation propose une boussole éthique à l’échelle mondiale, mais sa mise en œuvre concrète dépendra des lois nationales et de la vigilance des sociétés civiles.

Lois émergentes : du Colorado aux débats sur la propriété des neurodonnées

Sur le terrain juridique, certains territoires commencent à agir. En avril 2024, le Colorado a adopté le Protect Privacy of Biological Data Act^10, première loi américaine à inclure explicitement l’activité cérébrale (ondes, impulsions nerveuses, données de BCI) dans la catégorie des données sensibles. Cette reconnaissance découle de la prise de conscience que les bandeaux EEG et autres casques connectés sont rarement couverts par les régimes de données de santé classiques, alors même qu’ils révèlent des aspects intimes de la vie mentale.

Cette loi impose des exigences renforcées de consentement, de transparence et de limitation des usages autour des données neuronales. Elle s’inscrit dans une approche dite des « neurorights », c’est‑à‑dire des droits spécifiques liés à l’intégrité mentale et à la liberté de pensée. D’autres pays observent de près cette expérience, qui pourrait inspirer de futures révisions des réglementations sur les données personnelles en Europe et ailleurs, notamment autour de la notion de « données cognitives ».

Au‑delà de la protection de la vie privée, se pose la question de la propriété des neurodonnées. Un rapport publié en février 2025 par le centre Petrie‑Flom de Harvard^11 souligne que des dispositifs comme Neuralink et les interfaces cerveau‑machine déplacent la frontière entre l’utilisateur, le fabricant et les plateformes d’IA : qui détient les droits sur des signaux qui traduisent potentiellement des pensées, ou sur les inférences issues de ces signaux ? L’analyse plaide pour de nouvelles catégories juridiques et pour une reconnaissance pleine d’une liberté cognitive incluant le contrôle sur ces données et sur les modèles qui en dérivent.

Risques de dérive : profilage psychologique, nudging et exploitation des vulnérabilités

Le suivi cognitif massif ouvre un champ inédit pour le profilage psychologique. Combinées, les données issues des bandeaux, des montres, des smartphones et des dialogues avec des IA dessinent des profils extrêmement fins : tolérance au risque, tendance à la procrastination, susceptibilité à l’anxiété, signaux faibles de dépression ou de dépendance. Ces profils peuvent, en théorie, optimiser un accompagnement thérapeutique individualisé. Mais dans un cadre commercial, ils deviennent des outils de ciblage marketing et de manipulation comportementale.

Les craintes exprimées par l’UNESCO^9 ne relèvent pas de la science‑fiction. Des scénarios comme la publicité ultra‑personnalisée fondée sur l’état émotionnel momentané, le suivi de la productivité mentale au travail ou même le marketing subliminal pendant le sommeil s’appuient justement sur la capacité à mesurer et moduler nos états mentaux en temps réel. Un système qui sait que vous êtes fatigué, anxieux ou en manque de reconnaissance peut adapter ses messages pour maximiser l’engagement ou l’achat, exploitant vos moments de vulnérabilité.

Les IA de « self‑thérapie » aggravent ce risque. Le Monde^6 rappelle que seules une minorité d’apps affichent une validation clinique robuste et que la régulation est encore floue. Rien n’empêche, hors normes strictes, qu’un fournisseur croise vos confidences psychologiques avec des données de navigation ou d’achat pour anticiper vos failles et ajuster ses recommandations. Dans ce contexte, le suivi cognitif sort du champ médical pour rejoindre celui de la gouvernance des plateformes et de la démocratie : il touche directement à la capacité des individus à prendre des décisions sans être constamment nudgés sur la base de leurs états mentaux.

Vers un suivi cognitif responsable : quelles conditions ?

Le suivi cognitif n’est pas intrinsèquement problématique. Utilisé avec prudence, il peut permettre de mieux diagnostiquer les troubles neurodéveloppementaux, de prévenir les rechutes dépressives, d’adapter la rééducation après un AVC ou d’améliorer l’inclusion des personnes en situation de handicap mental. Les 24 projets de neuroéthique financés par le NIH BRAIN Initiative^4, par exemple, explorent justement comment articuler innovation et respect de la dignité humaine dans la convergence IA‑neurotech.

Pour qu’un suivi cognitif soit acceptable, plusieurs conditions minimales se dégagent des travaux récents. D’abord, un consentement réellement éclairé, qui explicite non seulement la collecte des données mais aussi les inférences possibles (états mentaux déduits) et leurs usages potentiels. Ensuite, des limites fortes à la réutilisation secondaire des neurodonnées , en particulier leur vente ou leur partage à des tiers à des fins publicitaires, assurantielles ou de scoring comportemental. Enfin, des mécanismes de contrôle individuel : portabilité des données, droit à l’oubli, possibilité de refuser certaines inférences.

Au niveau collectif, le développement de standards techniques et éthiques ouverts , comme ceux que tente de formuler l’UNESCO , sera déterminant. Il s’agit de préciser, par exemple, ce qui constitue une atteinte à la vie privée mentale, comment encadrer l’usage de jumeaux numériques du cerveau, ou encore quelles garanties exiger des systèmes en boucle fermée pour éviter qu’ils ne deviennent des instruments de normalisation comportementale. Sans une telle architecture normative, la quantification de nos états mentaux risque de se déployer d’abord là où la régulation est la plus faible : dans les produits de consommation de masse.

Le suivi cognitif par l’IA nous place devant un choix de société. Ou bien nous laissons ces technologies se développer selon la seule logique du marché et de l’innovation, au risque de voir se constituer un capitalisme de la pensée fondé sur l’extraction de nos états mentaux. Ou bien nous décidons de considérer la vie mentale comme un bien commun à protéger, en alignant les outils de mesure et de modulation cognitive sur des principes forts de droits humains, de justice sociale et de transparence.

La Recommandation de l’UNESCO sur l’éthique des neurotechnologies, les premières lois sur les neurorights et les travaux de neuroéthique autour de l’IA marquent les premières pierres de ce chantier. Mais la vigilance ne pourra être déléguée aux seuls experts : citoyens, patients, associations, designers et développeurs devront s’emparer de ces questions. Car à l’heure où nos émotions, nos doutes et nos impulsions peuvent être traduits en données, défendre la liberté de pensée signifie aussi reprendre la main sur la manière dont nos états mentaux sont captés, quantifiés et, peut‑être, transformés.