Nos montres connectées promettent de mieux nous connaître pour mieux nous aider : suivre le sommeil, détecter le stress, encourager l’activité physique, voire repérer des signes précoces de difficulté psychique. Cette promesse n’est plus futuriste. Les recherches récentes montrent que des signaux physiologiques déjà captés au poignet, fréquence cardiaque, variabilité de la fréquence cardiaque, conductance cutanée, mouvement, rythme veille-sommeil, permettent d’inférer, avec une précision croissante, certains états émotionnels et certaines vulnérabilités psychologiques.
Cette évolution ouvre des perspectives réelles pour la prévention, la santé mentale et l’accompagnement clinique. Mais elle pose aussi une question intime et politique : que devient notre vie intérieure lorsque des objets du quotidien peuvent en déduire des fragments, seconde après seconde, parfois sans que nous mesurions pleinement ce qui est collecté, partagé ou interprété ? Protéger sa vie intérieure à l’ère des objets connectés ne consiste pas à rejeter la technologie en bloc, mais à comprendre ce qu’elle capte, ce qu’elle infère et quelles limites nous voulons lui fixer.
Des capteurs corporels qui ne mesurent plus seulement le corps
Les montres connectées ne se contentent plus d’enregistrer des pas ou des calories. Elles captent en continu des données biométriques fines : rythme cardiaque, variabilité de la fréquence cardiaque (HRV), parfois conductance cutanée, température périphérique, mouvement, durée et qualité du sommeil. Or, ces signaux ne parlent pas seulement de condition physique. Ils renseignent aussi, indirectement ou directement, sur l’activation émotionnelle, la récupération, le stress, l’attention et certaines difficultés de régulation.
Une littérature récente en psychophysiologie rappelle que la fréquence cardiaque, la HRV et la conductance cutanée figurent parmi les marqueurs les plus importants pour l’étude de l’émotion. Ils sont liés à l’arousal, à la régulation émotionnelle et à plusieurs dimensions de la psychopathologie. Autrement dit, le poignet devient un point d’accès à des indices du vécu interne, même lorsque l’utilisateur pense simplement suivre sa forme ou son sommeil.
Le changement décisif tient à l’échelle de collecte. Une montre typique peut enregistrer des mesures seconde par seconde, produisant des dizaines de milliers de points de données par jour. Pris isolément, un battement cardiaque accéléré ou une nuit agitée ne disent pas grand-chose. Mais accumulés, croisés et modélisés, ces signaux permettent des inférences de plus en plus riches sur la manière dont une personne se sent, s’adapte ou vacille.
Quand la montre “devine” l’émotion
La question n’est plus de savoir si les wearables peuvent contribuer à reconnaître des états émotionnels, mais jusqu’où. En 2025, une étude a montré qu’un cadre d’apprentissage profond multimodal pouvait reconnaître des émotions à partir de plusieurs wearables, dont une smartwatch Samsung Galaxy. Ce type de modèle ne s’appuie pas sur un seul indicateur, mais sur la combinaison de plusieurs flux physiologiques et comportementaux, ce qui augmente la puissance d’inférence.
Il faut rester prudent sur ce que signifie “reconnaître une émotion”. Une émotion n’est pas un code-barres biologique simple. Le même profil physiologique peut correspondre à des réalités très différentes selon le contexte : excitation, peur, effort physique, anticipation ou surcharge sensorielle. En psychologie, le contexte, l’histoire individuelle et le sens subjectif restent essentiels. Aucun capteur ne lit l’âme. En revanche, certains systèmes peuvent identifier des profils de probabilité, des signatures d’activation ou des changements inhabituels compatibles avec certains états.
C’est précisément cette zone grise qui mérite notre attention. Car dans les usages commerciaux ou institutionnels, la nuance scientifique se perd facilement. Une alerte de “stress élevé”, un score de “résilience” ou une estimation d’“humeur” peuvent être perçus comme des vérités objectives, alors qu’ils restent des interprétations statistiques. Le risque n’est pas seulement l’erreur technique, mais la requalification de notre intimité en indicateurs exploitables.
Une frontière de plus en plus poreuse entre santé et psychologie
Les travaux de 2024 et 2025 sur le digital sensing en santé mentale montrent que smartphones et montres intelligentes peuvent aider à identifier des sous-types de troubles, à prédire certaines trajectoires et à détecter des signes précoces. Les variables suivies, sommeil, activité, rythme circadien, mobilité, réponses physiologiques, sont fréquemment corrélées à l’humeur, au stress et à l’anxiété. Cela rend possible une forme de veille clinique discrète, parfois utile, parfois intrusive.
Cette porosité entre santé somatique et vie psychique peut avoir des bénéfices réels. Pour certaines personnes, notamment celles qui vivent avec des troubles anxieux, des épisodes dépressifs ou des antécédents traumatiques, repérer plus tôt un changement de rythme, une dégradation du sommeil ou une activation physiologique persistante peut favoriser une demande d’aide, un ajustement thérapeutique ou une meilleure compréhension de soi.
Mais cette même porosité change le statut des données. Ce qui semblait relever du bien-être ou du fitness devient potentiellement une donnée sensible sur l’état psychique. Et ce glissement ne concerne pas seulement la santé mentale. Une étude publiée en 2025 a également montré qu’une évaluation à distance du cerveau et une détection du trouble cognitif léger pouvaient être réalisées via smartphone et smartwatch. Les objets connectés ne documentent donc plus seulement l’activité : ils participent à l’évaluation de fonctions cérébrales et cognitives.
Le vrai enjeu : l’inférence sur la vie intérieure
Nous parlons souvent de protection des données comme s’il s’agissait uniquement de protéger des informations explicites : nom, adresse, date de naissance, dossier médical. Avec les wearables, le cœur du problème est plus subtil. Même lorsque les données brutes paraissent anodines, elles peuvent permettre des inférences sur la fatigue, l’irritabilité, l’anxiété, l’engagement, le retrait, voire certains profils psychiques. En d’autres termes, ce n’est pas seulement la donnée qui compte, c’est ce qu’on peut en déduire.
Cette capacité d’inférence transforme notre rapport à la vie privée. La vie intérieure était historiquement protégée par une forme d’opacité naturelle : on pouvait choisir de parler, de se taire, de masquer ou de différer. Les capteurs connectés réduisent partiellement cette opacité en traduisant des états corporels en signaux numériques. Même sans accès direct à nos pensées, ils peuvent produire des indices continus sur notre vulnérabilité, notre agitation ou notre disponibilité psychique.
Pour les personnes ayant vécu des traumatismes, des violences ou des contextes de contrôle coercitif, cette question peut être particulièrement sensible. L’idée qu’un dispositif suive en permanence des variations d’activation, de sommeil ou de stress peut réactiver un sentiment d’intrusion ou de perte de contrôle. La protection de la vie intérieure n’est donc pas une abstraction juridique : c’est aussi une condition du sentiment de sécurité psychique.
Confidentialité : des pratiques encore très inégales
Sur le terrain de la confidentialité, les fabricants de wearables restent très variables. Une analyse systématique publiée en 2025 sur les politiques de données de grands fabricants conclut que l’adoption massive des objets connectés s’accompagne de risques importants pour la vie privée, la sécurité et les droits des utilisateurs. Les différences entre marques, services cloud, paramétrages par défaut et partenariats commerciaux sont souvent difficiles à comprendre pour le grand public.
Le problème ne tient pas seulement à la collecte initiale, mais aussi aux usages secondaires. Des données agrégées ou partagées peuvent soutenir la recherche et la santé publique, ce qui constitue un bénéfice légitime. Cependant, la littérature récente souligne aussi les risques de ré-identification, de recoupement et d’exploitation au-delà du contexte prévu. Des jeux de données pseudonymisés ne sont pas toujours réellement anonymes lorsqu’ils sont combinés avec d’autres sources.
À cela s’ajoute une difficulté structurelle du consentement. Un article de 2025 sur les plateformes de consentement en santé numérique montre que les mécanismes actuels sont fragmentés et rendent compliqué un partage de données vraiment transparent et contrôlé par l’utilisateur. En pratique, beaucoup de personnes consentent à des traitements qu’elles ne comprennent qu’imparfaitement, dans des interfaces longues, techniques ou conçues pour accélérer l’acceptation plutôt que la délibération.
Des usages qui peuvent dépasser le soin
Les mêmes données qui servent à suivre le sommeil ou à repérer une fragilité peuvent aussi être mobilisées dans des contextes de surveillance ou de décision automatisée. C’est ici que l’enjeu devient éthique et social. Si un système est capable d’inférer un état émotionnel, une charge de stress ou un déclin cognitif probable, qui peut accéder à cette information, dans quel but, et avec quelles garanties de contestation ?
On peut imaginer des usages en entreprise, dans l’assurance, dans des programmes de bien-être imposés, ou dans des environnements où la conformité émotionnelle devient implicite. Même lorsqu’aucune lecture directe des émotions n’est officiellement revendiquée, les scores dérivés de l’activité, du sommeil ou des réponses physiologiques peuvent influencer des décisions. Le risque est un glissement progressif vers une quantification normative de l’état intérieur, sans consentement explicite et sans espace pour la complexité humaine.
Cette perspective appelle une vigilance particulière de la part des professionnels de santé mentale, des institutions et des concepteurs. Une donnée psychophysiologique n’est jamais neutre lorsqu’elle est insérée dans un dispositif de tri, de prédiction ou d’évaluation. Elle peut aider, mais aussi stigmatiser, surinterpréter ou déplacer le pouvoir d’interprétation de la personne vers l’algorithme ou l’organisation qui l’utilise.
Le cadre européen se durcit, mais ne résout pas tout
En Europe, le cadre réglementaire devient plus strict. Le GDPR encadre depuis plusieurs années le traitement des données personnelles et, plus encore, des données sensibles. L’AI Act ajoute des obligations pour certains systèmes d’intelligence artificielle, en particulier lorsque les usages touchent à des domaines à risque ou à des décisions ayant un impact significatif sur les personnes. Pour les objets connectés, cela signifie que l’innovation ne peut plus être pensée hors du droit.
C’est une évolution importante, car elle rappelle que les états physiologiques et psychiques ne sont pas de simples ressources commerciales. Transparence, minimisation des données, finalité déterminée, sécurité et possibilité de recours doivent devenir des standards réels, et non des slogans. Lorsqu’une technologie prétend déduire quelque chose de notre santé mentale ou de notre état émotionnel, le niveau d’exigence doit être particulièrement élevé.
Mais la régulation, à elle seule, ne suffit pas. D’une part, les catégories juridiques peinent parfois à suivre la vitesse des inférences algorithmiques. D’autre part, l’expérience concrète des utilisateurs dépend beaucoup des choix de design : paramètres par défaut, lisibilité des consentements, fréquence des rappels, possibilité de désactiver certaines collectes, accès aux historiques, ou suppression effective des données. La protection de la vie intérieure se joue autant dans l’interface que dans les textes.
Comment protéger sa vie intérieure au quotidien
La première protection consiste à considérer sa montre connectée comme un dispositif d’inférence, et pas seulement comme un accessoire de bien-être. Avant d’activer des fonctions, il est utile de se demander quelles données sont réellement nécessaires à l’usage recherché. Avez-vous besoin d’un suivi continu du rythme cardiaque, du sommeil détaillé, des notifications de stress, ou d’une synchronisation permanente avec plusieurs plateformes ? Réduire la collecte réduit aussi le potentiel d’interprétation.
La deuxième protection est de reprendre la main sur les paramètres. Vérifier les autorisations, limiter le partage avec des applications tierces, désactiver les options non indispensables, consulter les politiques de conservation et utiliser, lorsque c’est possible, des services offrant davantage de contrôle sont des gestes simples mais importants. Pour les cliniciens et les personnes accompagnantes, il peut aussi être utile d’aider les patients à comprendre la différence entre une mesure utile au soin et une surveillance superflue.
Enfin, il faut préserver un droit psychique à l’opacité. Tout ce qui est mesurable n’a pas vocation à être mesuré, et tout ce qui est inféré n’a pas vocation à être su. Dans certains moments de vie, deuil, burn-out, rémission, convalescence traumatique, une hyper-quantification de soi peut aggraver l’auto-surveillance, l’inquiétude ou la perte de confiance dans ses propres ressentis. La technologie peut soutenir l’autonomie, mais elle ne doit pas remplacer l’écoute subjective ni imposer une lecture permanente de soi.
Les montres qui “lisent” nos émotions n’appartiennent plus entièrement à la science-fiction. Elles s’inscrivent dans un mouvement plus large où le corps connecté devient une source continue d’indices sur notre santé, nos vulnérabilités et, de plus en plus, notre vie psychique. Bien utilisées, ces technologies peuvent contribuer à la prévention, à la recherche et à certains accompagnements cliniques. Mal encadrées, elles peuvent banaliser une intrusion discrète dans la sphère la plus intime : celle de ce que nous ressentons sans toujours vouloir l’exposer.
L’enjeu, au fond, n’est pas de choisir entre progrès et protection, mais de définir les conditions d’un progrès compatible avec l’autonomie, la dignité et la santé mentale. Protéger sa vie intérieure à l’ère des objets connectés, c’est défendre un principe simple : nos données corporelles ne doivent pas devenir un accès libre à notre monde interne. Entre bénéfice clinique et respect du for intérieur, la ligne de conduite la plus saine reste celle d’une technologie proportionnée, explicable et véritablement consentie.
















