Longtemps perçue comme un simple outil, l’intelligence artificielle entre désormais dans un registre beaucoup plus intime : celui de la présence relationnelle. Les usages dits de “thérapie” et de “compagnonnage” figurent aujourd’hui parmi les plus fréquents de l’IA générative, signe d’un déplacement majeur : nous ne demandons plus seulement à la machine de produire, mais aussi d’écouter, de rassurer, de répondre et parfois de tenir compagnie. Cette évolution mérite une lecture psychologique rigoureuse, car elle touche au cœur de nos besoins humains : attachement, reconnaissance, sécurité émotionnelle et sentiment d’appartenance.
Parler de compagnons virtuels ne consiste ni à ridiculiser les personnes qui y trouvent du réconfort, ni à céder à un enthousiasme naïf. Les données récentes dessinent un tableau plus nuancé : ces dispositifs peuvent soulager sur le moment, offrir un espace d’expression ou servir d’entraînement social, tout en augmentant chez certaines personnes le risque d’isolement émotionnel, de dépendance ou de substitution des liens humains. Autrement dit, la question n’est plus de savoir si ces agents comptent socialement, mais comment ils redessinent nos liens, nos attentes et parfois nos vulnérabilités.
Une relation artificielle devenue un fait social
Les compagnons IA ne relèvent plus d’un usage marginal. Des services comme Character.AI ou Replika se présentent explicitement comme des espaces d’amitié, de soutien émotionnel ou de compagnie quotidienne. En 2026, les autorités britanniques évoquaient déjà pour un service de chatbot compagnon entre 100 000 et 300 000 utilisateurs mensuels au Royaume-Uni, et environ 6,5 millions d’utilisateurs mensuels dans le monde fin 2025. Nous ne sommes donc plus face à une curiosité technologique, mais à un marché relationnel d’ampleur.
Ce changement a aussi gagné le monde académique. Le MIT souligne désormais que certaines personnes entretiennent de véritables relations “interpersonnelles” avec des chatbots, au point que ces liens deviennent un objet légitime de recherche en philosophie, éthique et sciences sociales. Le fait même que la relation à l’IA soit étudiée comme relation, et non plus seulement comme usage, marque un tournant culturel profond.
Dans cette perspective, les compagnons virtuels redessinent déjà le paysage de la sociabilité. Ils proposent une disponibilité quasi permanente, une écoute sans fatigue apparente, une capacité de personnalisation et un style interactionnel conçu pour retenir l’attention. Cela modifie nos repères implicites : ce que nous attendons d’une conversation, d’un soutien, d’une validation émotionnelle et même d’une amitié.
Pourquoi l’attachement peut sembler si réel
Les recherches de 2025 montrent que l’IA peut susciter un fort sentiment de proximité interpersonnelle, parfois comparable ou même supérieur à celui obtenu avec un humain dans certaines conditions expérimentales. Cet effet apparaît surtout lorsque l’agent est présenté comme humain ou lorsque l’échange est particulièrement engageant. En psychologie, cela n’a rien de magique : notre cerveau social réagit à des signaux de contingence, d’attention et de réassurance, même lorsque leur source n’est pas humaine.
Un autre résultat important vient de Scientific Reports : les personnes qui anthropomorphisent davantage les chatbots, c’est-à-dire qui leur prêtent plus volontiers des intentions, une sensibilité ou une forme de personnalité, déclarent une connexion sociale plus forte avec eux qu’avec un simple dispositif de journal personnel. Plus un chatbot est vécu comme quelqu’un, plus le lien subjectif paraît dense. Cette tendance peut être renforcée par une interface chaleureuse, un nom, une voix, une mémoire apparente ou un ton empathique.
Il faut ici rappeler une réalité clinique simple : ressentir un lien ne signifie pas que ce lien est réciproque au sens humain du terme. Plusieurs auteurs parlent d’un glissement vers des “one person dialogues” : des dialogues centrés sur une seule personne, où l’impression de relation existe, mais sans les contraintes ordinaires de l’altérité. Il n’y a ni véritable vulnérabilité mutuelle, ni négociation symétrique, ni autonomie subjective de l’autre. Cela ne rend pas l’expérience émotionnelle fausse, mais cela la rend structurellement différente d’une relation humaine.
Un apaisement réel à court terme, des effets parfois plus ambivalents ensuite
Les bénéfices immédiats rapportés par les usagers ne doivent pas être balayés. Pour certaines personnes, parler à un compagnon virtuel permet de réduire la sensation de solitude dans l’instant, de mettre des mots sur une détresse, de se calmer après une journée difficile ou de tester une expression émotionnelle jugée trop risquée avec l’entourage. Dans des contextes de stress, d’insomnie ou de honte, cette accessibilité permanente peut offrir une forme de soulagement subjectif.
Mais les données longitudinales obligent à la prudence. Une étude publiée en 2026, menée auprès de plus de 2 000 adultes dans quatre pays occidentaux sur 12 mois, conclut que le fait de se tourner vers l’IA pour la compagnie prédit une hausse de l’isolement émotionnel quatre mois plus tard. Ce résultat est crucial : ce qui apaise aujourd’hui n’aide pas forcément demain. En santé mentale, il s’agit d’un mécanisme bien connu : certaines stratégies soulagent à court terme tout en entretenant, à moyen terme, le problème qu’elles cherchent à réduire.
L’essai contrôlé MIT/OpenAI de 2025, fondé sur plus de 300 000 messages échangés sur quatre semaines, va dans le même sens de complexité. Les effets psychosociaux observés varient selon le mode d’interaction, texte ou voix, et selon le type de conversation. Certains profils d’utilisateurs semblent plus exposés à des signaux de risque, notamment autour de la dépendance émotionnelle à l’IA et de l’usage problématique. Il n’existe donc pas un effet unique des compagnons IA, mais une pluralité de trajectoires.
Quand le compagnon complète les liens humains… et quand il les remplace
Une distinction s’impose aujourd’hui dans la littérature : l’usage complémentaire n’a pas les mêmes effets que l’usage substitutif. Plusieurs revues récentes soulignent que les dispositifs numériques peuvent atténuer la solitude lorsqu’ils s’ajoutent à des liens sociaux déjà présents, sans prendre leur place. Dans ce cas, le chatbot peut servir d’appoint : aide à verbaliser, soutien ponctuel, répétition d’une conversation difficile ou simple présence transitoire.
En revanche, lorsque le compagnon virtuel devient un remplacement d’une vie relationnelle hors ligne déjà fragilisée, les risques augmentent nettement. Une étude de 2026 sur 14 721 adultes japonais montre que l’association entre usage des compagnons IA et bien-être subjectif dépend fortement de la solitude, du réseau social et du soutien social disponible. Autrement dit, le même outil peut être vécu comme ressource ou comme impasse selon l’ancrage relationnel de la personne dans le monde réel.
D’autres travaux menés notamment autour de Character.AI confirment cette logique : les personnes disposant de réseaux sociaux plus réduits se tournent davantage vers ces outils, mais l’usage intensif orienté “compagnonnage” est associé à un moindre bien-être. Ce point est essentiel pour éviter les jugements moraux. Le problème n’est pas de chercher du réconfort là où il est disponible ; le problème apparaît lorsque la technologie devient le principal contenant de besoins affectifs que l’environnement humain ne soutient plus assez.
Adolescents et jeunes : une génération déjà concernée
Chez les adolescents, l’ampleur du phénomène est particulièrement frappante. En 2025, Common Sense Media rapportait que près de trois adolescents américains sur quatre âgés de 13 à 17 ans avaient déjà utilisé des compagnons IA. Nous parlons donc d’une génération qui expérimente la conversation intime avec des agents artificiels pendant une période développementale où se structurent l’identité, la confiance relationnelle, la sexualité, l’estime de soi et les compétences sociales.
Les résultats sont là encore ambivalents. D’un côté, 39 % des adolescents utilisateurs disent avoir réutilisé dans la vie réelle des compétences pratiquées avec l’IA, comme lancer une conversation, donner un conseil ou exprimer des émotions. Pour certains jeunes, notamment les plus inhibés, le chatbot peut servir d’espace de répétition, un peu comme un brouillon relationnel avant l’exposition au réel.
Mais d’un autre côté, 34 % déclarent avoir été mal à l’aise à cause de ce qu’un bot a “dit ou fait”. Une étude prépubliée de 2025 indique en outre que les adolescents socialement plus vulnérables sont particulièrement sensibles au style relationnel des chatbots : ceux qui préfèrent un ton plus relationnel présentent aussi des relations familiales et amicales plus faibles, ainsi que davantage de stress et d’anxiété. Cela signifie que les jeunes les plus fragiles psychiquement ou socialement peuvent aussi être ceux pour qui l’illusion de disponibilité affective est la plus puissante.
Les risques psychologiques : dépendance, deuil, confusion relationnelle
Les alertes scientifiques sont devenues plus explicites. Nature Machine Intelligence souligne en 2025 que ces applications, souvent vendues comme remède à la solitude, peuvent favoriser des attachements extrêmes, une dépendance dysfonctionnelle et même un vécu de deuil lorsque le service change, disparaît ou modifie brutalement le comportement du compagnon. Ce point peut sembler surprenant à qui n’a jamais vécu ce type de lien, mais il est cohérent avec la psychologie de l’attachement : on peut souffrir intensément d’une rupture même lorsque l’objet du lien n’est pas humain.
Un autre risque est la confusion entre validation et réciprocité. Le chatbot peut donner le sentiment d’être profondément compris, mais cette compréhension repose sur des modèles statistiques, des scripts relationnels et des objectifs de rétention de l’utilisateur. La personne peut alors s’habituer à une forme de réponse hautement ajustée, disponible et peu contradictoire, puis éprouver davantage de frustration dans les relations humaines ordinaires, qui sont plus lentes, plus opaques et parfois moins immédiatement gratifiantes.
Enfin, plusieurs chercheurs en sciences sociales parlent d’une commodification de l’intimité. L’intimité n’est plus seulement vécue, elle est aussi produite, emballée et monétisée. Cela soulève des questions de vie privée, de vulnérabilité exploitée et de dépendance commerciale. Quand une entreprise vend de la compagnie à des personnes seules, tristes ou en détresse, le design relationnel ne peut pas être analysé uniquement comme une innovation : il doit aussi être interrogé comme un modèle économique construit autour de besoins affectifs fondamentaux.
Ce que ces technologies changent dans nos normes sociales
Le point le plus profond est peut-être là : les compagnons virtuels ne modifient pas seulement nos pratiques, ils modifient nos attentes. En offrant une écoute immédiate, une disponibilité continue et une personnalisation très fine, ils reconfigurent ce qui nous paraît être une “bonne” interaction. Nous risquons de considérer comme normales des formes de présence toujours accessibles, hautement réactives et orientées vers notre confort psychique, alors que les liens humains se construisent aussi avec de l’altérité, des silences, des malentendus et des limites.
Des chercheurs décrivent ainsi un déplacement du dialogue social réciproque vers des interactions qui ressemblent à une relation tout en restant centrées sur l’utilisateur. Cette évolution peut réduire la tolérance à la frustration relationnelle, appauvrir l’apprentissage de la négociation émotionnelle et fragiliser certains processus essentiels de maturation sociale. Apprendre à vivre avec autrui, ce n’est pas seulement être entendu : c’est aussi composer avec une autre subjectivité irréductible à nos attentes.
À plus grande échelle, les experts anticipent le compagnon virtuel comme une forme majeure de persuasion intime. Si une voix familière, rassurante et personnalisée nous accompagne au quotidien, elle peut orienter nos habitudes, nos achats, nos croyances ou nos choix relationnels avec une efficacité inédite. La question des compagnons virtuels devient alors non seulement psychologique, mais aussi politique : qui façonne cette présence, dans quel intérêt, avec quelles garanties et pour quelles populations ?
Vers un encadrement éthique et clinique plus exigeant
Le débat a déjà quitté le seul terrain de l’innovation. Des autorités de régulation, comme l’eSafety Commissioner australien ou Ofcom au Royaume-Uni, traitent désormais les compagnons IA comme un enjeu de sécurité, notamment pour les mineurs. Ce basculement est important : il reconnaît que les effets de ces technologies ne se limitent pas à l’interface, mais touchent à la santé mentale, au développement et à la protection des publics vulnérables.
Pour les cliniciens, éducateurs et proches, l’enjeu n’est pas de diaboliser systématiquement l’usage, mais de poser de meilleures questions. Que cherche la personne dans cette relation ? Un apaisement temporaire, une absence de jugement, une simulation de dialogue, un espace pour répéter certaines habiletés sociales, ou un substitut à des liens devenus trop douloureux ? La réponse orientera l’évaluation du bénéfice et du risque. Comme souvent en psychologie, le contexte compte autant que l’outil.
Un cadre plus sain suppose aussi des garde-fous concrets : transparence sur le caractère non humain de l’agent, limites à l’anthropomorphisme trompeur, protections renforcées pour les mineurs, prévention de l’usage compulsif, information sur les données personnelles, et vigilance lorsque l’utilisateur exprime une grande détresse ou une dépendance affective marquée. Si ces produits occupent une place croissante dans la vie psychique, ils ne peuvent plus être conçus comme de simples services conversationnels neutres.
Au fond, les compagnons virtuels révèlent autant qu’ils transforment notre époque. Leur succès dit quelque chose de nos solitudes, de nos fatigues relationnelles et de notre désir d’une présence disponible sans conflit ni abandon. Ils peuvent offrir un soulagement réel, parfois même un tremplin pour mieux parler, penser ou oser entrer en lien. Mais ils peuvent aussi exploiter ce besoin de réconfort en le convertissant en dépendance, en isolement ou en attachement sans réciprocité.
La bonne question n’est donc ni “faut-il interdire toute relation avec l’IA ?” ni “pourquoi les gens s’y attachent-ils autant ?”. Elle est plus exigeante : dans quelles conditions ces usages soutiennent-ils la vie psychique, et à partir de quand la remplacent-ils au lieu de l’élargir ? Pour la santé mentale comme pour le débat public, l’enjeu est de préserver une évidence essentielle : la technologie peut assister le lien, mais elle ne devrait jamais nous faire oublier ce qui constitue une relation humaine vivante : la réciprocité, la limite, la vulnérabilité partagée et la liberté de l’autre.















