Accueil / Amitié / Quand l’intelligence artificielle redessine la confiance entre proches

Quand l’intelligence artificielle redessine la confiance entre proches

Longtemps, la confiance entre proches s’est appuyée sur des repères simples : une voix familière, une photo envoyée dans l’urgence, une manière d’écrire reconnaissable, un détail biographique que seuls « les nôtres » étaient censés connaître. L’intelligence artificielle bouscule aujourd’hui ces évidences. En 2025, les autorités américaines, dont le FBI et la FTC, ont multiplié les alertes sur des arnaques utilisant des voix clonées, des messages générés par IA et des images manipulées pour se faire passer non seulement pour des institutions, mais aussi pour des enfants, des petits-enfants, des amis ou des partenaires. Autrement dit, la technologie ne menace plus seulement la sécurité informatique : elle atteint le cœur même de la confiance relationnelle.

Cette transformation appelle une lecture psychologique autant que technique. Car si les outils d’IA rendent les impostures plus crédibles, ils modifient aussi notre manière de percevoir l’authenticité, l’intimité et la présence. Des recherches récentes montrent que les humains peuvent attribuer des intentions, une sensibilité et même une forme de vie mentale aux systèmes conversationnels, ce qui influence directement la confiance qu’ils leur accordent. Comprendre comment l’IA redessine la confiance entre proches, c’est donc examiner à la fois les nouvelles fraudes, les vulnérabilités affectives qu’elles exploitent et les protections concrètes qui peuvent préserver les liens humains.

Quand la familiarité devient une faille

Les escroqueries contemporaines reposent de plus en plus sur l’usurpation d’identité affective. En mai 2025, le FBI a alerté sur des campagnes combinant messages texte et voix générés par IA afin de se faire passer pour des personnalités publiques, puis de gagner la confiance des proches des victimes. Le mécanisme est psychologiquement puissant : l’escroc ne cherche pas seulement à paraître officiel, il cherche à paraître connu, proche, émotionnellement crédible. Une voix paniquée, un prénom intime, une demande urgente de virement suffisent souvent à court-circuiter la réflexion.

Ce déplacement est important. Pendant des années, la prévention s’est concentrée sur les faux e-mails bancaires, les liens suspects ou les administrations fictives. Désormais, les fraudeurs exploitent l’identité des proches eux-mêmes. Le FBI rappelle qu’ils utilisent des informations sur la famille, les enfants ou les amis pour contourner les questions de sécurité et renforcer la crédibilité d’une imposture. Plus ils savent de choses vraies sur notre entourage, plus le faux paraît vraisemblable.

Sur le plan psychologique, cette stratégie s’appuie sur un biais fondamental : nous abaissons spontanément notre vigilance lorsque le signal semble venir d’un cercle de confiance. Une synthèse du Pew Research Center publiée en mai 2025 montre d’ailleurs que les personnes qui font davantage confiance aux autres accordent aussi plus facilement du crédit aux informations venant d’amis, de la famille ou de connaissances. Cette disposition est socialement précieuse, mais elle devient une zone de vulnérabilité lorsqu’une technologie peut imiter les signes ordinaires de la proximité.

Voix clonées, images truquées : la crise de l’authenticité

La voix a longtemps été perçue comme une preuve presque intime de présence. Or, un document de la FTC de 2025 consacré à la détection des clones vocaux souligne que les voix clonées, facilitées par l’IA générative, compliquent désormais l’authentification des interactions. Ce n’est pas seulement une avancée technique inquiétante : c’est un bouleversement symbolique. Entendre quelqu’un ne garantit plus que cette personne soit bien là, ni même qu’elle ait parlé.

Les images ne sont pas plus rassurantes. Fin 2025, le FBI a averti que des criminels modifiaient des photos publiquement accessibles sur les réseaux sociaux pour produire de fausses « preuves de vie » dans des arnaques de kidnapping virtuel. Le message implicite est grave : ce que nous appelions autrefois une preuve peut désormais être synthétisé, transformé ou mis en scène à partir de traces numériques laissées par la vie quotidienne. Une photo de vacances, un selfie scolaire ou une vidéo familiale peuvent être recyclés contre ceux qu’ils étaient censés relier.

Dans les relations proches, cette situation crée une forme de désorientation cognitive. Les repères qui soutenaient la confiance, le timbre de voix, le visage, l’émotion apparente, le souvenir partagé, deviennent techniquement imitables. Le FBI souligne précisément que les fraudeurs exploitent à la fois la disponibilité des données personnelles en ligne et la facilité à fabriquer des messages, des voix et des images plausibles. La frontière entre souvenir, photo et preuve devient plus floue, et cette confusion peut provoquer anxiété, hypervigilance ou conflits familiaux autour de la crédibilité d’un événement.

Pourquoi nous faisons confiance à ce qui semble humain

La confiance ne repose pas uniquement sur des faits ; elle dépend aussi de la perception d’authenticité. Une étude parue en 2025 dans Nature Communications Psychology montre que les attributions d’états mentaux aux modèles de langage influencent la confiance que les utilisateurs leur accordent, même lorsque ces attributions ne correspondent pas à la réalité technique du système. En d’autres termes, lorsque quelque chose nous paraît comprendre, vouloir ou ressentir, nous tendons davantage à lui faire confiance.

Ce mécanisme aide à comprendre pourquoi des messages générés par IA peuvent convaincre, mais aussi pourquoi certaines personnes développent un rapport relationnel avec des chatbots. Une étude de 2025 dans Scientific Reports indique que des utilisateurs peuvent ressentir une véritable connexion sociale avec des agents conversationnels, et que l’anthropomorphisme individuel, c’est-à-dire la tendance à prêter des caractéristiques humaines à des entités non humaines, explique en partie cette connexion. Deux membres d’une même famille exposés au même outil peuvent ainsi lui accorder des niveaux de confiance très différents.

Cette variabilité est essentielle pour la clinique comme pour la prévention. Une personne endeuillée, isolée, traumatisée ou en demande intense de réassurance peut être plus sensible à un système qui répond vite, semble chaleureux et imite les codes de l’empathie. Cela ne signifie pas que tout usage relationnel de l’IA soit pathologique. Cela signifie plutôt que la confiance naît d’une rencontre entre des caractéristiques techniques et des besoins psychiques, ce qui exige des garde-fous adaptés aux vulnérabilités individuelles.

Les proches comme première cible des fraudes affectives

Parmi les formes les plus connues de manipulation relationnelle figurent les « grandparent scams », ces arnaques où l’escroc se fait passer pour un petit-enfant, un proche ou un ami de la famille en situation d’urgence. Le FBI continue de les présenter comme une menace majeure, notamment pour les personnes âgées. L’IA n’invente pas ce scénario, mais elle l’amplifie : une voix sanglotante, un message personnalisé et quelques détails exacts sur la famille suffisent à donner à la fiction une densité émotionnelle nouvelle.

Les personnes âgées sont souvent particulièrement exposées, non parce qu’elles seraient naïves, mais parce qu’elles sont fréquemment socialisées à répondre à l’urgence relationnelle, à protéger la famille et à ne pas laisser un proche sans aide. De plus, lorsqu’un appel semble venir d’un petit-enfant en détresse, le stress réduit les capacités de vérification. Ce phénomène est bien documenté en psychologie : sous forte activation émotionnelle, le cerveau privilégie la réponse rapide plutôt que l’analyse critique.

Mais limiter le sujet aux seniors serait une erreur. Les parents d’adolescents, les ex-conjoints en coparentalité, les familles séparées géographiquement et les personnes engagées dans des relations à distance peuvent tous être visés. Les alertes du FBI publiées en 2025 sur l’imitation de responsables publics, d’entreprises et d’organismes de support montrent que l’abus d’usurpation d’identité est devenu un pattern central des fraudes modernes. Dans la sphère intime, cette logique est encore plus redoutable, car elle détourne des réflexes de soin, de loyauté et d’attachement.

Les compagnons IA et le brouillage des frontières affectives

Au-delà des fraudes, l’IA transforme aussi la confiance entre proches en occupant parfois une place relationnelle directe. Nature a récemment relayé des analyses indiquant que les chatbots de thérapie et de compagnie figurent désormais parmi les usages les plus sensibles et les plus répandus de l’IA générative. Ces outils peuvent offrir écoute, disponibilité et continuité, ce qui explique leur attrait dans des contextes de solitude, d’insomnie, d’anxiété ou de rupture.

Pour certaines personnes, cette présence perçue peut soulager temporairement la détresse. Mais des spécialistes, dans un texte publié en juillet 2025 dans Nature Machine Intelligence, avertissent que les IA compagnons peuvent susciter des attachements émotionnels intenses et créer des risques affectifs, notamment lorsqu’un service change, devient payant, se reconfigure ou disparaît. Une relation qui semblait stable peut alors se révéler fondée sur des paramètres commerciaux et techniques hors du contrôle de l’utilisateur.

Ce brouillage a des effets indirects sur les liens humains. Si une personne se sent plus comprise par un compagnon IA que par ses proches, cela peut modifier ses attentes relationnelles, sa tolérance à la frustration ou son investissement dans les échanges réels, qui sont par nature moins fluides, moins disponibles et moins personnalisés. Les chercheurs qui plaident pour un « alignement socio-affectif » entre humains et IA insistent justement sur la nécessité de protéger l’autonomie, le bien-être et les liens humains plutôt que de laisser la technologie coloniser les besoins d’attachement.

La confiance sociale reste vivante, mais plus fragile

Il serait pourtant simpliste d’affirmer que nous entrons dans une ère de méfiance généralisée. Les données de Pew suggèrent qu’en 2025, 55 % des Américains déclarent que la plupart des gens peuvent être dignes de confiance, contre 52 % en 2018 dans une mesure comparable. La confiance sociale n’a donc pas disparu. Elle n’a pas chuté uniformément. Mais elle demeure fragile, traversée par des différences générationnelles, des inégalités d’exposition au numérique et des expériences diverses de la tromperie.

Cette nuance est importante pour la santé mentale collective. Une société qui répondrait aux risques de l’IA par une suspicion permanente abîmerait elle-même les liens qu’elle cherche à protéger. La question n’est pas de ne plus croire personne, mais de déplacer certains critères de confiance. Ce déplacement ressemble à ce que les psychologues appellent parfois une adaptation : conserver la capacité de lien tout en révisant les repères sur lesquels ce lien s’appuie.

Dans les familles, cela peut créer des tensions transitoires. Les plus jeunes peuvent juger certaines vérifications excessives ; les plus âgés peuvent se sentir humiliés lorsqu’on leur rappelle les risques de fraude ; des couples peuvent se reprocher tantôt d’être trop crédules, tantôt d’être devenus trop suspicieux. Nommer ce malaise est essentiel : la redéfinition de la confiance n’est pas seulement une affaire de cybersécurité, c’est aussi un travail émotionnel et relationnel.

Reconstruire des rituels de vérification sans déshumaniser les liens

Face à cette mutation, les recommandations les plus utiles sont souvent les plus concrètes. Le FBI conseille explicitement de créer un mot ou une phrase secrète avec les membres de sa famille afin de vérifier qu’un appel ou un message provient bien d’eux. Ce type de code partagé peut sembler rudimentaire, mais il restaure un principe simple : l’identité ne doit pas être déduite uniquement d’un son, d’une image ou d’un récit émotionnel. Elle doit pouvoir être confirmée par un élément convenu à l’avance.

Dans la pratique, il est aussi utile d’établir des protocoles familiaux pour les situations d’urgence : rappeler sur un numéro déjà connu, vérifier auprès d’un autre proche, refuser tout virement immédiat sous pression, limiter l’exposition publique d’informations personnelles et discuter ouvertement des scénarios d’usurpation. Ces mesures ont un effet psychologique protecteur, car elles remplacent la panique par une procédure. Là où l’escroc cherche à isoler la victime dans l’urgence, le rituel de vérification réintroduit du temps, du collectif et de la pensée.

Il faut enfin préserver une qualité de dialogue qui n’humilie pas les personnes les plus vulnérables. La prévention fonctionne mieux lorsqu’elle renforce le sentiment de compétence plutôt que la honte. Dire à un parent âgé « n’aie confiance en personne » est moins aidant que dire « si quelque chose t’inquiète, on a une méthode pour vérifier ensemble ». La confiance entre proches ne se protège pas en la supprimant, mais en la rendant plus consciente, plus partagée et mieux outillée.

L’intelligence artificielle redessine la confiance entre proches en rendant imitables des signes qui paraissaient autrefois profondément humains : une voix, un visage, une confidence, une disponibilité affective. Cette évolution crée des risques concrets de fraude, mais elle met aussi au jour une vérité plus ancienne : la confiance n’a jamais reposé sur la seule preuve objective. Elle s’enracine dans notre besoin de croire à la présence, à la continuité et à l’authenticité de l’autre.

Le défi des prochaines années sera donc double. Il faudra développer des protections techniques et des habitudes de vérification adaptées à l’ère des clones vocaux, des images synthétiques et des compagnons conversationnels. Mais il faudra aussi défendre une écologie relationnelle où la prudence n’éteint pas l’empathie, où l’innovation n’absorbe pas les besoins d’attachement et où les familles apprennent à sécuriser leurs liens sans renoncer à leur chaleur. Dans ce nouvel environnement, la meilleure réponse n’est ni la crédulité ni la méfiance totale, mais une confiance lucide, ancrée dans des pratiques partagées.