Accueil / Sexualité / Quand l’ia génère des images intimes : consentement, traumatisme et nouvelles demandes d’accompagnement

Quand l’ia génère des images intimes : consentement, traumatisme et nouvelles demandes d’accompagnement

L’essor de l’IA générative a déplacé un ancien problème dans une nouvelle zone de gravité psychique et sociale : la fabrication d’images intimes sans consentement. Ce qui est parfois présenté, à tort, comme un simple trucage ou un « faux » relève en réalité d’une atteinte à l’intimité, au sentiment de sécurité et à l’intégrité psychologique. Pour les personnes visées, la question n’est pas de savoir si l’image est « vraie », mais ce qu’elle produit : honte, sidération, peur de la circulation, perte de contrôle et parfois isolement durable.

En 2025 et 2026, les réponses publiques ont nettement évolué. Les législateurs, les lignes d’aide, les associations de terrain et les services spécialisés parlent de plus en plus d’abus, de traumatisme et de réparation. Cette évolution est importante : elle reconnaît que les deepfakes intimes ne sont pas seulement un problème technique ou juridique, mais aussi une question de santé mentale, de violence basée sur le genre et d’accompagnement clinique, scolaire, numérique et social.

Du « faux contenu » à une véritable violence psychologique

Le changement de vocabulaire observé ces dernières années est révélateur. Aux États-Unis, la TAKE IT DOWN Act adoptée en 2025 criminalise la publication d’images intimes non consenties, y compris lorsqu’elles sont générées par IA, et impose aux plateformes un retrait dans les 48 heures après notification par une victime. Le Sénat américain a explicitement parlé de non-consensual intimate imagery incluant les contenus générés par IA, ce qui marque une rupture avec l’idée selon laquelle il s’agirait seulement d’un « contenu faux ».

Au Royaume-Uni, le gouvernement a annoncé le 7 janvier 2025 la criminalisation de la création d’images sexuelles deepfake sans consentement. Le 22 janvier 2025, il a précisé que la loi viserait aussi la création intentionnelle de telles images lorsqu’elle cherche l’humiliation, l’alarme, la détresse ou la gratification sexuelle. Autrement dit, le cœur du problème n’est pas la sophistication technique de l’image, mais l’atteinte infligée à la personne.

Cette requalification a des effets concrets. Elle permet de mieux comprendre pourquoi les victimes décrivent souvent l’expérience comme une violence sexuelle médiée par la technologie. Des organisations comme RAINN soulignent que ces formes d’abus sont en hausse et qu’elles peuvent entraîner honte, dépression et dommages durables. Le mot important ici est durable : même si l’image est synthétique, les conséquences, elles, ne le sont pas.

Le consentement ne disparaît pas parce que l’image est générée

L’un des malentendus les plus nocifs consiste à penser qu’une image créée par IA serait moins grave parce qu’aucune photo initiale n’aurait été prise dans ce contexte précis. D’un point de vue éthique et psychologique, cet argument ne tient pas. Le consentement porte aussi sur la représentation du corps, de la sexualité et de l’identité. Fabriquer une image intime d’une personne sans son accord constitue déjà une transgression de ses limites.

Les textes récents convergent d’ailleurs vers cette idée. Le débat public s’est déplacé vers une triade claire : consentement, retrait rapide et réparation. Le fait que la création elle-même soit désormais criminalisée dans certains contextes, comme au Royaume-Uni, montre que l’on ne se contente plus de sanctionner la diffusion. On reconnaît que le préjudice peut commencer dès la fabrication et l’anticipation d’une circulation potentielle.

Cette évolution est essentielle en clinique comme en prévention. Elle aide à nommer l’expérience des victimes sans minimisation. Dire à une personne « ce n’est pas une vraie image » peut renforcer la détresse en invalidant ce qu’elle subit. Une approche fondée sur le consentement reconnaît au contraire que l’atteinte concerne l’autonomie, la dignité et le pouvoir d’agir sur sa propre image.

Un traumatisme profond, souvent prolongé par la circulation

Les témoignages recueillis par les organisations de terrain sont cohérents : les victimes parlent d’un traumatisme profond et de long terme. En juillet 2025, RainLily à Hong Kong rapportait qu’une survivante décrivait les images intimes deepfake comme une violence sexuelle par image causant un « profound, real harm and long-term trauma ». Ces termes comptent, car ils expriment la continuité entre l’abus numérique et les effets psychiques bien réels.

Le traumatisme tient en partie à la perte de contrôle. Une image intime générée par IA peut être reproduite, modifiée, repartagée et réapparaître dans des espaces différents. La personne visée ne sait pas toujours qui l’a vue, où elle circule, ni si elle ressurgira plus tard dans un cadre familial, professionnel ou scolaire. Cette incertitude alimente l’hypervigilance, la rumination et parfois des conduites d’évitement importantes.

Les recherches de synthèse publiées en 2025 décrivent aussi le phénomène de « double victimisation » : d’abord l’abus initial, puis le dommage renouvelé par la diffusion continue, les réactions sociales ou les démarches de retrait. Le préjudice ne se limite donc pas à l’instant de création ou de publication. Il peut se prolonger à chaque partage, à chaque recherche en ligne, à chaque peur de reconnaissance et à chaque interaction institutionnelle mal conduite.

Pourquoi la demande d’aide reste si difficile

Les chiffres disponibles montrent un paradoxe fréquent en santé mentale : un dommage intense ne conduit pas toujours à une demande d’aide visible. Une revue scientifique de 2025 indique que 73 % des victimes n’en parlent à personne, et que seulement 7,5 % contactent la plateforme où l’image a été publiée. Ces données suggèrent moins une absence de besoin qu’un fort découragement face aux obstacles pratiques, affectifs et sociaux.

La honte joue un rôle majeur, tout comme la peur d’être jugé·e, de ne pas être cru·e ou de subir des représailles. Dans les violences sexuelles facilitées par la technologie, beaucoup de victimes anticipent des réponses minimisantes : « ignore », « ce n’est pas toi », « ce n’est qu’un montage ». Or ces phrases peuvent accroître la solitude et retarder les démarches de protection. Une réponse empathique et informée est donc déterminante dès le premier contact.

Le retrait lui-même peut devenir source de traumatisme. Signaler un contenu oblige parfois à revoir l’image, à la décrire, à conserver des preuves, à répéter son histoire à plusieurs interlocuteurs ou à surveiller la recirculation. C’est pourquoi les organisations de terrain insistent sur la confidentialité et la trauma-informed care : une approche qui réduit la reviviscence, redonne du contrôle et respecte le rythme de la personne.

Des demandes d’accompagnement plus complètes que la simple suppression

La suppression rapide d’un contenu reste essentielle, et la TAKE IT DOWN Act a renforcé cette attente en imposant aux plateformes un délai de 48 heures après notification. Mais les besoins exprimés par les victimes vont désormais bien au-delà. Les sources récentes montrent une demande croissante d’aide psychologique, juridique, numérique, scolaire et parfois médico-sociale. En d’autres termes, le retrait est un point de départ, pas l’ensemble de la réponse.

Les services spécialisés le constatent directement. RainLily a enregistré 11 demandes d’aide liées à des images intimes synthétiques ou deepfakes sur son année de service 2024-2025, notamment autour du retrait et de l’assistance à la preuve. Cela peut sembler modeste en valeur absolue, mais c’est un signal clinique important : les victimes recherchent des interlocuteurs capables de combiner soutien émotionnel, conseils procéduraux et stratégie numérique.

Au Royaume-Uni, le Revenge Porn Helpline a signalé un record en 2024 avec 61 213 images issues de cas historiques, soit une hausse de 260 % par rapport à 2023. Ce volume illustre l’effet prolongé et récurrent de l’abus. Il souligne aussi pourquoi l’accompagnement doit être pensé dans la durée : suivi psychologique, aide à la documentation, coordination avec les plateformes, informations juridiques et soutien au rétablissement de la vie quotidienne.

Écoles, adolescence et institutions qui aggravent parfois le préjudice

Chez les mineur·es, l’école est devenue un lieu central de préjudice. L’Associated Press a documenté en décembre 2025 le cas d’une collégienne de Louisiane expulsée après une altercation liée à des faux nus deepfake créés par des camarades. Ce type d’affaire montre comment les institutions censées protéger peuvent, lorsqu’elles répondent mal, déplacer la charge sur la victime et accroître le traumatisme.

Les enquêtes de l’AP ont également montré que des élèves utilisaient l’IA pour créer de faux nus de camarades et que les victimes décrivaient l’expérience comme traumatisante, avec des conséquences disciplinaires et sociales. Dans le contexte scolaire, le dommage ne tient pas seulement à l’image elle-même : il se joue aussi dans la rumeur, la stigmatisation, l’exclusion du groupe, la déscolarisation psychique et l’effondrement du sentiment de sécurité.

Ces situations appellent une réponse spécifique. Les établissements ont besoin de protocoles clairs, fondés sur le consentement, la protection de la victime et la conservation mesurée des preuves. Une réponse adéquate devrait éviter toute culpabilisation, limiter l’exposition répétée au contenu, mobiliser les familles avec tact, et prévoir un accès à un soutien psychologique. Sans cela, l’institution risque de reproduire la violence au lieu de la contenir.

Une violence souvent liée au genre et amplifiée par l’économie des plateformes

Les deepfakes intimes s’inscrivent fréquemment dans une dynamique plus large de violence basée sur le genre. L’UNODC et d’autres organismes soulignent que ces abus touchent principalement les femmes et participent de formes de violence facilitées par la technologie. La fabrication d’images sexuelles non consenties n’est donc pas un épiphénomène isolé : elle prolonge des rapports de pouvoir, d’humiliation et de contrôle déjà bien documentés.

La pression s’accroît aussi sur les entreprises technologiques. En novembre 2025, le sénateur Dick Durbin a écrit à Meta au sujet de publicités renvoyant vers des applications comme Crushmate ou Crush AI, accusées d’encourager la création d’images intimes non consenties. Cette question est cruciale, car l’écosystème technique n’est pas neutre : accessibilité des outils, recommandations publicitaires, frictions faibles et modération insuffisante contribuent au passage à l’acte et à sa banalisation.

Les chiffres officiels suggèrent par ailleurs une hausse récente des affaires enregistrées. Selon un rapport de Refuge publié en mai 2026, sur 25 forces de police anglaises, les infractions d’abus d’images intimes ont augmenté de 26,9 % entre l’année se terminant en juin 2022 et celle se terminant en juin 2025. Cette progression n’indique pas seulement une meilleure visibilité du phénomène ; elle rappelle aussi l’ampleur d’un problème qui nécessite prévention, régulation et prise en charge coordonnée.

Vers une réponse psychologique et sociale centrée sur la personne

Les organisations de terrain insistent de plus en plus sur des réponses centrées sur la personne et informées par le traumatisme. Cela signifie, concrètement, respecter la confidentialité, restaurer des choix, éviter la culpabilisation, préparer les démarches de signalement et reconnaître que la personne peut avoir des priorités différentes selon le moment : faire retirer l’image, sécuriser son compte, protéger ses enfants, retourner en classe ou simplement dormir sans reviviscence.

Pour les professionnel·les de santé mentale, plusieurs points sont particulièrement utiles. Il importe d’évaluer non seulement les symptômes immédiats, anxiété, honte, troubles du sommeil, attaques de panique, idées dépressives, mais aussi l’impact fonctionnel : travail, études, couple, sexualité, confiance numérique et sentiment de sécurité. Il est également utile d’explorer la peur de la re-circulation, souvent sous-estimée, qui maintient l’état d’alerte bien après la première crise.

Enfin, l’accompagnement gagne à être interdisciplinaire. Une victime peut avoir besoin, simultanément ou successivement, d’un soutien psychologique, d’informations juridiques, d’une aide au signalement, d’une stratégie de conservation des preuves, d’une médiation avec l’école ou l’employeur, et d’un suivi pour reconstruire l’estime de soi et la capacité relationnelle. La qualité de la première réponse est décisive : les études montrent que lorsque l’expérience de signalement auprès des plateformes est meilleure, les victimes sont plus susceptibles de re-signaliser ou de chercher la justice.

Le sujet des images intimes générées par IA nous oblige donc à dépasser l’opposition trop simple entre virtuel et réel. Ce qui est créé artificiellement peut produire une souffrance authentique, durable et parfois dévastatrice. Les avancées législatives de 2025 et 2026 marquent un tournant important, car elles affirment que l’absence de consentement suffit à définir un préjudice qui mérite protection, retrait rapide et recours.

Mais la réponse la plus juste ne sera pas seulement pénale ou technique. Elle devra aussi être psychologique, éducative et sociale. Reconnaître le traumatisme, sécuriser les démarches, former les institutions et offrir un accompagnement spécialisé sont désormais des priorités. En matière de deepfakes intimes, la vraie question n’est plus seulement comment supprimer une image, mais comment réparer une atteinte à l’intimité qui continue souvent bien après sa disparition apparente.