Accueil / Sexualité / L’IA et le consentement sexuel

L’IA et le consentement sexuel

À l’ère des modèles génératifs, l’intelligence artificielle bouleverse notre manière de représenter les corps, l’intimité et le désir. Mais derrière la fascination pour les deepfakes et les outils de « nudification » se cache un enjeu central, trop souvent ignoré : le consentement sexuel. Quand une IA permet de déshabiller une personne à partir d’une simple photo, ou de la placer dans une scène pornographique sans son accord, ce n’est plus seulement une question de technologie ; c’est une question de droits fondamentaux, de dignité et de violences.

De nombreux experts , médecins, juristes, autorités de protection des données, procureurs , considèrent désormais les images sexuelles générées par IA sans accord comme une nouvelle forme de violence sexuelle. Des États comme le Tennessee ou le Texas, la France, le Royaume‑Uni ou encore l’Union européenne commencent à réagir, parfois sous la pression de scandales comme celui de Grok/X. Mais la diffusion exponentielle des deepfakes pornographiques montre que la réponse juridique est encore en retard sur la réalité vécue par les victimes, en particulier les femmes et les jeunes.

Comprendre le consentement sexuel à l’ère de l’IA

Le consentement sexuel ne se réduit pas à un « oui » ou un « non » abstrait : il suppose une volonté libre et éclairée, limitée dans le temps, à une situation précise. Appliqué aux images, cela signifie qu’une personne peut consentir à être photographiée dans un contexte intime, sans pour autant accepter que ces images circulent en ligne, soient retouchées ou détournées par une IA. Les analyses de la loi américaine TAKE IT DOWN (S.146), entrée en vigueur en mai 2025, et de l’American Academy of Pediatrics insistent sur ce point : consentir à la création d’un contenu n’équivaut jamais à consentir à sa diffusion.

L’IA complexifie encore cette distinction. On peut aujourd’hui produire une image sexuelle ultra‑réaliste d’une personne qui n’a jamais posé nue, simplement à partir de quelques photos publiques. Dans ce cas, il n’y a ni tournage ni séance photo ; il n’y a qu’une extraction de données (visage, corps, style) pour fabriquer une pseudo‑réalité. Non seulement l’intéressé·e n’a jamais consenti au scénario, mais il ou elle peut même ignorer totalement l’existence de ces images. Le consentement n’est pas obtenu, il est contourné.

Il faut donc repenser le cadre : l’enjeu n’est plus seulement « ai‑je donné mon accord pour cette photo ? », mais « ai‑je donné mon accord pour que mon image, ma voix, mon apparence soient utilisées dans un contexte sexuel, réel ou simulé, et diffusées en ligne ? ». Le droit à l’image, à la voix, à la vie privée devient un pilier central du consentement sexuel à l’ère de l’IA. Des textes comme l’ELVIS Act au Tennessee, qui protège l’utilisation non autorisée de la voix et de l’image des artistes, matérialisent ce virage.

L’explosion des deepfakes sexuels : chiffres et réalités

Depuis 2022, les contenus sexuels non consensuels générés par IA connaissent une croissance vertigineuse. Les synthèses de recherche publiées par InsideThePorn en 2025 indiquent qu’environ 98 % de l’ensemble des deepfakes en ligne sont pornographiques, et qu’environ 99 % des personnes visées sont des femmes. Entre 2022 et 2023, le volume de vidéos de pornographie en deepfake aurait augmenté d’environ 464 %, illustrant une véritable industrialisation de ces pratiques.

Cette explosion n’est pas neutre du point de vue du consentement : dans la vaste majorité des cas, les personnes ciblées ne sont ni informées, ni consultées. Elles découvrent souvent l’existence de ces contenus lorsqu’un proche, un collègue ou un employeur les signale, ou lorsqu’elles tombent par hasard sur des forums et sites qui les exploitent. Le temps que le contenu soit repéré, partagé et archivé, le préjudice est déjà immense et difficilement réversible.

Les jeunes sont particulièrement exposés. Une enquête citée dans Forbes et menée auprès de 1 200 jeunes montre que 10 % déclarent connaître quelqu’un ayant été la cible de deepfakes sexuels, et 6 % se disent eux‑mêmes victimes. Les témoignages évoquent anxiété, dépression, phobie sociale et, dans certains cas, des tentatives de suicide. Le deepfake sexuel se révèle ainsi comme une forme de violence sexuelle numérique qui ne nécessite ni contact physique ni rencontre pour détruire la perception de soi, la confiance et la sécurité psychologique.

Grok/X : quand une IA grand public viole le consentement

Le scandale autour du chatbot Grok, intégré à la plateforme X (ex‑Twitter), illustre la facilité avec laquelle une IA grand public peut être détournée pour produire des contenus sexuels non consensuels. Entre le 25 décembre 2025 et le 1er janvier 2026, une analyse de 20 000 images générées par Grok révèle qu’environ 2 % représentaient des personnes en bikini ou vêtements transparents semblant avoir 18 ans ou moins, avec une trentaine décrites comme « très jeunes ». Lors d’une autre mesure, les chercheurs estiment à 6 700 par heure le nombre d’images sexualisées ou « nudifiées » créées via cet outil.

Dans de nombreux cas, Grok a servi à « déshabiller » des personnes à partir de photos, ou à les placer dans des situations explicitement sexuelles sans le moindre consentement. Les victimes potentielles incluent aussi bien des adultes que des mineurs. Pour ces derniers, les implications sont encore plus graves : il s’agit d’images d’abus sexuels virtuels, potentiellement assimilables à de la pornographie infantile générée par IA, avec un impact psychologique et social tout aussi dévastateur que des images réelles.

Cette affaire a déclenché une vague d’enquêtes et d’appels à régulation dans l’Union européenne, au Royaume‑Uni, en France, en Inde, en Malaisie, au Brésil et ailleurs. En Europe, le RGPD offre déjà un cadre puissant en considérant l’image d’une personne identifiable comme une donnée personnelle, dont le traitement doit être licite, transparent et limité. Lorsque l’on utilise la photo d’une personne pour fabriquer un deepfake sexuel sans son accord, on se place potentiellement en pleine violation de ce cadre, en addition à des infractions pénales liées à la pornographie non consentie ou à la protection des mineurs.

La réponse des régulateurs : ICO, justice française et lois américaines

Face à la multiplication des deepfakes sexuels, les autorités de protection des données et les parquets commencent à qualifier ces pratiques comme de véritables violences sexuelles. Le 3 février 2026, le régulateur britannique ICO a ouvert une enquête formelle contre X et xAI au sujet des deepfakes sexuels non consentis générés par Grok, dont certains représenteraient des enfants. L’ICO rappelle clairement qu’utiliser des photos de personnes identifiables pour créer des contenus sexuels non consensuels constitue une violation grave du droit à la protection des données et à la vie privée.

En parallèle, les autorités françaises ont perquisitionné les bureaux de X à Paris dans le cadre d’une enquête sur la diffusion d’images d’abus sexuels sur mineurs et de deepfakes. Ces démarches marquent un tournant symbolique : les contenus sexuels IA ne sont plus traités comme de simples dérives « ludiques » ou des problèmes de modération, mais comme des objets d’enquêtes pénales, au croisement du droit pénal sexuel, de la cybercriminalité et du droit des données personnelles.

Aux États‑Unis, la dynamique législative est particulièrement intense. Outre le TAKE IT DOWN Act et l’ELVIS Act, le Texas a adopté en 2025 la loi « Stopping AI‑Generated Child Pornography Act » (S.B. 20). Elle crée des infractions pour la possession, la promotion ou la production de matériel visuel obscène qui « apparaît » représenter un enfant de moins de 18 ans, même si l’image est générée par IA ou provient d’une représentation animée. Cette approche ferme explicitement la porte aux justifications du type « ce n’est pas un vrai enfant, donc ce n’est pas un crime », en reconnaissant la dimension abusive de ces contenus sur le plan symbolique et social.

Criminalisation fédérale : le TAKE IT DOWN Act et ses limites

Entrée en vigueur le 19 mai 2025, la loi fédérale américaine S.146, dite TAKE IT DOWN Act (« Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks »), représente une étape majeure. Elle criminalise la publication d’images intimes non consensuelles, y compris les deepfakes réalistes d’individus identifiables, et prévoit jusqu’à trois ans de prison pour la diffusion de ces contenus. Elle impose également aux plateformes de retirer les images signalées dans un délai de 48 heures et de mettre en place des dispositifs pour empêcher les ré‑uploads d’ici mai 2026.

Un apport clé de cette loi est la clarification du lien entre consentement et diffusion : même si une personne a consenti à la création d’une image intime, cela ne signifie pas qu’elle a consenti à sa mise en ligne ou à son partage sur les réseaux sociaux. Le texte exige des procédures de retrait simples et accessibles aux victimes, ce qui renforce leur capacité à reprendre la main sur leurs images. En théorie, cette loi place une responsabilité claire sur les épaules des plateformes : l’inaction ou la lenteur face à un signalement peut désormais avoir des conséquences juridiques fortes.

Cependant, les limites restent importantes. D’abord, l’application est difficile face à la viralité des contenus et à l’hébergement à l’étranger. Ensuite, les peines prévues (jusqu’à trois ans) peuvent apparaître faibles au regard de la gravité du traumatisme subi, notamment lorsque les deepfakes sont utilisés pour harceler, faire chanter ou ruiner la réputation d’une personne. Enfin, la loi intervient le plus souvent après coup, une fois que le préjudice est déjà constitué : la réparation est possible, mais la prévention reste largement insuffisante.

Résilience du deepfake porn : pourquoi la loi ne suffit pas

Une étude académique récente de A. Cuevas et M. Horta Ribeiro, publiée en février 2026 sous le titre « Deepfake Pornography is Resilient to Regulatory and Platform Shocks », souligne une réalité dérangeante : la criminalisation fédérale aux États‑Unis (TAKE IT DOWN Act) et la fermeture de sites emblématiques comme MrDeepfakes n’ont pas réduit, globalement, la diffusion de pornographie non consensuelle générée par IA. L’activité s’est simplement déplacée vers d’autres plateformes, parfois plus discrètes et plus difficiles à contrôler.

Les chercheurs observent même une hausse des demandes et du partage de contenus explicites non consentis sur plusieurs forums après les premiers « chocs » réglementaires et les fermetures de services. Cette résilience s’explique par plusieurs facteurs : la facilité technique de produire des deepfakes sur un ordinateur personnel, la circulation d’outils et de modèles sur des réseaux décentralisés, et une demande persistante, portée en grande partie par une culture en ligne qui banalise la sexualisation et l’objectification, en particulier des femmes.

Ce constat rappelle que la loi, à elle seule, ne peut pas éradiquer un phénomène profondément ancré dans les pratiques numériques et les imaginaires. Elle est indispensable pour reconnaître la gravité du préjudice, punir les auteurs et responsabiliser les entreprises. Mais sans une action sur la demande (éducation, sensibilisation, changement des normes sociales) et sur les infrastructures techniques (conception responsable des systèmes d’IA, filtrage, détection, traçabilité), les deepfakes sexuels continueront de se reconfigurer et de survivre aux interdictions formelles.

Mineurs et sexualité simulée : une ligne rouge absolue

Lorsque les deepfakes sexuels impliquent des mineurs, réels ou supposés, la question du consentement ne se pose même plus : il s’agit d’une violation frontale de la protection de l’enfance. Le Texas, avec sa loi S.B. 20 entrée en vigueur le 1er septembre 2025, a adopté une position très claire : la production, la possession ou la promotion de matériel visuel obscène qui « apparaît » représenter un enfant de moins de 18 ans est punissable, même si l’image est générée par IA, donc sans victime photographiée au sens technique.

Un cas judiciaire à Houston, en février 2026, illustre concrètement ce risque. Un homme de Baytown est poursuivi pour avoir utilisé des applications d’IA afin de superposer les visages de mineurs qu’il connaissait sur des corps nus d’adultes dans des vidéos. Il a ainsi créé du matériel d’abus sexuel d’enfants généré par IA. Le Centre national pour les enfants disparus et exploités signale une hausse fulgurante des signalements de ce type : de 4 700 en 2023 à 67 000 en 2024. La frontière entre « pornographie virtuelle » et « abus réel » s’effondre lorsque des visages d’enfants identifiables sont utilisés.

Les affaires liées à Grok/X confirment que les outils d’IA grand public peuvent être instrumentalisés pour générer des images sexualisées de personnes semblant mineures, voire de mineurs identifiables. Ici, la question du consentement sexuel est indissociable du statut de vulnérabilité des enfants : il ne s’agit pas de scènes fantasmées abstraites, mais de représentations visuelles qui peuvent poursuivre un enfant toute sa vie, être utilisées pour le harceler, le faire chanter ou le stigmatiser. D’où l’insistance croissante des législateurs pour traiter ces images IA comme une forme de « child sexual abuse material » (CSAM), avec des sanctions équivalentes.

Responsabilité des plateformes et des infrastructures numériques

Les plateformes ne sont pas de simples spectatrices passives du phénomène des deepfakes sexuels. Le communiqué du 26 août 2025 signé par 48 procureurs généraux d’États américains, menés par la Californie, s’adresse explicitement aux moteurs de recherche et aux services de paiement, leur demandant d’agir contre les outils qui facilitent la création et la diffusion de pornographie en deepfake sans consentement. Le texte insiste sur les dommages particuliers subis par les femmes et les filles, et sur la responsabilité des entreprises qui fournissent l’infrastructure technique (hébergement, monétisation, référencement).

Avec le TAKE IT DOWN Act, cette responsabilisation prend une dimension juridique contraignante : les plateformes ont l’obligation de retirer les images intimes non consensuelles dans les 48 heures suivant un signalement, et de mettre en place des systèmes pour empêcher les ré‑uploads répétés. En Europe, des principes similaires se retrouvent dans le RGPD (obligation de traiter les données de façon licite) et dans le règlement sur les services numériques (DSA), qui renforce les obligations de modération et de gestion des contenus illégaux pour les grandes plateformes.

Mais la responsabilité va au‑delà de la simple modération a posteriori. Les entreprises qui conçoivent des IA génératives comme Grok ou d’autres modèles devraient intégrer dès la conception des garde‑fous : refus par défaut des requêtes visant à déshabiller des personnes réelles, détection de visages, filtres sur les mineurs apparents, journalisation des abus, canaux dédiés aux autorités. L’absence ou l’insuffisance de ces mesures n’est pas seulement un « bug » : c’est une mise en danger systémique du consentement sexuel des utilisateurs et des personnes dont les images circulent en ligne.

Reconnaître les deepfakes sexuels comme une violence sexuelle

Un consensus émerge progressivement chez les experts : les deepfakes sexuels non consentis ne sont pas un simple « problème d’image » ou un « dommage à la réputation », mais une forme de violence sexuelle, au même titre que le revenge porn ou certaines formes de harcèlement sexuel. L’American Academy of Pediatrics, les autorités de protection de la vie privée comme l’ICO au Royaume‑Uni, ainsi que des procureurs généraux américains, qualifient ces pratiques de « sexual abuse » qui altère durablement la santé mentale, la relation au corps et à la sexualité.

Pour les victimes, la dimension sexuelle de l’atteinte est souvent centrale : l’image les montre dans une posture de nudité ou d’acte sexuel qu’elles n’ont jamais consenti à adopter, mais qui est perçue comme réelle par ceux qui la voient. Elles peuvent être insultées, jugées, rejetées, harcelées, voire licenciées, sur la base d’une fiction que l’IA rend crédible. La violence réside dans cette insertion forcée dans un scénario sexuel, qui annule leur capacité de dire « non » et les enferme dans un rôle imposé.

Reconnaître juridiquement ces images comme une forme de violence sexuelle a plusieurs conséquences : aggravation des peines, meilleurs dispositifs de protection des victimes (ordonnances de retrait, anonymat, accompagnement psychologique), et changement de regard dans la société. Les deepfakes sexuels ne relèvent plus d’une « blague » ou d’un « fantasme geek », mais d’un acte grave qui exige une réaction collective, au même titre que le harcèlement de rue ou les agressions sexuelles hors ligne.

À l’intersection de l’IA et du consentement sexuel se joue une bataille cruciale pour nos libertés individuelles, la protection de l’enfance et l’égalité entre les genres. Les chiffres sur l’explosion des deepfakes pornographiques, la résilience du phénomène malgré les lois, ou encore les affaires Grok/X et Houston montrent que le simple progrès technique ne conduit pas naturellement à plus d’émancipation. Sans garde‑fous, l’IA amplifie les mécanismes de domination et de violences déjà présents dans la société, en particulier à l’encontre des femmes et des jeunes.

Renforcer le droit (TAKE IT DOWN, S.B. 20, ELVIS Act et futures législations européennes), responsabiliser les plateformes, et reconnaître les deepfakes sexuels comme une violence sexuelle sont des étapes indispensables, mais non suffisantes. Il faudra aussi investir massivement dans l’éducation au consentement numérique, dans la prévention auprès des adolescents et dans l’accompagnement des victimes. L’IA ne doit pas devenir l’alibi d’une nouvelle ère de pornographie non consentie ; elle doit, au contraire, être mise au service d’un espace numérique où le désir, le corps et l’intimité restent, toujours, l’objet d’un consentement libre et respecté.