Accueil / Sexualité / Deepfakes sexuels: l’angoisse du faux bouleverse l’intimité

Deepfakes sexuels: l’angoisse du faux bouleverse l’intimité

Les deepfakes sexuels ne sont plus une curiosité technologique cantonnée aux forums obscurs : ils redessinent notre rapport au corps, à l’intimité et à la confiance. Plus de 95 % de l’ensemble des vidéos deepfake hébergées en ligne seraient aujourd’hui pornographiques, visant quasi exclusivement des femmes. Derrière cette statistique se cache une révolution silencieuse : on peut désormais être « nu en ligne » sans n’avoir jamais posé nu, ni même s’être filmé.

Cette bascule crée une nouvelle forme d’angoisse, celle du faux : peur qu’une vidéo sexuelle non consentie surgisse à tout moment, mais aussi peur qu’une vidéo authentique soit niée comme étant truquée. L’intimité n’est plus seulement ce que l’on expose ou non, c’est ce que d’autres peuvent fabriquer de nous. Dans la vie amoureuse, professionnelle ou politique, l’ombre des deepfakes sexuels s’étend, transformant chaque selfie en potentielle matière première d’un porno monté de toutes pièces.

1. Une épidémie silencieuse : prévalence mondiale et domination du porno

Les chiffres internationaux confirment l’ampleur du phénomène. Une étude menée en 2024 auprès de plus de 16 000 personnes dans 10 pays indique que 2,2 % des répondants se déclarent déjà victimes de deepfakes sexuels ou d’images intimes synthétiques non consenties. Parallèlement, 1,8 % reconnaissent avoir créé ou diffusé eux‑mêmes ce type de contenu. Ces taux, en apparence modestes, représentent en réalité des millions de personnes à l’échelle mondiale.

Cette victimisation intervient dans un contexte où le deepfake est largement capté par l’industrie et la culture pornographiques. Plusieurs analyses de marché et rapports d’ONG convergent : plus de 95 % des vidéos deepfake en circulation sont de nature sexuelle et ciblent principalement des femmes. Le détournement de visages de célébrités a largement médiatisé le phénomène, mais les victimes anonymes , étudiantes, collègues, militantes, ex‑partenaires , sont désormais en première ligne.

Le fait que des victimes et des auteurs soient identifiés dans des pays dotés de lois spécifiques montre que le droit, à lui seul, ne suffit pas à endiguer la vague. La facilité technique (applications en ligne, générateurs grand public) et la culture pornographique banalisée créent un environnement où la production de faux sexuels devient un loisir transgressif pour certains groupes, au détriment de l’intégrité des personnes représentées.

2. Une peur diffuse : l’angoisse qu’un deepfake sexuel soit créé de soi

Au‑delà des victimes avérées, une anxiété de masse se développe. Un sondage commandé par l’Office of the Police Chief Scientific Adviser au Royaume‑Uni en 2025, auprès de 1 700 personnes, révèle qu’environ 60 % des répondants craignent qu’un deepfake soit un jour réalisé à leur sujet. Cette peur est particulièrement marquée chez les femmes et les filles, déjà plus exposées aux violences sexistes en ligne.

La familiarité avec la technologie ne rassure pas, au contraire. Près des deux‑tiers des personnes interrogées déclarent avoir déjà vu un deepfake ; parmi eux, 21 % étaient de nature sexuelle et 14 % mettaient en scène une personne qu’ils connaissaient. Voir le visage d’un proche manipulé dans un montage érotique ou pornographique rend la menace tangible, brisant l’illusion que « cela n’arrive qu’aux autres » ou qu’aux célébrités.

Cette angoisse du faux agit comme un bruit de fond constant : elle influence la manière dont on publie des photos sur les réseaux sociaux, dont on se montre dans des événements publics, voire dont on postule à certains postes très visibles. Il ne s’agit plus seulement de craindre un piratage ou une fuite de données, mais la pure invention d’images intimes, générées sans aucune base réelle, à partir de simples clichés de profil.

3. Une normalisation inquiétante : quand une partie du public « ne voit pas le problème »

En parallèle de cette anxiété grandissante, une forme de banalisation se développe. Le même sondage britannique de 2025 montre que 13 % des répondants ne voient « rien de mal » dans la création de deepfakes sexuels sans consentement et que 12 % se déclarent « neutres » sur le sujet. Autrement dit, un quart de la population interrogée ne condamne pas clairement ces pratiques, malgré leur caractère intrusif et violent.

Cette tolérance est particulièrement élevée chez les hommes de moins de 45 ans, gros consommateurs de pornographie et adoptant des attitudes misogynes dans les questionnaires. Dans ce groupe, la manipulation numérique de l’image d’autrui est souvent perçue comme un simple divertissement ou une extension de la culture porno mainstream, plutôt que comme une atteinte grave aux droits de la personnalité et au consentement.

Cette normalisation crée un terrain fertile pour les auteurs de deepfakes sexuels. Plus la société tolère l’idée qu’on puisse « jouer » avec le corps numérique des autres, plus il devient difficile pour les victimes d’être reconnues comme telles. La honte se déplace d’ailleurs souvent sur celles qui osent se plaindre, accusées d’exagérer ou de ne pas « comprendre Internet », renforçant leur isolement et leur silence.

4. Sous‑déclaration et faible confiance dans les recours

Les données disponibles indiquent une sous‑déclaration massive. Dans le sondage britannique de 2025, 7 % des participants se déclarent victimes de deepfakes (tous types confondus), mais seule environ la moitié a signalé l’incident à la police ou à une plateforme. Les raisons avancées sont la honte, le sentiment de responsabilité et surtout un manque de confiance dans l’efficacité du système.

De nombreuses victimes doutent de la capacité des forces de l’ordre à comprendre les technologies d’IA générative et l’ampleur du préjudice. Les procédures sont perçues comme lentes, humiliantes, parfois minimisantes. Sur les plateformes, les formulaires de signalement sont souvent jugés opaques, traumatisants (nécessité de revoir les images pour les décrire) et aboutissent à des réponses automatisées génériques.

Cette défiance nourrit l’idée qu’« il n’y a rien à faire », renforçant l’angoisse permanente qu’un faux sexuel surgisse ou ressurgisse à tout moment. Le sentiment d’impuissance s’ajoute alors à la peur : même si le contenu était supprimé une fois, il pourrait réapparaître ailleurs. Dans cet environnement, beaucoup choisissent le silence, ce qui rend le phénomène statistiquement sous‑estimé et empêche la mise en place de politiques plus adaptées.

5. Traumatisme psychologique : quand le faux produit de vrais dégâts

Les recherches académiques sur les « non‑consensual synthetic intimate imagery » montrent que les effets psychologiques des deepfakes sexuels sont comparables à ceux de la pornographie de vengeance. Les victimes rapportent des niveaux élevés de honte, d’anxiété, de symptômes dépressifs et d’isolement social. La différence entre images « vraies » et « fausses » n’atténue pas le traumatisme : le ressenti d’exposition sexuelle non consentie demeure.

Un élément récurrent est le sentiment de perte de contrôle sur son corps et son identité. Même si la vidéo est techniquement truquée, la personne voit son visage, ses expressions et parfois sa voix associés à des actes sexuels qu’elle n’a jamais consentis. Cette confusion entre le vrai et le faux rend d’autant plus difficile de se réapproprier son image et son intimité. La victime a le sentiment de ne plus pouvoir maîtriser la façon dont elle est perçue dans le regard d’autrui.

S’ajoute à cela la difficulté de convaincre son entourage , famille, partenaire, employeur , que la vidéo est falsifiée. Dans un contexte où beaucoup peinent à distinguer un vrai d’un faux deepfake, la parole de la victime est parfois accueillie avec soupçon. Cette incertitude renforce l’angoisse du faux : même en niant, même en prouvant, le doute peut persister chez les autres, ce qui intensifie la honte et l’autocensure.

6. Intimité, couple et sexualité à l’ère du soupçon

Des travaux récents en droit et en éthique de l’IA (2024‑2025) soulignent que l’existence même des deepfakes sexuels érode la confiance dans les images intimes. Dans de nombreux couples, le partage de photos ou de vidéos nues, autrefois geste de confiance, devient un risque calculé. La peur que ces contenus soient détournés, combinée à la possibilité qu’ils soient re‑travaillés par IA des années plus tard, freine l’expression de la sexualité numérique consensuelle.

Pour les victimes, l’angoisse se généralise à toute trace visuelle : une simple photo de vacances, un portrait professionnel sur LinkedIn, une story Instagram peuvent devenir la base d’un faux porno. On assiste ainsi à une reconfiguration profonde de la relation au corps en ligne. L’intimité n’est plus uniquement ce que l’on choisit de montrer, mais ce que d’autres peuvent fabriquer à partir de fragments d’images éparpillées sur Internet.

Cette incertitude pèse également sur la capacité à dénoncer de vraies violences sexuelles filmées. Un agresseur peut dorénavant nier une vidéo authentique en la présentant comme un deepfake. Inversement, une personne injustement visée par une vidéo truquée doit se battre pour convaincre qu’il s’agit bien d’un faux. Dans les deux cas, la preuve visuelle perd sa force, et la parole des victimes est placée dans une zone grise, facilement contestable.

7. Cas Gráinne Seoige : l’arme politique du porno truqué

L’affaire de la présentatrice et candidate irlandaise Gráinne Seoige illustre la dimension politique des deepfakes sexuels. En 2024, durant sa campagne en Irlande, elle a été la cible d’une vidéo pornographique générée par IA, qui a largement circulé en ligne. Elle décrit cette expérience comme « la plus choquante de sa vie », avec un impact direct sur son image publique et, selon elle, sur ses chances électorales.

Seoige met en lumière un effet dissuasif : savoir qu’une candidature féminine peut être sabotée par un porno truqué risque de décourager d’autres femmes d’entrer en politique ou de s’exposer médiatiquement. Le deepfake sexuel devient alors une arme de dissuasion massive contre la prise de parole publique des femmes, en s’attaquant directement à leur respectabilité et à leur crédibilité.

Elle dénonce aussi un « pass‑the‑buck system », où plateformes et autorités se renvoient la responsabilité : hébergeurs invoquant la liberté d’expression ou l’ampleur du contenu à modérer, autorités policières manquant de moyens techniques, législateurs peinant à suivre le rythme d’innovation. Ce vide opérationnel renforce la vulnérabilité des victimes et montre que l’angoisse du faux est aussi l’angoisse d’être abandonnée par les institutions.

8. Un tour du monde des réponses juridiques

Face à ces enjeux, plusieurs pays ont commencé à adapter leur arsenal juridique. Aux États‑Unis, le TAKE IT DOWN Act, entré en vigueur le 19 mai 2025, érige en crime fédéral la mise en ligne d’images intimes non consenties, y compris les deepfakes. La loi impose aux grandes plateformes de retirer ces contenus dans les 48 heures après notification, même lorsque la nudité ou l’acte sexuel est entièrement synthétique et qu’aucune image réelle n’a été prise.

En Europe, la France s’est dotée en 2024 de l’article 226‑8‑1 du code pénal, criminalisant spécifiquement la diffusion de contenus sexuellement explicites générés par algorithme reproduisant l’apparence d’une personne sans son consentement. Les peines peuvent aller jusqu’à 2 ans de prison et 60 000 € d’amende, davantage en cas de circonstances aggravantes, et s’appliquent même si la vidéo est clairement annoncée comme étant un faux. Le message est net : le problème n’est pas seulement la tromperie du public, mais l’atteinte à la personne représentée.

D’autres pays innovent sur le terrain des droits de la personnalité. Le Danemark a, en 2025, accordé à chacun un droit d’auteur sur son apparence, sa voix et son corps : toute imitation numérique partagée sans consentement est interdite, avec des droits de retrait et de compensation pour les personnes ciblées. Au Royaume‑Uni, la création de « deepfake porn » est désormais passible de 2 ans de prison, tandis que l’Online Safety Act impose aux plateformes un devoir proactif de prévention et de retrait, sous peine d’amendes pouvant atteindre 10 % de leur chiffre d’affaires mondial.

9. Régulation de l’IA, traçabilité et limites techniques

Au‑delà des incriminations pénales, la régulation de l’intelligence artificielle cherche à encadrer la production même des deepfakes. L’AI Act européen, adopté en 2024, classe les systèmes de génération de deepfakes parmi les IA à « risque limité », avec une obligation de transparence : les contenus synthétiques doivent être clairement signalés, par exemple via des filigranes ou un marquage technique. Couplé au RGPD, tout deepfake sexuel non consenti peut constituer un traitement illicite de données biométriques (visage, voix, corps), passible d’amendes allant jusqu’à 4 % du chiffre d’affaires mondial d’une entreprise.

La Chine a, de son côté, adopté certaines des régulations les plus strictes au monde en 2024‑2025 : obligation de marquage clair, interdiction des outils permettant de retirer les filigranes d’IA, obligation pour les plateformes de labelliser comme « suspectés synthétiques » les contenus qu’elles ne peuvent authentifier. Ces règles visent autant les deepfakes politiques que pornographiques, en tentant de restaurer une forme de confiance dans la provenance des images.

Mais une analyse de 50 systèmes de génération d’images en 2025 montre les limites de ces approches : seule une minorité intègre un watermarking robuste. Sans adoption généralisée des techniques de traçabilité, distinguer un « vrai nude » d’un faux reste extrêmement difficile pour les victimes, leurs proches, les employeurs et les tribunaux. L’angoisse du faux n’est donc pas seulement sociale ou juridique ; elle est aussi technologique, alimentée par une asymétrie entre les capacités de génération et les capacités de détection.

10. Genre, pouvoir et continuum des violences sexistes en ligne

Les enquêtes internationales et les rapports d’ONG sont unanimes : la majorité écrasante des victimes identifiables de deepfakes pornographiques sont des femmes et des filles, tandis que les hommes apparaissent majoritairement comme auteurs ou consommateurs. Les deepfakes sexuels s’inscrivent ainsi dans un continuum plus large de violences sexistes en ligne : sextorsion, cyberharcèlement, pornographie de vengeance, menaces de viol, etc.

En rompant le lien entre nudité et exposition réelle du corps, les deepfakes reconfigurent profondément le consentement. On peut être exhibée nue en ligne sans avoir jamais consenti à être photographiée dans un contexte intime. Or l’image, même fausse, est consommée comme « suffisamment vraie » par ceux qui la regardent, produisant humiliation, excitation et jugement social. Le fantasme devient une arme contre l’intégrité d’une personne réelle.

Cet usage politique et genré du faux pornographique a un effet glaçant sur la parole des femmes dans l’espace public. Savoir qu’un désaccord politique, une prise de position féministe ou une simple visibilité médiatique peut déclencher une campagne de montages pornographiques contribue à leur autocensure. L’angoisse du faux, ici, n’est pas une abstraction : c’est un outil de maintien des rapports de pouvoir, qui rappelle aux femmes que leur corps , ou son double numérique , peut toujours être retourné contre elles.

Les deepfakes sexuels cristallisent ainsi plusieurs mutations simultanées : une révolution technique qui rend la fabrication du faux accessible à tous, une porosité croissante entre fantasme pornographique et réalité sociale, et une transformation radicale de la notion même de consentement. L’angoisse du faux n’est pas seulement la peur d’être trompé visuellement ; c’est la peur que notre corps, notre visage, notre identité puissent être détournés en permanence, sans prise directe sur ce qui circule à notre sujet.

Pour y répondre, le renforcement des lois , comme en France, au Danemark, au Royaume‑Uni, aux États‑Unis ou en Chine , est indispensable, mais il ne suffit pas. Il faut aussi une évolution culturelle profonde, qui cesse de considérer les deepfakes sexuels comme un « simple jeu » ou un fantasme virtuel sans conséquences, et qui reconnaisse le droit fondamental de chacun à contrôler son image, réelle ou synthétique. Tant que cette prise de conscience n’aura pas eu lieu, l’intimité restera fragilisée par la possibilité permanente du faux, et l’espace numérique demeurera un terrain miné pour celles et ceux qui y exposent, même innocemment, leur visage et leur corps.