Les outils pour générer des deepfakes sexuellement explicites, souvent utilisés à des fins de harcèlement, sont de plus en plus nombreux et faciles à trouver sur les moteurs de recherche ou sur X (ex-Twitter). 31 de ces sites ont reçu pas moins de 21 millions de visites par mois.
Comment harceler des utilisateurs en ligne? En quelques clics grâce aux outils pour créer des deepfakes sexuellement explicites, ces montages qui usurpent l’identité de stars ou d’internautes, et les mettent en scène dans des situations à caractère sexuel,, sans leur accord.
Avec la popularisation de l’intelligence artificielle (IA), il est devenu plus facile de fabriquer ces fausses photos ou vidéos et de les rendre hyperréalistes, ouvrant de nouvelles voies à leur utilisation à des fins de harcèlement ou d’humiliation.
Selon une étude du 23 octobre de l’Institute for Strategic Dialogue (ISD), relayée par 404media, ces outils pullulent sur les réseaux sociaux. L’organisme a analysé 31 sites dédiés à la création de deepfakes non consensuels et sexuellement explicites. Au total, ces derniers sont visités plus de 21 millions de fois par mois. Certains reçoivent jusqu’à 4 millions de visites en un mois.
X, le mauvais élève
Rien d’étonnant selon les chercheurs. En effet, sur les moteurs de recherche, comme Google Search ou Bing, des requêtes simples comme « deepnude » (la contraction de « deepfake » et « nude », NDLR), « nudify », ou « undress app » (« application pour déshabiller« , NDLR) renvoient souvent dès les premiers résultats vers ces outils. Un constat d’autant plus marqué sur Bing.
Mais les moteurs de recherche ne sont pas les seuls fautifs. En analysant un corpus de sites et de plateformes, les chercheurs ont recensé plus de 410.000 mentions d’outils pour générer des deepfakes à caractère sexuel entre juin 2020 et juillet 2025. 70% de ces mentions, un peu moins de 290.000, ont été trouvées sur le réseau social d’Elon Musk X, ex-Twitter). Rien de vraiment étonnant puisque Grok, l’IA d’Elon Musk, avait déjà défrayé la chronique en mai dernier. L’outil pouvait, à la demande des internautes, déshabiller des femmes.
La majorité de ces mentions ont été repérées dans des publications automatisées par des bots.
« Cette activité reste préoccupante, car son volume est susceptible d’attirer de nouveaux utilisateurs vers ces outils, qui peuvent être utilisés pour des activités illégales dans plusieurs contextes », alerte ainsi Anne Craanen, co-auteure de l’étude, auprès du média américain.
Un cadre juridique trop peu contraignant
Et les exemples ne manquent pas. En France, en mars dernier, douze adolescentes ont été victimes de deepfakes pornographiques. Aux Etats-Unis, un rapport du Center for Democracy and Technology a révélé que 40% des élèves et un tiers des enseignants déclarent connaître un deepfake explicite représentant des personnes associées à leur école partagées au cours de la dernière année scolaire. Plusieurs personnalités publiques, comme Taylor Swift, en ont également été victimes.
Si la problématique est bien identifiée, les géants de la tech peinent à prendre des mesures appropriées. « La persistance et l’accessibilité de ces outils mettent en évidence les limites de la modération actuelle de la plateforme et des cadres juridiques pour lutter contre cette forme d’abus », déplore le rapport.
Bien que la loi américaine contre les deepfakes, le Take it down act (« Retire-le », NDLR) oblige les plateformes à signaler et à retirer les contenus synthétiques à caractère sexuel, elle n’est pas encore pleinement entrée en vigueur. La loi suscite également de vives inquiétudes sur la manière dont elle sera utilisée pour censurer les réseaux sociaux et les plateformes.
Les Etats-Unis ne sont d’ailleurs pas les seuls à avoir légiféré en ce sens. En France, la loi sur la sécurisation de l’espace numérique votée en 2024 prévoit des peines allant jusqu’à 3 ans d’emprisonnement et 75.000 si un deepfake à caractère sexuel est publié en ligne.
Source: BFM


