En septembre 2023, en l’espace d’un mois seulement, plus de 20.000 images générées par intelligence artificielle ont été publiées sur un forum accessible sur le dark web, la partie clandestine d’internet, selon l’Internet Watch Foundation (IWF).
Le nombre d’images et de vidéos d’agressions sexuelles d’enfants générées par intelligence artificielle est en progression « glaçante » en ligne, s’est-elle ainsi inquiétée la semaine dernière.
Risques de passages à l’acte
Même s’il s’agit de montages, la diffusion massive de telles images « est grave car cela contribue à la banalisation des pratiques pédocriminelles et à l’objectification de l’enfant », a souligné Angèle Lefranc, chargée de plaidoyer de la Fondation pour l’enfance, qui vient de mener un travail de recherche sur le sujet et publie mardi ses conclusions dans un rapport.
La prolifération de contenus pédopornographiques « augmente les comportements addictifs des consommateurs, avec des images de plus en plus extrêmes, explicites, violentes », indique la synthèse du rapport. Et la consommation aisée de contenus pédopornographiques augmente les risques de passage à l’acte.
« Les profils et motivations des personnes qui visionnent ces contenus sont extrêmement différents mais quand il y a eu un passage à l’acte, très souvent, il y a eu avant un visionnage », décrit Angèle Lefranc. L’Office des mineurs (Ofmin), service de police judiciaire dédié à la lutte contre les violences faites aux jeunes, estime que dans 40 % des affaires, la consultation de contenus à caractère pédopornographique a entraîné un passage à l’acte sur un enfant.
Une « réponse forte » nécessaire
Face au développement massif des images générées par intelligence artificielle, la fondation pour l’Enfance appelle les acteurs politiques, juridiques et technologiques à mettre en place une « réponse forte, rapide et coordonnée ».
La Fondation pour l’enfance recommande d’une part une sensibilisation du grand public. « Les gens ne se rendent pas compte que les photos de leurs enfants en maillot de bain publiées sur les réseaux sociaux peuvent servir à entraîner des intelligences artificielles » à visée pédopornographique, décrit la chargée de plaidoyer.
La fondation demande également aux pouvoirs publics d’amender le Code pénal pour pénaliser la création de montages à caractère sexuel représentant des mineurs. A l’heure actuelle, le « vide juridique » sur ce sujet « permet à la pratique de s’intensifier ».
Plus de 800 signalements de contenus pédocriminels chaque jour
Autre conséquence de cette multiplication d’images et de vidéos pédopornographiques : il devient plus difficile pour les forces de l’ordre d’identifier et de protéger les enfants réellement victimes de violences sexuelles qui apparaissent dans ces contenus. La fondation recommande d’inciter les acteurs privés à coopérer pour mettre en place des outils permettant de distinguer les contenus générés par intelligence artificielle des contenus réels.
Plus de 800 signalements de contenus pédocriminels échangés en ligne sont transmis chaque jour à l’Ofmin, soit une augmentation de 12.000 % en dix ans.
Source: 20 minutes