L’IA « déshabille » des photos d’enfant pour en faire de la pédopornographie
Les images pédopornographiques générées par IA pullulent sur les forums criminels, selon une étude. L’association qui l’a produite, l’Internet Watch Foundation, s’alarme de ce constat, d’autant que des personnes réelles apparaissent parfois dans ces images.
L’arrivée des intelligences artificielles génératives a bouleversé de nombreux domaines — de l’écriture, avec notamment ChatGPT, à l’art ou à la photographie, comme avec Midjourney. Mais il y a également des secteurs plus sombres que l’IA est en train de radicalement changer — et c’est exactement ce qu’il s’est passé avec les images pédopornographiques.
Depuis la fin d’année 2022 et la démocratisation de ces technologies, de nombreux experts s’alarment de l’utilisation de ces outils par des pédocriminels. D’après une étude menée par l’association Internet Watch Foundation (IWF) parue le 25 octobre 2023, leurs craintes s’avèrent justifiées : les images pédopornographiques réalisées par IA pullulent sur certains forums.
« Des milliers d’images générées par l’IA montrant des enfants, dont certains ont moins de deux ans, soumis aux pires formes d’abus sexuels ont été découvertes », prévient l’IWF. Mais d’autres photos, toutes aussi effrayantes et créées par IA, vont bientôt présenter un nouveau problème : les images créées à partir de véritables personnes.
Des images de viol créées par IA
Pour réaliser son enquête, l’IWF a ausculté pendant un mois un forum du dark web et les images partagées dessus.
Crédits photos de l'image de une : L'intelligence artificielle est utilisée pour créer des images pédopornographique // Source : Numerama