Nuca, l’appareil photo qui transforme tous les clichés en nudes
Il y a eu l’IA capable de rhabiller les femmes jugées trop peu couvertes par les masculinistes.
Il y a eu le nouvel outil d’IA de Photoshop, dont certains se servent pour déshabiller les autres.
Maintenant, il y a aussi une IA appareil photo capable de générer instantanément un “nude” (une photo d’un corps dénudé) à partir de n’importe quelle photographie, et ce en seulement dix secondes, raconte le site spécialisé sur la technologie 404 Media.
Nommée Nuca, cet appareil photo imprimé en 3D avec un objectif grand angle de 37 millimètres prend un cliché de vous, puis l’envoie à un serveur.
À l’aide d’un “classificateur”, il va analyser vos caractéristiques, comme votre sexe et votre âge, puis utiliser un système d’IA, fondé sur Stable Diffusion, pour transformer la photo originale en nu, détaille le quotidien suisse Le Temps.
La facilité d’utilisation de cette IA et l’authenticité des clichés peuvent faire peur, surtout lorsqu’on sait à quel point les deepfakes circulent vite et parfois sans régulation.
Mais rassurez-vous, pour l’heure, Nuca n’est pas destiné à la vente et restera au stade de projet artistique, assure la rubrique
High-Tech du site de la télévision belge RTBF.
Le site rappelle que le partage de nudes non consentis est puni par la loi, les sanctions allant d’une “amende de 15 000 euros” à “cinq ans d’emprisonnement” en Belgique.
En France, le fait de “partager sans consentement des contenus à caractère sexuel” est passible de deux ans de prison et de 60 000 euros d’amende.
Ses créateurs, les artistes berlinois Mathias Vef et Benedikt Gross, décrivent Nuca comme un “projet spéculatif de design et d’art”.
Ils disent vouloir alerter sur la désinformation en ligne, et en particulier sur les deepfakes pornographiques et la mode de la “nudification”, écrit Le Temps.
Ils affirment que la vidéo promotionnelle doit être prise comme “la satire d’une publicité pour un gadget de consommation réel”, précise la RTBF.
“La démarche est intéressante, car ce phénomène est massif”, estime Le Temps, qui rappelle qu’il existe déjà de nombreux “générateurs d’images pornographiques” et qu’ils sont de plus en plus réalistes, citant notamment celui dont a été victime la chanteuse Taylor Swift.
[...] Lire la suite sur Courrier international