Deepfakes de Taylor Swift : Microsoft corrige le bug

Il y a quelques jours, des montages générés par intelligence artificielle à caractère pornographique de Taylor Swift ont circulé sur Internet.  - Credit:WOLFGANG RATTAY / X00227 / REUTERS
Il y a quelques jours, des montages générés par intelligence artificielle à caractère pornographique de Taylor Swift ont circulé sur Internet. - Credit:WOLFGANG RATTAY / X00227 / REUTERS

L'affaire a provoqué l'ire des fans de Taylor Swift. Il y a quelques jours, des montages générés par intelligence artificielle à caractère pornographique de la chanteuse ont circulé sur Internet, notamment sur X (ex-Twitter) où une fausse vidéo est restée pendant dix-sept heures avant d'être supprimée. Alors que le média américain 404 a révélé que ces images ont été créées grâce à Designer, le générateur d'images par IA de Microsoft, ce dernier annonce avoir corrigé le bug, rapporte BFMTV.

Le géant de la tech a en effet déclaré avoir renforcé les mécanismes de protection de son logiciel, avec l'objectif de rendre plus compliquée la génération d'images qui intègrent le visage d'une personnalité. Microsoft empêche déjà de générer des images avec des prompts – les instructions demandées à l'intelligence artificielle – avec des phrases telles que « Taylor Swift nue », rappelle BFMTV.

« Le développement de garde-fous »

Mais les auteurs de ces deepfakes (photos ou vidéos modifiées grâce à l'intelligence artificielle) sont donc parvenus à contourner cette règle. Comment ? En modifiant légèrement l'orthographe de la personnalité, et sans utiliser de termes sexuellement explicites. Jeudi 1er février, 404 a donc révélé que Microsoft avait rectifié cette faille.

À LIRE AUSSI Brad Smith : « Les humains doivent rester aux commandes de l'intelligence artificielle »

« Nous avons de grandes équipes qui travaillent sur le développement de garde-fous et d'autres systèmes de sécu [...] Lire la suite