"On peut créer aujourd'hui un deepfake avec juste une photo et une vidéo"

La détection de deepfakes est en train de devenir un champ de recherche à part entière. Le contexte s'y prête : les techniques de création sont de plus en plus simples, ouvrant le champ des manipulations possibles. Interview avec Jean-Luc Dugelay, chercheur à Eurecom, école d'ingénieurs de l'Institut Mines Telecom.

C’est une vidéo scindée en deux. A gauche, le président de la République Emmanuel Macron. A droite, le premier ministre Jean Castex. La musique démarre, les deux hommes se concentrent. Et les voilà qui entonnent le célébrissime tube des Buggles, « Video killed the radio star » (1979).

C’est visible à l’œil nu (sans parler de la situation elle-même) : cette séquence est un faux. Plus exactement un deepfake, une vidéo artificielle générée avec une méthode de l’apprentissage profond (deep learning) appelée réseau génératif antagoniste (GAN). Mais le plus inquiétant est ailleurs, comme le signale Jean-Luc Dugelay, enseignant chercheur en traitement de l’image et en sécurité numérique à Eurecom à Sophia-Antipolis, travaillant sur la détection de deepfakes : ce montage n’a nécessité qu’une photo de chacun des deux dirigeants et une vidéo d'un comédien , ses postures et expressions faciales étant transposées automatiquement dans les vidéos. Il y a encore peu de temps, il aurait fallu beaucoup plus de données pour arriver à ce résultat.

Tout le monde craint l’apparition d’opérations destinées à tromper les foules

Apparus en 2018 pour des usages pornographiques, les deepfakes ont depuis essentiellement donné lieu à des parodies, des blagues, des clins d’œil. Mais tout le monde craint l’apparition d’opérations destinées à tromper les foules. Pire : en cette époque de visioconférence et de réunions à distance pour cause de pandémie, les deepfakes peuvent donner une nouvelle envergure à l’usurpation d’identité. D’où nombre de travaux académiques portant sur leur détection, comme ceux d’une équipe de l’université de Buffalo (Etats-Unis) qui seront présentés en juin, à Toronto (Canada), lors de l’International Conference on Acoustics, Speech and Signal Processing et consistant à analyser les reflets de lumière sur les iris des yeux. Dans un domaine qui a beaucoup évolué en peu de temps, Jean-Luc Dugelay fait le point et sonne l’alarme.

Sciences et Avenir: La détection de deepfak[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi