Visage trop stable, voix modifiée, ces preuves d’une manipulation russe avec l’IA

Un groupe lié au renseignement russe serait chargé de produire de fausses informations à partir d’outils basés sur l’intelligence artificielle (IA). Dans un rapport publié le 24 juin par la société de cybersécurité The Record, des chercheurs ont mis en évidence plusieurs exemples de campagnes de désinformation générées par IA et propulsées par une entité baptisée CopyCop.

Selon The Record, l’IA est utilisée pour générer des articles et des profils de journalistes. Les chercheurs ont trouvé plus de 1 000 profils d’auteurs distincts sur 120 nouveaux sites créés par CopyCop en mai.

Ces faux médias plagient des articles de nombreux titres légitimes et les détournent pour fustiger Joe Biden, l’Ukraine, les politiques dans les pays occidentaux. L’audience directe de ces contenus générés par IA est très faible, voire nulle, mais l’essentiel réside dans « l’amplification de ces infos par de comptes tenus par des personnes réelles sur les réseaux sociaux », constate les chercheurs.

Pour aller plus loin

Des comptes sur X ont utilisé ChatGPT pour produire automatiquement des messages de propagande. // Source : Numerama avec Midjourney
Des comptes sur X ont utilisé ChatGPT pour produire automatiquement des messages de propagande. // Source : Numerama avec Midjourney


Ces trolls russes se sont fait griller parce qu’ils ont oublié de payer ChatGPT

Des indices pour repérer une manipulation par l’IA

The Record prend l’exemple d’une fausse information générée par IA ciblant la France qui a rapidement été reprise par de nombreux comptes authentiques. En mai dernier,

[Lire la suite]

Crédits photos de l'image de une : L'analyse des images montrent qu'elles ont été détournée par l'IA. // Source : The Record