Intelligence artificielle : comment repérer les fausses photos ?
Comment ne pas se faire abuser ? Comme le rapporte Le Parisien, l'intelligence artificielle est de plus en plus performante, elle peut désormais générer des photos d'un réalisme bluffant. Midjourney, Dall-E et Stable Diffusion sont les outils les plus aboutis dans la création de fausses images. Ces logiciels apprennent à générer des photos à partir d'une immense banque de données, permettant de créer toute sorte de situations avec n'importe quelle personne célèbre. En cette période de tension sociale, ces images ultraréalistes sèment la confusion. Mais l'IA n'est pas parfaite et il existe plusieurs techniques pour détecter un cliché généré par ces sites. Voici une petite liste pour ne plus se faire duper.
À LIRE AUSSIIntelligence artificielle : les chercheurs poussent un cri d'alerte
Des détails approximatifs
La peau est assez difficile à copier. Par conséquent, si l'intelligence artificielle se trompe dans les nuances de couleur et de contraste sur les photos qu'elle crée, les sujets peuvent donner l'impression d'être faits en plastique, comme dans un jeu vidéo ou un film de synthèse. Les détails sont souvent approximatifs. On peut retrouver régulièrement des asymétries : visage disproportionné, oreilles à des hauteurs différentes… Les dents et les cheveux sont également compliqués à imiter.
��Vous avez sans doute vu passer l'image sur Twitter du pape en doudoune : c'est une fausse image conçue par Midjourney ! La V5 devient incroyable, et les fausses info [...] Lire la suite