Face aux critiques, Facebook se félicite d'une meilleure modération de ses contenus

·1 min de lecture

C'est un rapport publié tous les trimestres. Mais la publication de sa dernière édition intervient en pleine tourmente politique et médiatique pour le groupe Meta (Facebook, Messenger, Instagram, WhatsApp), notamment depuis les révélations des Facebook Files dans de nombreux médias et le témoignage de la lanceuse d'alerte Frances Haugen. Cette ancienne employée de Facebook accuse le groupe de privilégier le profit, plutôt que le combat contre la haine en ligne et contre la désinformation. Elle est auditionnée mercredi par l'Assemblée national et le Sénat français.

>> Retrouvez les journaux des médias tous les matins à 9h10 sur Europe 1 ainsi qu’en replay et en podcast ici

Trois messages haineux sur 10.000

Que dit ce rapport sur la modération des contenus ? D'après Meta, les chiffres s'améliorent. En trois mois, 1,8 milliard de faux comptes auraient été supprimés. 777 millions de spams et plus de 22 millions de messages haineux l'auraient également été. L'entreprise dit réussir à détecter automatiquement sur Instagram et Facebook presque tous les contenus liés à la nudité, au harcèlement ou à l'apologie du terrorisme, sans qu'un signalement d'utilisateur ne soit nécessaire. 

Meta affirme également que les utilisateurs sont moins exposés aux contenus haineux : seuls trois messages sur 10.000 vus par les utilisateurs seraient qualifié ainsi. Un chiffre en baisse. A noter que ces chiffres sont une moyenne à l'échelle mondiale. Or, les Facebook Files ont montré qu'il y a de ...


Lire la suite sur Europe1

Notre objectif est de créer un endroit sûr et engageant pour que les utilisateurs communiquent entre eux en fonction de leurs centres d’intérêt et de leurs passions. Afin d'améliorer l’expérience dans notre communauté, nous suspendons temporairement les commentaires d'articles