Meta passe à une modération de contenu pilotée par les utilisateurs malgré les critiques des législateurs de l'UE

Meta a annoncé un changement significatif dans son approche de la modération de contenu, transférant la responsabilité aux utilisateurs. Cette décision, révélée par Mark Zuckerberg, s'aligne sur un modèle similaire à celui de X (anciennement Twitter), où les utilisateurs joueront désormais un rôle clé dans la vérification des informations sur des plateformes telles que Facebook et Instagram.

Auparavant, Meta s'appuyait sur plus de 90 organisations externes pour évaluer l'exactitude du contenu dans plus de 60 langues. Ce système de vérification professionnelle, en place depuis des années, sera démantelé.

Avec le nouveau modèle, les utilisateurs utiliseront les Notes Communautaires, une fonctionnalité qui leur permet de répondre aux publications et de corriger les désinformations de manière collaborative. Zuckerberg a déclaré que cette transition commencera aux États-Unis.

Cependant, ce mouvement soulève des inquiétudes quant à la responsabilité. Les critiques soutiennent que ce modèle place le fardeau de la vérité sur les utilisateurs, permettant potentiellement à la désinformation de persister si elle n'est pas abordée par la communauté.

Les législateurs de l'UE et du Royaume-Uni ont déjà exprimé leur désapprobation concernant la décision de Meta. Zuckerberg a décrit l'Europe comme une région de plus en plus alourdie par des lois qu'il considère comme de la censure, en faisant spécifiquement référence à la loi sur les services numériques, qui impose des réglementations plus strictes sur le contenu en ligne.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.