L'inspection qui réduit le contenu sur Facebook a changé, la violence et le harcèlement ont augmenté

Meta a commencé à partager les effets de ses changements dans les politiques de contrôle du contenu à son entrée en 2025. Le rapport du premier trimestre publié après la décision de Mark Zuckerberg de remodeler la modération du contenu de la modération du contenu est apparue devant le public avec des statistiques remarquables. Selon les données contenues dans le rapport, le taux de contenu contenant de la violence, du harcèlement et de l'intimidation sur Facebook a augmenté, tandis qu'une diminution significative du nombre de contenu supprimée de la plate-forme a été vécue.

La société lance sa nouvelle approche comme «moins de pratique erronée VE et met l'accent sur la baisse des taux d'erreur. Selon Meta, une diminution de 50% des erreurs d'audit sur la plate-forme a été réalisée. Néanmoins, l'incidence du contenu qui viole les règles par les utilisateurs n'a pas changé dans de nombreux domaines.

Alors que la visibilité de l'intimidation et de la violence sur Facebook a augmenté, la levée du contenu a diminué

Selon les données de META, le taux de violence et le contenu graphique, qui était de 0,06% et 0,07% à la fin de 2024, est passé à 0,09% au premier trimestre de 2025. De même, la prévalence de l'intimidation et le contenu du harcèlement est passé à 0,07% à 0,0,08%. Cette augmentation est expliquée, en particulier avec une vague de violations en mars. Néanmoins, il est à noter que la société rend son approche d'audit générale plus lâche.

La diminution du nombre de levage de contenu a été le résultat le plus visible de la nouvelle approche de modération de Meta. Le nombre de contenus traités dans le cadre du discours de haine a été enregistré à 3,4 millions; Il s'agit du chiffre le plus bas depuis 2018. De même, les processus d'élimination du contenu des spams sont passés de 730 millions à 366 millions. La suppression des comptes contrefaits est passée de 1,4 milliard à 1 milliard.

En revanche, l'entreprise souligne fréquemment que les erreurs sous contrôle du contenu sont réduites. Cependant, il n'y a pas de métrique claire partagée avec le public sur la façon dont ces erreurs sont calculées. Meta déclare qu'il sera plus transparent à cet égard et offrira des données détaillées à l'avenir. Cela permettra aux utilisateurs de suivre de près la façon dont l'entreprise gère le contenu.

Un autre titre qui a attiré l'attention dans les politiques de Zuckerberg a été de mettre fin à la coopération avec les troisième vérificateurs par partie aux États-Unis. Au lieu de cela, il a intégré la fonctionnalité «Community Notes» développée par Meta, Facebook, Instagram et Threads. Cette fonctionnalité a commencé à être appliquée au contenu réel et aux commentaires au fil du temps. L'entreprise n'a pas encore fourni de données concrètes sur l'efficacité de ce nouveau système.

De plus, Meta continue de suivre un chemin différent en ce qui concerne les jeunes utilisateurs. La société maintient des approches proactives pour masquer certains types de contenu nocif pour les jeunes. En particulier, les actions contenant de l'intimidation sont incluses dans cette portée. Développé au cours des derniers mois, les «jeunes comptes» visent à faciliter le filtrage de ces contenus.

Les technologies d'intelligence artificielle sont désormais utilisées plus activement dans le cadre du contrôle du contenu. Les modèles de grande langue (LLM) développés par l'entreprise ont commencé à jouer sur des modérateurs humains dans certaines régions. Dans les cas avec des niveaux de confiance élevés, ces modèles peuvent supprimer directement un certain contenu de la séquence d'inspection. Cela rend les efforts de Meta pour rendre le contrôle du contenu de plus en plus automatiquement et plus rapidement.

Sur une plate-forme avec des milliards d'utilisateurs comme Facebook, même les petites augmentations de taux peuvent affecter des millions d'utilisateurs. Moins de contenu de l'entreprise signifie que les utilisateurs rencontrent plus de contenu qui viole les règles. Bien que les marchandises se vante de réduire les taux d'erreur, les effets négatifs de cette situation sur l'expérience utilisateur ont une controverse. Surtout le fait que le contenu contenant de la violence et du harcèlement devient plus visible soulève la question de la durabilité de ces politiques.