Selon la maison mère de Facebook, Instagram, Threads et WhatsApp, les « erreurs » de modération sur ses réseaux sociaux auraient été réduites de moitié au premier trimestre 2025. Les utilisateurs n’auraient pas été exposés à davantage de posts haineux après son changement de politique de modération, selon les chiffres exclusivement avancés par le groupe américain.
Moins de contenus retirés sur Facebook et Instagram, moins d’erreurs de modération, et pas plus de posts « problématiques » ou préjudiciables. Voilà comment Meta, la maison mère d’Instagram, de Facebook et de WhatsApp, présente son tout premier bilan de ses nouvelles règles de gestion des contenus faux, trompeurs ou illicites partagés sur ses plateformes. Le géant du numérique estime que sa nouvelle politique de modération, annoncée en janvier dernier, porte ses fruits, dans un rapport publié jeudi 29 mai sur son site.
Selon des chiffres avancés par Meta, ses utilisateurs auraient été exposés à un ou deux contenus haineux pour 10 000 posts consultés pendant les trois premiers mois de 2025, contre deux ou trois à la fin de l’année dernière. Dans « la plupart des domaines problématiques », la proportion de posts qui violent ses règles d’utilisation (comme les contenus haineux, de harcèlement, etc) « est restée largement inchangée », avance l’entreprise américaine.
Des erreurs de modération réduites de moitié, selon Meta
Cet état des lieux, en faveur de Meta, devrait surprendre les experts – ainsi que le Conseil de surveillance (« Oversight Board ») de la maison mère de Facebook en personne – qui craignaient de voir les messages haineux ou illicites se multiplier sur Instagram et Facebook, après le changement de braquet de Meta de janvier dernier. Cinq mois plus tôt, le groupe de Mark Zuckerberg expliquait confier la modération de Facebook et d’Instagram à ses utilisateurs, pour « restaurer la liberté d’expression » sur ses plateformes. Après le scandale de Cambridge Analytica de 2016, Facebook avait cherché à montrer patte blanche, en mettant en place un programme de vérification des faits, qui s’appuyait notamment sur des agences de presse. Jugé trop politiquement orienté, il a été remplacé aux États-Unis par des notes de la communauté, à l’image de ce qui existe sur X, la plateforme d’Elon Musk.
Dans ce nouveau système, les utilisateurs peuvent ajouter des notes ou des corrections aux contenus susceptibles de contenir des informations fausses ou trompeuses. En parallèle, Meta avait exclu de sa modération des sujets comme l’immigration, l’identité sexuelle et le genre. Ces changements permettent désormais aux utilisateurs d’Instagram et de Facebook de publier des posts jugés « haineux » par des défenseurs des droits de l’Homme – notamment à l’égard des immigrés ou des personnes qui s’identifient comme transgenres. Meta autorise ainsi les « allégations de maladie mentale ou d’anormalité lorsqu’elles sont fondées sur le genre ou l’orientation sexuelle », rappelle le média américain Wired.
Pour justifier ces changements, le fondateur du groupe, Mark Zuckerberg, soulignait que le système de vérification des faits de l’entreprise entraînait « trop d’erreurs et trop de censure ». Ces erreurs seraient aujourd’hui réduites de moitié, assure Meta dans son rapport, bien qu’aucune explication ne soit donnée sur la méthode de calcul de ce chiffre. Le géant américain promet toutefois que ses prochains rapports « incluront des mesures sur nos erreurs afin que les gens puissent suivre nos progrès ».
Que conclure de ce rapport émis par Meta, avec des chiffres fournis par.. Meta ?
Dans le détail, le rapport montre qu‘il y a eu les trois premiers mois de 2025 moins de suppressions de posts, par rapport aux périodes précédentes. Malgré cette diminution globale, Meta note deux catégories dans lesquelles la fréquence des cas problématiques a augmenté. Les cas d’intimidation et de harcèlement en ligne ont, eux, légèrement augmenté au premier trimestre 2025, par rapport aux trois derniers mois de 2024, passant de 6 vues sur 10 000 posts à 7 vues sur 10 000.
De même, le contenu violent, décrit comme « glorifiant la violence ou célébrant la souffrance ou l’humiliation d’autrui sur Facebook et Instagram », est passé de 6 à 7 vues sur 10 000 posts en 2025 à 9 vues sur 10 000, à la fin de 2024. Si ce rapport permet d’avoir un relatif aperçu de la situation après le changement de système de modération de Meta de janvier 2025, il reste un document émis par Meta – avec des chiffres exclusivement fournis par le géant américain, qui n’ont pas été vérifiés de manière indépendante par des organismes tiers.
Des chercheurs de la Northeastern University (Boston, États-Unis) ont d’ailleurs démontré que la modération faite sur les réseaux sociaux arrive souvent trop tard, les posts litigieux ayant déjà été vus par un nombre important d’utilisateurs avant d’être retirés. Une nouvelle étude publiée le 28 avril 2025 dans le Journal of Online Trust and Safety a étudié de près la modération sur Facebook en 2023 – une année au cours de laquelle la modération était plus sévère que le système actuel. Et selon ses auteurs, les posts supprimés pour violation des règles du réseau social avaient déjà atteint au moins les trois quarts de l’audience prévue, au moment de leurs suppressions.
Source: 01 net