La société mère d'Instagram et de Facebook a annoncé mardi qu'elle n'utiliserait plus de système tiers de vérification des faits pour sa plateforme aux États-Unis. Au cours des prochains mois, Meta passera plutôt à un système de vérification des faits calqué sur le système Community Notes utilisé par X d'Elon Musk, anciennement connu sous le nom de Twitter. Les notes de communauté permettent aux utilisateurs d'ajouter du contexte aux publications potentiellement trompeuses.
De plus, la société a annoncé qu'elle assouplirait les restrictions sur le contenu traitant de certains sujets. La plateforme concentrera plutôt ses efforts d’application des règles sur les violations illégales et très graves de ses politiques de modération de contenu. Meta a déclaré que cela permettrait également au discours politique de se propager plus facilement sur ses plateformes.
Pourquoi Meta fait tout ça ? Meta a commencé à utiliser un système de vérification des faits tiers en 2016, mais a clairement indiqué qu'elle n'avait pas l'intention d'être l'arbitre de la vérité, a déclaré la société. La plateforme souhaitait faire appel à des experts indépendants pour utiliser leur compréhension de certains sujets afin de contrer les canulars viraux en ligne. Mais ces experts ont apporté leurs propres préjugés et perspectives dans leur travail, tout en signalant le contenu qui était, en fait, un discours légitime, a déclaré la société. Ce faisant, ils ont amené les systèmes automatisés de Meta à mal étiqueter le discours et à réduire sa diffusion.
Meta a déclaré avoir été témoin du succès de l'approche Community Notes utilisée par X. Une approche Community Notes permet à un ensemble diversifié d'utilisateurs de médias sociaux de fournir un contexte sur différentes déclarations, vidéos et photos, a déclaré Meta. En conséquence, les utilisateurs devraient disposer d'informations plus complètes et moins biaisées sur ce qu'ils voient, a déclaré la société.
Concernant son projet d'assouplir les restrictions sur certains discours, la société a admis qu'elle était auparavant allée trop loin dans la réglementation de certains contenus. L'entreprise a avoué qu'elle réglementait trop de contenu et qu'elle faisait preuve de rigueur dans l'application de ses règles. En décembre 2024, Meta a déclaré avoir supprimé environ 1 % du contenu total publié sur son site, ce qui représentait des millions de contenus quotidiennement. Et environ un contenu sur cinq ne violait pas les politiques de modération de contenu de l'entreprise, a admis l'entreprise.
Meta a déclaré qu'elle utilisait des systèmes automatisés pour rechercher toutes les violations de la politique. Mais se concentrer sur la moindre violation a entraîné trop d’erreurs et trop de censure, a déclaré l’entreprise. En tant que tel, Meta a déclaré qu'il allait désormais réorganiser ses systèmes automatisés pour rechercher uniquement les contenus illégaux et les violations de haut niveau de ses règles, a indiqué la société. Un tel contenu comprendrait du matériel d'abus sexuel sur des enfants, des escroqueries, du contenu lié au terrorisme et à la consommation de drogues.
Creusez plus profondément : Lisez le rapport de Lauren Canterberry dans The Sift sur la façon dont l'Union européenne a réprimé la plateforme de médias sociaux tendance Bluesky.