Pourquoi la fin du fact-checking sur Facebook inquiète les spécialistes de la lutte contre la désinformation ?
Le groupe Meta, propriétaire notamment de Facebook, a annoncé mettre fin à son programme de fact-checking aux États-Unis, destiné à modérer les contenus mensongers. Cela marque un recul important de la politique de modération du réseau social. On fait le point.
C’est une annonce qui inquiète les spécialistes de la lutte contre la désinformation. Le groupe Meta, qui possède Facebook, Instagram et WhatsApp, a annoncé mardi qu’il va mettre fin à son programme de fact-checking aux États-Unis, destiné à modérer les contenus mensongers. « Pour le moment », la France n’est pas concernée par cette décision, assure la ministre française chargée du Numérique. Paris, toutefois, « exprime son inquiétude » et assure qu’elle sera « vigilante » sur le respect par le groupe de la législation européenne.
Le patron de Meta, Mark Zuckerberg, a pris cette décision au nom de la liberté d’expression, assure-t-il. Cette annonce intervient alors qu’aux États-Unis, les partisans du futur président Donald Trump ainsi que le propriétaire du réseau social concurrent X, Elon Musk, se sont plaints à de multiples reprises des programmes de fact-checking, qu’ils assimilaient à un outil de censure. Ce revirement de Mark Zuckerberg est donc perçu comme une volonté de plaire à Donald Trump, qui a assuré qu’il avait « probablement » influencé cette décision. Meta et Facebook « ont fait beaucoup de progrès », a jugé le président élu républicain.
Cela marque surtout un recul majeur de la politique de modération des contenus sur Facebook, selon des spécialistes de la lutte contre la désinformation. On vous explique les enjeux de ce changement de stratégie politique du groupe Meta, qui totalise près de quatre milliards d’utilisateurs dans le monde.
La fin du programme de fact-checking
« Nous allons nous débarrasser des fact-checkers et les remplacer par des notes de la communauté, similaires à X (anciennement Twitter), en commençant par les États-Unis », a déclaré mardi le patron du groupe, Mark Zuckerberg. Selon lui, « les vérificateurs ont été trop orientés politiquement et ont plus participé à réduire la confiance qu’ils ne l’ont améliorée, en particulier aux États-Unis ». « Les récentes élections [américaines] semblent être un point de bascule culturel donnant, de nouveau, la priorité à la liberté d’expression », a estimé le patron de Meta.
Dans le même temps, le groupe prévoit de revoir et « simplifier » ses règles concernant les contenus sur l’ensemble de ses plateformes et « mettre fin à un certain nombre de limites concernant des sujets, tels que l’immigration et le genre, qui ne sont plus dans les discours dominants ».
Aujourd’hui, Facebook dispose d’un programme de fact-checking dans plus de 26 langues, qui rémunère plus de 80 médias à travers le monde, dont l’AFP. Ces derniers produisent des articles de vérification (« fact-checks »), que Meta utilise sur ses plateformes contre rémunération. Ces partenaires doivent être certifiés par le Réseau international de fact-checking (IFCN), qui vérifie régulièrement qu’ils respectent certaines règles, en particulier de qualité éditoriale, de neutralité et d’indépendance.
Avec leur travail, les contenus considérés comme « faux » sont relégués dans les flux d’information de façon à ce que moins de personnes les voient et que si l’une d’entre elles essaie de partager un tel message avec d’autres utilisateurs, ces derniers reçoivent un article expliquant pourquoi il est trompeur. Il ne s’agit en aucun cas d’un outil de contrôle ou de limitation de la liberté d’expression, plaide Aaron Sharockman, qui dirige le site PolitiFact, mais bien de fournir « du contexte et du contenu supplémentaires à des messages dont des journalistes pensaient qu’ils contenaient des fausses nouvelles ».
La France « pour le moment » pas concernée
La diplomatie française a exprimé mercredi son « inquiétude » face à la décision de Meta et a assuré qu’elle sera « vigilante » sur le respect par le groupe de la législation européenne. « La liberté d’expression, droit fondamental protégé en France et en Europe, ne saurait être confondue avec un droit à la viralité qui autoriserait la diffusion de contenus inauthentiques touchant des millions d’utilisateurs sans filtre ni modération », a affirmé le porte-parole de la diplomatie française dans une déclaration.
La veille, la ministre française chargée du Numérique, Clara Chappaz, avait indiqué avoir reçu de la branche française de Meta l’assurance que la fin du fact-checking ne concernait que les États-Unis « pour le moment ». Ce vendredi, elle assure sur franceinfo que « Meta a indiqué qu’il avait bien l’intention de suivre nos règles et qu’il ne les remet pas en question ». « Ça ne va rien changer » pour les utilisateurs français, explique-t-elle, rappelant qu’il existe en Europe « une des réglementations (le Digital Service Act) les plus ambitieuses en matière de sécurisation de l’espace numérique et en particulier du contenu de ces plateformes ».
Mais les nouvelles réglementations européennes sont justement dénoncées par Mark Zuckerberg : « Le nombre de lois institutionnalisant la censure [dans l’UE] ne cesse d’augmenter et il est difficile d’y construire quoi que ce soit d’innovant », a affirmé le dirigeant de Meta, reprenant une accusation d’Elon Musk et des mouvements d’extrême droite. « Nous réfutons absolument toute allégation de censure de notre part », a rétorqué une porte-parole de la Commission européenne, Paula Pinho.
Un geste politique en direction de Donald Trump
La décision de Meta est un revirement de situation très important, Facebook ayant été à la pointe de la lutte contre la désinformation dès 2016, première élection de Donald Trump. L’annonce du groupe est aujourd’hui perçue comme un geste politique de Mark Zuckerberg pour apaiser ses relations avec le futur président, qui entrera en fonction le 20 janvier. Le candidat républicain s’était montré particulièrement critique à l’encontre de Meta et de son patron ces dernières années, accusant l’entreprise de parti pris et de soutenir les discours progressistes. Donald Trump avait même été suspendu de Facebook après l’attaque du Capitole, le 6 janvier 2021, puis son compte avait été réactivé début 2023.
Autre geste à destination des conservateurs, Meta a nommé plusieurs proches de Trump au sein de son administration et veut déplacer ses équipes « confiance et sécurité » de la Californie, généralement plus progressiste, vers le Texas, État plus conservateur. « Cela nous aidera à renforcer la confiance nécessaire pour faire le travail en ayant moins d’inquiétude quant aux partis pris présents parmi nos équipes », a justifié Mark Zuckerberg.
Les notes de contexte, une alternative critiquée
Meta propose de remplacer son programme de fact-checking par un système de notes de contexte, semblable à celui qu’utilise X. Il s’agit d’un outil de modération collective des contenus. Les notes sont rédigées par des utilisateurs volontaires, qui apportent du contexte au sujet de certaines publications potentiellement trompeuses. Ensuite, « d’autres utilisateurs vont évaluer si la note est utile ou pas, selon différents critères, notamment la pertinence des sources et la clarté de l’information », précise à l’AFP Lionel Kaplan, président de l’agence de création de contenus sur les réseaux sociaux Dicenda. « S’il y a suffisamment d’évaluations positives de la note, celle-ci va apparaître sous le tweet pour donner des informations complémentaires », poursuit-il.
Meta estime qu’il s’agit d’un système « moins biaisé » que le fact-checking. Mais avec les notes, « le problème est de faire reposer la vérification sur la foule », souligne Christine Balagué, professeure à l’Institut Mines-Télécom et fondatrice du réseau de recherche « Good in Tech » qui travaille sur la désinformation. « La foule peut dire quelque chose de juste, mais il peut aussi y avoir des gens malveillants qui sont là pour diffuser et propager de la désinformation », relève-t-elle.
Les spécialistes de la lutte contre la désinformation médusées
Pour les spécialistes du sujet, la décision de Meta est « un recul majeur de la politique de modération des contenus, à un moment où la désinformation et les contenus dangereux changent plus rapidement que jamais », s’inquiète Ross Burley, cofondateur du Centre for Information Resilience, un réseau d’enquêteurs indépendants basé au Royaume-Uni. « Les efforts pour protéger la liberté d’expression sont essentiels mais reculer sur le fact-checking sans alternative crédible ouvre la porte à un flot de contenus encore plus dangereux », insiste-t-il. Selon lui, la décision de Meta « semble être plus une mesure d’apaisement politique qu’une bonne décision stratégique ».
« Si vos toilettes fuyaient, vous ne compteriez pas sur le premier quidam venu pour les réparer », relève Michael Wagner, de l’école de journalisme de l’université du Wisconsin à Madison. Avec les notes de contexte, « c’est pourtant ce que Meta va faire pour lutter contre la désinformation ».
« Si Meta décide d’arrêter le programme dans le monde entier, il est presque certain qu’il en résultera un préjudice réel dans de nombreux endroits », a estimé le réseau international de vérification des informations IFCN (International Fact-Checking Network), qui regroupe plus de 130 organisations. Parmi les plus de cent pays doté d’un programme similaire, certains sont « très vulnérables à la désinformation », ajoute l’IFCN.