En annonçant mardi matin que Facebook mettait fin, aux États-Unis pour l’instant, au financement d’organismes voués à la vérification des faits, Mark Zuckerberg a braqué les projecteurs sur son désir de ne pas déplaire au nouveau président Trump. Mais il a aussi braqué les projecteurs sur le fait que, sur les réseaux sociaux, c’est depuis des années que la modération des contenus faux ou carrément toxiques est en recul.
Ainsi, sur Twitter, depuis son acquisition par Elon Musk en 2022, de multiples recherches ont montré une croissance accélérée des insultes et des menaces proférées contre des scientifiques, des médecins ou des climatologues, entre autres. En plus des messages racistes et des propos haineux qui sont devenus plus facilement viraux.
Les médias spécialisés dans la vérification des faits, visés par Mark Zuckerberg dans son message de mardi où il accusait ceux-ci de censure, ont promptement réagi pour rappeler qu’ils n’ont jamais eu le pouvoir de faire disparaître quoi que ce soit sur Facebook : c’est Facebook qui a tout pouvoir sur les étiquettes à apposer sur des messages (« faux » ou « trompeur ») de même que sur les impacts de ces étiquettes (réduction de la portée ou « démonétisation »). Au fil des années, signale le média américain Lead Stories, « nous avons souvent recommandé à Meta des changements dans la taille ou la formulation des étiquettes », sans succès. C’est en plus du fait que les ressources limitées des organismes de vérification des faits ne leur permettent de vérifier qu’une petite partie des informations douteuses, note le président de l’Institut Poynter, qui gère le média PolitiFact.
Avec cette annonce, « la bataille pour de la modération de contenus a finalement été perdue », écrit le 7 janvier le chroniqueur spécialisé en technologies du magazine scientifique New Scientist. C’est également la réaction du News Literacy Project, un organisme américain voué à l’éducation à l’information: « ce geste démontre que Meta a largement abandonné les efforts de modération qui rappellent aux gens ce que sont les faits et qui encouragent les gens à chercher des sources d’information crédibles, basées sur des normes ». Or, les usagers de Facebook « sont vulnérables à la manipulation par des acteurs malicieux faisant la promotion de sources non fiables et d’informations fabriquées spécialement pour exploiter nos biais cognitifs, incluant notre désir de confirmer nos idées préconçues et nos croyances ».
Les origines d’un partenariat avec Facebook
Cette « bataille » pour la modération des contenus sur les plateformes avait en partie pris naissance à la fin de 2016 avec l’électrochoc qu’avait représenté l’élection de Donald Trump. Pour la première fois, les plateformes avaient été obligées d’admettre que la prolifération de désinformation n’était pas quelque chose de marginal, comme elles le prétendaient jusqu’alors. C’est dans ce contexte que Facebook avait créé en décembre 2016 un programme de vérification des faits confié à des « tierces parties » — c’est-à-dire des médias qui seraient accrédités par un organisme indépendant, l’International Fact-Checking Network (IFCN), chargé de veiller à ce qu’ils signent un Code de principe: il s’agit d’un engagement à produire du contenu « non partisan » (note : Science-Presse est signataire de l’IFCN, mais n’a jamais reçu d’argent de Facebook).
Élargi dès 2017 à d’autres pays, le programme a permis l’émergence de plusieurs petits médias qui sont devenus, du coup, dépendants du financement de la multinationale américaine : un média reçoit des sous au prorata de vérifications qu’il peut produire.
Lorsqu’est arrivée la pandémie en 2020, l’ampleur de la menace a pu faire croire que les plateformes avaient pris acte de l’influence dangereuse qu’elles pouvaient avoir sur la santé publique : pour la première fois, elles avaient réagi d’un commun accord. Toute recherche Google contenant des mots-clefs comme « COVID » ou « vaccins » avait rapidement été coiffée de liens vers l’Organisation mondiale de la santé ou le ministère de la Santé du pays. Facebook et Twitter avaient mis en valeur ces liens. YouTube avait ajouté des bannières conduisant vers des sources crédibles, et surtout apolitiques.
Mais le fait qu’un contenu soit étlqueté « faux » ne signifiait pas qu’il disparaissait de l’espace public. Dès l’été 2020, une étude de l’Université McGill concluait que le niveau d’exposition aux réseaux sociaux encourageait les fausses croyances sur la COVID et diminuait l’adhésion aux mesures sanitaires. La volonté d’agir des plateformes semblait manquante: des reportages ont souvent pointé qu’il pouvait s’écouler des mois avant que des comptes signalés pour leurs propos haineux ne soient fermés. En 2021, on apprenait que la nouvelle sur la COVID la plus populaire sur Facebook pendant le premier trimestre avait été une fausse nouvelle. À l’automne 2021, les « Facebook Papers » —des dizaines de milliers de pages distribuées aux médias par une ex-employée, Frances Haugen— révélaient que les dirigeants de Facebook en savaient beaucoup plus qu’ils ne l’avaient publiquement admis sur les impacts nocifs des algorithmes —de leur influence sur les massacres au Myanmar jusqu’à l’aide à l’émergence de QAnon et des groupes antivaccins.
Selon une enquête effectuée en 2023 dans 54 pays auprès de 300 universitaires spécialistes de la désinformation, les deux tiers considéraient que « l’incapacité à rendre redevables les compagnies de médias sociaux » quant à leur inaction contre la désinformation et les propos haineux, allait poser tôt ou tard un problème encore plus sérieux. Une des préoccupations était que des politiciens de pays démocratiques se mettent à « emprunter » les stratégies de communication de ceux des régimes autoritaires, considérant le succès que leur apportaient les algorithmes.
Dans son annonce du 7 janvier, Mark Zuckerberg a prétendu que le programme des tierces parties serait remplacé par un programme de « notes de la communauté » — des notes rédigées par les usagers eux-mêmes — comme il en existe un sur Twitter depuis 2021.
Or, leur efficacité reste à démontrer : selon une étude parue en novembre dernier, l’arrivée de ces notes sur Twitter (aujourd’hui X) n’a pas réduit « l’engagement » envers la désinformation. Le système est décrit par les chercheurs comme trop lent: il faut qu’un nombre indéterminé de participants ait approuvé une note pour qu’elle soit affichée sur un message, ce qui peut prendre des jours, moment où les lecteurs de ce message sont depuis longtemps passés à autre chose. Par ailleurs, pour savoir qu’un message est vrai ou faux, il faut faire une recherche de quelques heures, ce que peuvent se permettre des journalistes rémunérés, mais pas des citoyens bénévoles. Dans un article publié en décembre, le site de vérification des faits Science Feedback écrivait que 69% des 900 messages sur X qui avaient été identifiés comme faux ou trompeurs pour les fins de cette recherche, n’avaient aucune note de la communauté.
Un débat sur la modération à suivre en Europe ?
En 2025, le débat sur la modération va peut-être se transporter en Europe. Un des aspects de la loi européenne sur le numérique adoptée en 2023 (Digital Services Act), est qu’elle oblige les grandes plateformes à être plus transparentes quant à leurs systèmes de recommandation de contenus —en d’autres termes, leurs algorithmes. La loi oblige notamment les plateformes à mettre en place un système de signalement des contenus problématiques. C’est dans ce contexte que la Commission européenne a annoncé en décembre 2023 une enquête sur X, pour des manquements présumés aux règles européennes en matière de modération des contenus et de transparence.