Pendant que la désinformation prenait de l’ampleur, en ligne, durant la pandémie de COVID-19, plusieurs plateformes ont annoncé des politiques et des pratiques visant à combattre cette dissémination de fausses nouvelles. Cela a-t-il fonctionné? Selon une nouvelle étude publiée dans Science Advances, les politiques de Facebook contre la désinformation à propos de la vaccination n’a simplement pas été efficace.
Les travaux en question, menés par des chercheurs de l’Université George Washington, ont ainsi permis de constater que les efforts de Facebook ont été grevés par les fonctionnalités centrales de la plateforme elle-même.
« On accorde beaucoup d’attention à la gouvernance des médias sociaux et de l’intelligence artificielle, aujourd’hui. Cependant, cette discussion se concentre largement sur les contenus ou les algorithmes. Pour s’attaquer efficacement à la désinformation et aux autres menaces numériques, nous devons aller au-delà de ces deux aspects pour nous intéresser également à la conception et à l’architecture », juge David Broniatowski, le principal auteur de l’étude.
« Nos résultats démontrent que le fait de retirer des contenus ou de modifier des algorithmes peut s’avérer inefficace si cela ne change pas ce que la plateforme a été conçue pour faire, c’est-à-dire permettre à des membres d’une communauté de prendre contact entre eux en lien avec des intérêts communs – dans ce cas-ci, l’hésitation vaccinale – et trouver des informations qu’ils souhaitent trouver. »
Facebook est justement conçu pour construire des communautés autour des centres d’intérêt des utilisateurs. Pour y parvenir, la plateforme utilise plusieurs fonctionnalités liées à son architecture, notamment des pages qui font la promotion de marques et de célébrités, ce qui permet à un groupe d’influenceurs relativement petit d’atteindre de grands auditoires.
Ces influenceurs peuvent ensuite créer des groupes expressément conçus pour bâtir des communautés, où les membres peuvent échanger des informations, y compris des façons d’accéder à de la désinformation où à d’autres contenus intéressants qui ne se trouvent pas sur la plateforme.
Les membres de ces groupes, et plus particulièrement les administrateurs des groupes (qui sont bien souvent des créateurs de pages), peuvent alors utiliser les algorithmes du fil de nouvelles de Facebook pour s’assurer que ces informations sont disponibles pour les gens qui souhaitent les voir.
Un engagement en hausse, malgré tout
Les chercheurs ont ainsi constaté que si Facebook a consacré des efforts importants à faire disparaître un grand nombre de contenus antivaccins pendant la pandémie, l’engagement avec ce même contenu antivaccin n’a pas diminué au-delà des tendances précédentes. Et, dans certains cas, l’engagement a plutôt augmenté.
« Cette constatation, soit le fait que les gens étaient toujours autant portés à interagir avec de la désinformation sur les vaccins avant et après les vastes démarches de Facebook pour faire disparaître les contenus mensongers, est particulièrement inquiétant. Cela démontre la difficulté à laquelle nous faisons face, en tant que société, pour en finir avec les fausses nouvelles en matière de santé, dans nos espaces publics », soutient Lorien Abroms, lui aussi l’un des auteurs de l’étude.
Au sein des contenus qui n’étaient pas effacés, on retrouvait un nombre croissant de liens redirigeant vers d’autres sites, c’est-à-dire des sites peu fiables, ainsi que des liens vers des médias sociaux spécialisés en désinformation, comme Gab et Rumble, particulièrement au sein des groupes antivaccins.
Par ailleurs, les auteurs des travaux précisent que les contenus antivaccins demeurés sur Facebook sont devenus encore plus mensongers, en mettant de l’avant des affirmations sensationnalistes à propos des effets secondaires des vaccins qui étaient bien souvent trop récentes pour être vérifiées en temps réel.
On a aussi noté l’existence de « dommages collatéraux », écrivent les chercheurs, puisque des contenus pro-vaccins peuvent avoir été effacés en vertu des politiques de la plateforme, et que, dans l’ensemble, les contenus liés aux vaccins sont devenus plus politiquement polarisés.
De plus, lit-on toujours dans l’étude, les producteurs de contenus antivaccins ont utilisé Facebook de façon plus efficace que les producteurs de contenus provaccins. Bien que les deux camps possédaient de vastes réseaux de pages, les premiers coordonnaient mieux la publication de contenus à travers les pages, les groupes et les fils de nouvelles des utilisateurs que les seconds.
Même lorsque Facebook a modifié ses algorithmes et effacé des contenus et bloqué des comptes pour combattre la désinformation vaccinale, les chercheurs affirment que l’architecture même de la plateforme a résisté.
« Voyez Facebook comme un bâtiment. Un aéroport est conçu pour diriger les voyageurs et faire en sorte qu’ils puissent aisément, et de façon sécuritaire, rejoindre des portes d’embarquement ou en revenir, et un stade est conçu pour rassembler des gens pour un concert ou un match. Si ces bâtiments n’étaient pas construits pour équilibrer les déplacements et le divertissement avec la santé et la sécurité, les gens pourraient régulièrement être blessés », mentionne le Pr Broniatowski.
« Imaginez maintenant la structure de Facebook de la même façon: elle est conçue pour permettre à des gens motivés de construire des communautés et échanger aisément des informations à propos de n’importe quel sujet. »
« Les personnes fortement motivées à trouver et partager des contenus antivaccins ne font donc qu’utiliser le système de la façon dont il a été conçu, ce qui vient compliquer le fait d’équilibrer ces comportements par rapport aux enjeux de santé publique ou de sécurité. Vous devez modifier l’architecture si vous souhaitez atteindre cet équilibre », ajoute le chercheur.
Les travaux de ce dernier porte à croire que les concepteurs des médias sociaux pourraient promouvoir la santé et la sécurité publiques en travaillant de concert pour mettre au point une série de « codes du bâtiment » pour leurs plateformes, codes qui seraient conçus en s’appuyant sur des preuves scientifiques, afin de réduire les impacts délétères en ligne.