Quand un algorithme est plus efficace qu’un humain contre les fausses nouvelles

0

Un système s’appuyant sur un algorithme qui identifie des indices linguistiques dans les fausses nouvelles pourrait servir de nouvelles armes dans la lutte contre la désinformation.

Les chercheurs de l’Université du Michigan qui ont mis au point le système en question ont démontré qu’il était comparable, voire parfois meilleur que les humains pour identifier les faux articles.

Au cours d’une récente étude, l’algorithme a correctement identifié les fausses nouvelles jusqu’à 76% du temps, comparativement à un taux de réussite de 70% pour les humains. De plus, leur approche s’appuyant sur l’analyse linguistique pourrait être employée pour identifier des fausses nouvelles qui sont trop récentes pour être démasquées en comparant leurs faits à d’autres articles.

Rada Mihalcea, la professeure d’informatique et de génie responsable du projet, affirme qu’une solution automatisée pourrait être un outil important pour les sites qui peinent à gérer une vague de fausses nouvelles, souvent créées pour générer des clics ou pour manipuler l’opinion publique.

Bloquer les fausses nouvelles avant qu’elles n’aient de véritables conséquences peut être difficile, puisque les agrégateurs et les médias sociaux s’appuient largement sur des responsables humains qui ne peuvent souvent pas suivre le rythme de l’actualité. De plus, les techniques actuelles dépendent souvent sur une vérification externe des faits, ce qui peut être difficile avec les plus récents articles. Souvent, lorsqu’une fausse nouvelle est démasquée, il est déjà trop tard, et le mal est fait.

Analyser la langue

L’analyse linguistique adopte une approche différente, en analysant des attributs quantifiables tels que la structure grammaticale, le choix des mots, la ponctuation et la complexité. Cela permet d’aller plus vite que des humains et peut être employé avec divers genres de nouvelles.

« Vous pouvez imaginer toute sortes d’utilités pour cet algorithme, que ce soit à l’avant-plan ou en coulisses d’un média ou d’un réseau social », mentionne Mme Mihalcea. « Cela pourrait permettre d’offrir aux internautes un estimé de la légitimité des nouvelles sur l’ensemble d’un site médiatique. Ou il pourrait s’agir de la première ligne de défense sur un site internet, lançant des alertes à propos d’articles douteux pour que ceux-ci soient examinés plus avant. Un taux de succès de 76% laisse encore une grande marge d’erreur, mais cela peut néanmoins offrir des informations importantes lorsque la méthode est employée en plus de la vérification humaine. »

La difficulté, pour l’équipe de recherche, fut de trouver suffisamment de données pour « entraîner » l’algorithme.

Ultimement, l’équipe de l’université a créé ses propres informations, demandant à des gens de réécrire des articles véridiques pour les rendre faux. Voilà d’ailleurs comment une bonne partie des fausses nouvelles sont créées, affirme Mme Mihalcea, soit par des individus qui écrivent rapidement des textes en étant payés à la pièce.

Les détails du nouveau système et les données employées pour « entraîner » l’algorithme sont offertes au public, et Mme Mihalcea affirme que ces informations pourraient être utilisées par des médias en ligne et d’autres entités pour développer leur propre système de détection des fausses nouvelles.


Autres contenus:

Baladodiffusion – Entretiens journalistiques, épisode 12: Julie Champagne, la passionnée flexible

Partagez

À propos du journaliste

Pieuvre.ca

Répondre