Facebook est « meilleur à bloquer la nudité que le racisme »

0

Faire disparaître les remarques racistes, sexistes ou haineuses sur Facebook est plus complexe qu’éliminer d’autres genres de publications inacceptables, puisque les programmes informatiques éprouvent encore des problèmes à évaluer les nuances des langues humaines, a indiqué mardi le réseau social.

Comme l’indique l’Associated Press, Facebook a également publié des statistiques permettant de quantifier l’ampleur prise par les faux comptes à travers l’ensemble de son réseau, et ce malgré une politique en place depuis belle lurette obligeant les gens à créer des comptes en utilisant leur vrai nom.

D’octobre à décembre 2017 seulement, Facebook  a désactivé près de 1,3 milliard de comptes – et cela ne tient pas compte de toutes les occasions où la compagnie a bloqué des faux comptes avant même qu’ils ne soient créés.

Si l’entreprise n’avait pas agi de la sorte, son public mensuel aurait largement dépassé le 2,2 milliard actuel, et tout cela aurait probablement mené à la création de davantage de contenus potentiellement offensants au sein desquels Facebook aurait dû faire le ménage.

L’auto-évaluation de Facebook a démontré que ses filtres étaient bien meilleurs à bloquer les images violentes, la nudité gratuite et la propagande terroriste. Les outils automatiques ont détecté de 86 à 99,5% des violations des conditions d’utilisation recensées dans ces catégories.

En ce qui concerne les discours haineux, les réviseurs humains et les algorithmes n’ont identifié que 38% des violations. Les autres détections sont survenues après que les utilisateurs eurent manuellement identifié les contenus problématiques.

Au total, Facebook a agi en lien avec près de 1,6 milliard de contenus pendant la période de six mois ayant pris fin en mars dernier, soit une toute petite fraction de l’ensemble des activités survenues sur son réseau, mentionne l’entreprise.

Le rapport représente la première description détaillée de Facebook sur les contenus retirés pour violation des conditions d’utilisation. La compagnie n’a pas donné d’informations sur le délai nécessaire pour effacer ces contenus. Impossible, non plus, de savoir combien d’images, de statuts, de vidéos et de liens ont échappé aux filtres.

« Même s’ils effacent 100 millions de messages offensants, il y en aura un ou deux qui sont vraiment choquants, et ce seront ceux dont tout le monde finira de parler sur les chaînes d’information », estime Timothy Carone, qui enseigne dans le domaine technologique à l’Université Notre-Dame.

Fausses nouvelles, faux comptes

Le rapport ne fournit pas non plus d’informations sur la façon dont Facebook s’attaque à un autre problème frustrant, soit la prolifération de fausses nouvelles créées par des agents russes et d’autres individus tentant d’influencer des élections et des populations.

Les faux comptes sur Facebook attirent davantage l’attention puisque des agents russes s’en sont servi pour acheter des publicités et tenter d’influer sur la présidentielle américaine de 2016.

Même si la compagnie se concentre sur le blocage des faux comptes, Facebook a précisé que de 3 à 4% de ses utilisateurs actifs sur une base mensuelle sont faux. Cela signifie que jusqu’à 88 millions de faux comptes réussissent tout de même à échapper à la censure, et ce jusqu’en mars.

Il n’est pas surprenant que les systèmes automatisés de Facebook éprouvent d’importantes difficultés à déterminer la différence entre une opinion permise et un langage qui va trop loin, a souligné M. Carone.

« C’est comme essayer d’établir la différence entre crier « Au feu! » dans une salle bondée quand il n’y a pas de flammes et dire quelque chose qui provoque le malaise mais qui est protégé par les dispositions sur la liberté d’expression. »

Facebook dit avoir fait disparaître 2,5 millions de contenus jugés inacceptables et tenant du discours haineux pendant les trois premiers mois de l’année, en hausse par rapport à 1,6 million pendant le trimestre précédent. L’entreprise invoque de meilleurs outils de détection, même si elle reconnaît que ses programmes informatiques ont de la difficulté à comprendre les contextes et les tons du langage.

Durant les trois premiers mois de l’année, Facebook a effacé 3,4 millions de contenus visuellement violents, soit près du triple du 1,2 million enregistré durant les trois mois précédents. Dans ce cas, de meilleurs outils ne sont pas le seul facteur; selon le réseau social, les utilisateurs publiaient plus agressivement des images de violences provenant d’endroits comme la Syrie.

Cette transparence renouvelée survient alors que l’entreprise tente de faire amende honorable à la suite d’un scandale de protection de la vie privée provoqué par des politiques laxistes qui ont permis à une compagnie de siphonnage de données ayant des liens avec la campagne présidentielle de Donald Trump de récolter les informations personnelles d’un maximum de 87 millions de personnes. Le tri du contenu n’a toutefois rien à voir avec la protection de la vie privée, et cherche plutôt à maintenir une ambiance « familiale » pour les utilisateurs et les annonceurs.


En complément:

L’Europe incapable de s’entendre sur la taxation de Google, Apple, Facebook et Amazon

Partagez

À propos du journaliste

Pieuvre.ca