Pieuvre.ca
    Facebook Twitter Instagram
    Pieuvre.ca
    0 Shopping Cart
    • Accueil
      • Notre équipe
      • La réplique
      • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
      • Votre semaine tentaculaire
      • Contactez-nous
    • Culturel
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Poésie
      • Musique
      • Théâtre / Cirque
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FNC
        • FTA
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2021
        • Maison-Blanche 2020
        • Élections fédérales 2019
      • Asie
      • Europe
        • Présidentielle française 2022
      • Moyen-Orient
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Rétroctopode
        • Jeux préférés de…
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
    • Boutique
    Pieuvre.ca
    Accueil»Technologie»Quand l’algorithme ne détecte pas les discours haineux
    Il semblerait que les contrôles de Facebook ne sont toujours pas au point pour bloquer des contenus haineux.

    Quand l’algorithme ne détecte pas les discours haineux

    0
    Par Agence Science-Presse le 15 juin 2022 Technologie

    La capacité de l’algorithme de Facebook à détecter les discours haineux a fait l’objet de deux nouvelles expériences, et l’algorithme a échoué chaque fois.

    On désigne ici par « algorithme » l’ensemble du codage informatique — gardé jalousement secret par la compagnie — qui détermine que tel contenu se retrouvera dans le fil d’informations d’une personne, mais pas d’une autre. C’est grâce à l’algorithme qu’un usager de Facebook est censé se retrouver, petit à petit, avec de plus en plus de contenus qui provoquent chez lui des émotions et l’incitent à revenir le plus souvent possible sur la plateforme ou à y rester le plus longtemps possible.

    Or, ce que les critiques prétendent depuis des années, c’est qu’il importe peu que ces contenus soient de fausses nouvelles, voire des messages carrément hostiles ou haineux: l’important serait « l’engagement » qu’ils suscitent —aimer, partager, commenter.

    Deux organismes à but non lucratif, Global Witness et Foxglove, ont donc testé l’algorithme de Facebook en créant à deux reprises des fausses publicités contenant des messages qui « déshumanisent » des minorités ethniques de l’Éthiopie et du Myanmar et contiennent des appels au meurtre. Ils ont choisi ces deux pays, parce qu’ils ont tous deux été nommés dans les documents de la lanceuse d’alerte Frances Haugen l’automne dernier: deux pays où Facebook aurait contribué à la propagation des discours haineux contre des minorités.

    Les publicités n’ont pas été publiées par les deux organismes (elles avaient été programmées pour une date future), mais elles ont été approuvées par le système de Facebook. Prévenue de la situation, la compagnie a admis que les publicités n’auraient pas dû être approuvées.

    « Nous avons choisi les pires cas que nous pouvions imaginer », a déclaré à l’Associated Press Rosie Sharpe, de Global Witness. « Ceux qui devaient être les plus faciles à détecter pour Facebook. Ils n’étaient pas en langage codé… Ils étaient des déclarations explicites disant que ce type de personne n’est pas un humain. »

    Dans la foulée des révélations de Frances Haugen, la plateforme a toujours refusé de dire combien de gens elle employait pour faire la modération dans des langues autres que l’anglais, ou dans des pays dont l’anglais n’est pas la première langue.

    Ne ratez aucun de nos contenus

    Encouragez Pieuvre.ca

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    30 juin 2022

    Limiter le droit à l’avortement à l’ère des technologies de surveillance

    27 juin 2022

    Le refroidissement passif, une arme efficace contre la chaleur

    20 juin 2022

    Recharger sa voiture… tout en roulant

    Agence Science-Presse
    • Site web
    • Twitter

    Répondre Annuler la réponse

    Abonnez-vous à l’infolettre!
    Visitez notre boutique
    Vous cherchez un contenu?
    Suivez-nous
    Dossiers spéciaux
    • Vues d’Afrique
    • Présidentielle française 2022
    • 45 ans du Stade olympique
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    Récemment publié
    1 juillet 2022

    Désinformation et élections : la France évite le pire

    1 juillet 2022

    Les robots poussent les travailleurs à consommer de la drogue et provoquent des troubles mentaux

    30 juin 2022

    Suivi à long terme pour les bébés génétiquement modifiés

    30 juin 2022

    Une guerre de mages pour Fantastic Beasts: The Secrets of Dumbledore

    30 juin 2022

    Limiter le droit à l’avortement à l’ère des technologies de surveillance

    Informations
    • Votre semaine tentaculaire
    • Contribuez au succès de Pieuvre.ca
    • Notre équipe
    • Contactez-nous
    • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
    © 2009-2022 Hugo Prévost. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.