Close Menu
Pieuvre.ca
    Facebook X (Twitter) Instagram
    Pieuvre.ca
    • Accueil
      • Notre équipe
      • Abonnez-vous à l’infolettre
      • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIL
        • FNC
        • FTA
        • Image+Nations
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections québécoises 2022
        • Élections fédérales 2021
      • Asie
      • Europe
        • Présidentielle française 2022
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Dans les coulisses de…
        • Jeux préférés de…
        • Rétroctopode
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
    Pieuvre.ca
    Accueil»Technologie»Pour modérer du contenu, faut-il croire des humains ou l’IA?

    Pour modérer du contenu, faut-il croire des humains ou l’IA?

    0
    Par Pieuvre.ca le 23 septembre 2022 Technologie

    Les utilisateurs des médias sociaux pourraient faire autant confiance à l’intelligence artificielle qu’à des modérateurs humains, lorsque vient le temps de détecter les discours haineux et les contenus dangereux, selon des chercheurs de Penn State.

    Au dire des experts, lorsque les utilisateurs réfléchissent à propos des qualités des machines, comme leur précision et leur objectivité, ils font davantage confiance à l’IA. Cependant, si on leur rappelle l’incapacité des machines à prendre des décisions subjectives, leur confiance est moindre.

    Ces conclusions pourraient aider les développeurs à concevoir de meilleurs systèmes de curation de contenu gérés par l’IA qui peuvent gérer les vastes quantités d’informations qui sont générées, de nos jours, tout en évitant la perception selon laquelle ces contenus ont été censurés, ou encore mal classés, mentionne le professeur S. Shyam Sundar, qui a participé à l’étude.

    « Il y a un très grand besoin pour la modération de contenu sur les médias sociaux et, plus généralement, sur internet », mentionne M. Sundar.

    « Dans les médias traditionnels, nous avons des pupitres qui servent de gardiens. Mais en ligne, les accès sont grand ouverts, et les humains ne sont pas nécessairement en mesure d’agir comme filtres, particulièrement en raison du volume d’informations qui est généré. Alors, à mesure que l’industrie se dirige de plus en plus vers des solutions automatiques, cette étude se penche sur les différences entre les modérateurs humains et artificiels, en fonction de la réaction des internautes. »

    Autant les modérateurs humains que ceux alimentés par l’IA ont leurs avantages et inconvénients. Les humains ont tendance à mieux jauger si des contenus sont dangereux, comme des messages racistes ou des incitations à l’automutilation, selon Maria D. Molina, principale autrice de l’étude, qui est professeure adjointe à l’Université d’État du Michigan.

    « Les humains, cependant, ne peuvent traiter de grandes quantités de contenus, y compris le fort volume qui est généré présentement. »

    « Lorsque nous pensons à de la modération de contenu automatisée, cela soulève la question de savoir si ces machines peuvent empiéter sur la liberté d’expression », indique Mme Molina. « Cela crée une dichotomie entre le fait qu’il nous faut davantage de modération de contenu, puisque les gens partagent de grandes quantités de contenus problématiques, et, au même moment, les internautes s’inquiètent de la capacité de l’IA à modérer du contenu. Alors, ultimement, nous voulons savoir comment nous pouvons créer des modérateurs IA à qui les internautes peuvent faire confiance, le tout sans empiéter sur la liberté d’expression. »

    Transparence et transparence interactive

    Selon Mme Molina, unir les humains et l’IA dans le contexte de la modération pourrait être une façon de construire un système de gestion des contenus qui suscite la confiance. Toujours au dire de la chercheuse, la transparence, ou le fait d’indiquer à des utilisateurs qu’un ordinateur est impliqué dans la modération, est une approche qui permet d’améliorer la confiance envers l’IA.

    Cependant, permettre aux internautes de fournir des suggestions à cette même machine, un procédé appelé transparence interactive, serait encore plus efficace pour améliorer la confiance.

    Pour étudier ces deux options, entre autres variables, les chercheurs ont recruté 676 participants pour qu’ils interagissent avec un système de classification du contenu. Les participants ont été liés, de façon aléatoire, à l’une de 18 conditions expérimentales, conçues pour tester comment la source de modération – qu’elle soit artificielle, humaine ou un mélange des deux – et la transparence – normale, interactive ou sans transparence – peuvent affecter la confiance des participants envers des modérateurs artificiels.

    Les chercheurs ont testé des décisions en matière de classification – en vertu desquelles les contenus étaient jugés « à risque » ou « pas à risque » d’être dangereux ou haineux. Le test sur les contenus « dangereux » était lié à des pensées suicidaires, tandis que le test sur les contenus « haineux » comprenait des discours haineux.

    Entre autres conclusions, les chercheurs ont découvert que la confiance des utilisateurs dépendait du fait que la présence d’un modérateur de contenu artificiel invoque des attributs positifs des ordinateurs, comme leur fiabilité et leur objectivité, ou des attributs négatifs, comme leur incapacité de porter des jugements subjectifs à propos de nuances dans les langues humaines.

    Le fait de donner aux utilisateurs une chance d’aider l’IA à décider si une information numérique est nuisible, ou non, pourrait aussi renforcer leur confiance. Selon les chercheurs, les participants qui ont ajouté leurs propres termes aux résultats d’une liste de mots clés produite par l’IA faisaient autant confiance à une machine, pour effectuer de la modération, qu’à un humain.

    Craintes éthiques

    M. Sundar estime que le fait de retirer aux humains la responsabilité de modérer les contenus va au-delà du fait de réduire la pression et l’impact d’un travail difficile. Embaucher des modérateurs humains sont effectivement exposés à des heures et des heures de contenus haineux et violents, rappelle-t-il.

    « Il existe un besoin éthique pour de la modération de contenu automatisée », soutient M. Sundar. « Il faut protéger les modérateurs humains, qui accomplissent une tâche ayant un avantage social, contre l’exposition constante à du contenu dangereux jour après jour. »

    « Il faut concevoir quelque chose qui permet non seulement de faire confiance au système, mais aussi permettre aux gens de façon à ce qu’ils comprennent le fonctionnement de l’IA », juge pour sa part Mme Molina. « Comment pouvons-nous utiliser le concept de la transparence interactive et d’autres méthodes pour mieux comprendre l’intelligence artificielle? Et comment pouvons-nous présenter l’IA pour que cela implique le bon équilibre entre l’appréciation des capacités des machines et le scepticisme à propos de leurs faiblesses? Ces questions méritent d’être étudiées. »

    Abonnez-vous à notre infolettre tentaculaire

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    28 novembre 2023

    L’IA peut aussi fabriquer des données trompeuses

    28 novembre 2023

    Quand LinkedIn déclenche un syndrome de l’imposteur

    27 novembre 2023

    Un assistant vocal qui sonne comme nous, la clé pour aimer Alexa et Siri?

    Pieuvre.ca
    • Site web
    • Facebook
    • X (Twitter)

    Répondre Annuler la réponse

    Abonnez-vous à l’infolettre!
    Vous cherchez un contenu?
    Suivez-nous
    Dossiers spéciaux
    • Image+Nations
    • RIDM
    • Cinémania
    • Dans les coulisses de…
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    Récemment publié
    3 décembre 2023

    L’horreur cérébrale du Portrait

    3 décembre 2023

    Littérature – C’est dans la tête que ça se passe

    3 décembre 2023

    Dormir 10 000 fois par jour

    3 décembre 2023

    Peut-on « vacciner » contre la désinformation climatique?

    2 décembre 2023

    Dernière frontière, le Yukon entre fantasme et réalité

    Informations
    • Votre semaine tentaculaire
    • Notre équipe
    • Contactez-nous
    © 2009-2023 Hugo Prévost. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.