Close Menu
Pieuvre
    Facebook X (Twitter) Instagram
    PieuvrePieuvre
    • Accueil
      • Qui sommes-nous?
      • Travaillez avec nous
      • Work with us
      • Abonnez-vous à l’infolettre
      • Encouragez Pieuvre
      • Nos abonnés
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIJM
        • FIL
        • FNC
        • FTA
        • Image+Nation
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • Nuits d’Afrique
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2025
      • Asie
      • Europe
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Jeux préférés de…
        • Rétroctopode
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
      • Dans les coulisses de…
    • Encouragez Pieuvre
    Pieuvre
    Accueil»Technologie»Pour modérer du contenu, faut-il croire des humains ou l’IA?

    Pour modérer du contenu, faut-il croire des humains ou l’IA?

    0
    Par Pieuvre.ca le 23 septembre 2022 Technologie

    Les utilisateurs des médias sociaux pourraient faire autant confiance à l’intelligence artificielle qu’à des modérateurs humains, lorsque vient le temps de détecter les discours haineux et les contenus dangereux, selon des chercheurs de Penn State.

    Au dire des experts, lorsque les utilisateurs réfléchissent à propos des qualités des machines, comme leur précision et leur objectivité, ils font davantage confiance à l’IA. Cependant, si on leur rappelle l’incapacité des machines à prendre des décisions subjectives, leur confiance est moindre.

    Ces conclusions pourraient aider les développeurs à concevoir de meilleurs systèmes de curation de contenu gérés par l’IA qui peuvent gérer les vastes quantités d’informations qui sont générées, de nos jours, tout en évitant la perception selon laquelle ces contenus ont été censurés, ou encore mal classés, mentionne le professeur S. Shyam Sundar, qui a participé à l’étude.

    « Il y a un très grand besoin pour la modération de contenu sur les médias sociaux et, plus généralement, sur internet », mentionne M. Sundar.

    « Dans les médias traditionnels, nous avons des pupitres qui servent de gardiens. Mais en ligne, les accès sont grand ouverts, et les humains ne sont pas nécessairement en mesure d’agir comme filtres, particulièrement en raison du volume d’informations qui est généré. Alors, à mesure que l’industrie se dirige de plus en plus vers des solutions automatiques, cette étude se penche sur les différences entre les modérateurs humains et artificiels, en fonction de la réaction des internautes. »

    Autant les modérateurs humains que ceux alimentés par l’IA ont leurs avantages et inconvénients. Les humains ont tendance à mieux jauger si des contenus sont dangereux, comme des messages racistes ou des incitations à l’automutilation, selon Maria D. Molina, principale autrice de l’étude, qui est professeure adjointe à l’Université d’État du Michigan.

    « Les humains, cependant, ne peuvent traiter de grandes quantités de contenus, y compris le fort volume qui est généré présentement. »

    « Lorsque nous pensons à de la modération de contenu automatisée, cela soulève la question de savoir si ces machines peuvent empiéter sur la liberté d’expression », indique Mme Molina. « Cela crée une dichotomie entre le fait qu’il nous faut davantage de modération de contenu, puisque les gens partagent de grandes quantités de contenus problématiques, et, au même moment, les internautes s’inquiètent de la capacité de l’IA à modérer du contenu. Alors, ultimement, nous voulons savoir comment nous pouvons créer des modérateurs IA à qui les internautes peuvent faire confiance, le tout sans empiéter sur la liberté d’expression. »

    Transparence et transparence interactive

    Selon Mme Molina, unir les humains et l’IA dans le contexte de la modération pourrait être une façon de construire un système de gestion des contenus qui suscite la confiance. Toujours au dire de la chercheuse, la transparence, ou le fait d’indiquer à des utilisateurs qu’un ordinateur est impliqué dans la modération, est une approche qui permet d’améliorer la confiance envers l’IA.

    Cependant, permettre aux internautes de fournir des suggestions à cette même machine, un procédé appelé transparence interactive, serait encore plus efficace pour améliorer la confiance.

    Pour étudier ces deux options, entre autres variables, les chercheurs ont recruté 676 participants pour qu’ils interagissent avec un système de classification du contenu. Les participants ont été liés, de façon aléatoire, à l’une de 18 conditions expérimentales, conçues pour tester comment la source de modération – qu’elle soit artificielle, humaine ou un mélange des deux – et la transparence – normale, interactive ou sans transparence – peuvent affecter la confiance des participants envers des modérateurs artificiels.

    Les chercheurs ont testé des décisions en matière de classification – en vertu desquelles les contenus étaient jugés « à risque » ou « pas à risque » d’être dangereux ou haineux. Le test sur les contenus « dangereux » était lié à des pensées suicidaires, tandis que le test sur les contenus « haineux » comprenait des discours haineux.

    Entre autres conclusions, les chercheurs ont découvert que la confiance des utilisateurs dépendait du fait que la présence d’un modérateur de contenu artificiel invoque des attributs positifs des ordinateurs, comme leur fiabilité et leur objectivité, ou des attributs négatifs, comme leur incapacité de porter des jugements subjectifs à propos de nuances dans les langues humaines.

    Le fait de donner aux utilisateurs une chance d’aider l’IA à décider si une information numérique est nuisible, ou non, pourrait aussi renforcer leur confiance. Selon les chercheurs, les participants qui ont ajouté leurs propres termes aux résultats d’une liste de mots clés produite par l’IA faisaient autant confiance à une machine, pour effectuer de la modération, qu’à un humain.

    Craintes éthiques

    M. Sundar estime que le fait de retirer aux humains la responsabilité de modérer les contenus va au-delà du fait de réduire la pression et l’impact d’un travail difficile. Embaucher des modérateurs humains sont effectivement exposés à des heures et des heures de contenus haineux et violents, rappelle-t-il.

    « Il existe un besoin éthique pour de la modération de contenu automatisée », soutient M. Sundar. « Il faut protéger les modérateurs humains, qui accomplissent une tâche ayant un avantage social, contre l’exposition constante à du contenu dangereux jour après jour. »

    « Il faut concevoir quelque chose qui permet non seulement de faire confiance au système, mais aussi permettre aux gens de façon à ce qu’ils comprennent le fonctionnement de l’IA », juge pour sa part Mme Molina. « Comment pouvons-nous utiliser le concept de la transparence interactive et d’autres méthodes pour mieux comprendre l’intelligence artificielle? Et comment pouvons-nous présenter l’IA pour que cela implique le bon équilibre entre l’appréciation des capacités des machines et le scepticisme à propos de leurs faiblesses? Ces questions méritent d’être étudiées. »

    Abonnez-vous à notre infolettre tentaculaire

    Encouragez-nous pour le prix d’un café

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    6 mai 2025

    L’IA raisonne-t-elle aussi mal que les humains?

    1 mai 2025

    Face à des étudiants, ChatGPT a encore des croûtes à manger

    Pieuvre.ca
    • Site web
    • Facebook
    • X (Twitter)

    Répondre Annuler la réponse

    Vous cherchez un contenu?
    Abonnez-vous à l’infolettre!

    Suivez-nous
    Dossiers spéciaux
    • Jamais lu
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    • Dans les coulisses de…
    Récemment publié
    9 mai 2025

    Après 24 ans, un dernier Jamais lu émouvant pour sa directrice générale

    8 mai 2025

    Une immigration encore importante, au Québec, mais une fécondité au plus bas

    8 mai 2025

    La Voûte #22: Kill Bill, partie 1

    8 mai 2025

    Sommes-nous de plus en plus anxieux? Oui et non

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    Informations
    • Votre semaine tentaculaire
    • Qui sommes-nous?
    • Contactez-nous
    © 2009-2025 Pieuvre.ca. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.

    Gérez votre confidentialité

    Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.

    Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.

    Fonctionnel Toujours activé
    Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
    Préférences
    L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
    Statistiques
    Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
    Marketing
    Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
    Statistiques

    Marketing

    Fonctionnalités
    Toujours activé

    Toujours activé
    Gérer les options Gérer les services Gérer {vendor_count} fournisseurs En savoir plus sur ces finalités
    Gérer les options
    {title} {title} {title}

    logo

     Ne manquez aucun article ou épisode de podcast: abonnez-vous à l’infolettre!