Close Menu
Pieuvre
    Facebook X (Twitter) Instagram
    PieuvrePieuvre
    • Accueil
      • Qui sommes-nous?
      • Travaillez avec nous
      • Work with us
      • Abonnez-vous à l’infolettre
      • Encouragez Pieuvre
      • Nos abonnés
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIJM
        • FIL
        • FNC
        • FTA
        • Image+Nation
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • Nuits d’Afrique
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2025
      • Asie
      • Europe
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Jeux préférés de…
        • Rétroctopode
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
      • Dans les coulisses de…
    • Encouragez Pieuvre
    Pieuvre
    Accueil»Technologie»Des formules mathématiques pour aider l’IA à résoudre des problèmes éthiques

    Des formules mathématiques pour aider l’IA à résoudre des problèmes éthiques

    0
    Par Pieuvre.ca le 12 octobre 2022 Technologie

    Une équipe de recherche interdisciplinaire a conçu un plan pour créer des algorithmes qui intègrent plus efficacement des normes éthiques dans les programmes de prise de décision liés à l’intelligence artificielle (IA). Le projet portait spécifiquement sur les technologies qui permettent aux humains d’interagir avec l’IA, notamment avec des assistants virtuels, ou dans un contexte d’aide aux patients en milieu hospitalier.

    « Les technologies comme les robots médicaux sont supposés aider à assurer la sécurité et le confort des patients dans les hôpitaux, les aînés et d’autres personnes qui ont besoin d’une surveillance médicale ou d’une aide physique », mentionne Veljko Dubljvic, l’un des auteurs de l’étude et professeur associé à l’Université d’État de Caroline du Nord.

    « En termes clairs, cela veut dire que ces technologies seront employées dans des situations où l’IA doit passer des jugements éthiques. »

    « Par exemple, disons qu’un robot d’aide médicale se trouve dans une situation où deux personnes ont besoin de soins. L’un des patients est inconscient, mais a besoin de soins en urgence; l’autre patient a des besoins moins urgents, mais réclame que le robot le soigne en premier. Comment le robot va-t-il décider qui aider en premier? Ce robot devrait-il, en fait, soigner une personne inconsciente qui ne peut consentir à recevoir un traitement? »

    « De précédentes tentatives pour intégrer la prise de décision éthique dans le cadre de programmes d’IA ont été d’une ampleur limitée et s’articulaient autour du raisonnement utilitariste, qui néglige la complexité de la prise de décision morale des humains », a ajouté M. Dubljevic. « Nos travaux visent à corriger cette lacune et, si j’utilise les robots médicaux comme exemple, s’appliquent aussi à plusieurs technologies qui combinent les humains et l’IA. »

    Le processus décisionnel utilitariste se concentre sur les résultats et les conséquences. Mais lorsque les humains passent des jugements moraux, ils tiennent aussi compte de deux autres facteurs.

    Le premier est l’intention d’un geste et la personnalité d’une personne qui effectue cette action. En d’autres mots, qui pose un geste, à un moment précis, et qu’est-ce que cette personne tente d’accomplir? Est-ce quelqu’un de bienveillant ou de malveillant?

    Le deuxième facteur est l’action en elle-même. Par exemple, certaines personnes tendent à voir des gestes précis, comme le fait de mentir, comme étant fondamentalement mauvais.

    Et tous ces facteurs interagissent entre eux. Par exemple, rappellent les chercheurs, nous pouvons nous entendre sur le fait que mentir est mal, mais si une infirmière ment à un patient qui présente des demandes inacceptables afin de prioriser le traitement d’un deuxième patient qui en a davantage besoin, la plupart des gens verraient cela comme étant moralement acceptable.

    Pour tenir compte de la complexité de la prise de décisions morales, les chercheurs ont développé une formule mathématique et une série d’arbres décisionnels qui peuvent être incorporés dans des programmes d’IA. Ces outils s’appuient sur quelque chose appelé le modèle Agent, Acte et Conséquence (ADC, en anglais), qui a été conçu par M. Dubljevic et des collègues pour refléter la façon dont les personnes prennent des décisions en fonction d’aspects moraux dans la vraie vie.

    « Notre objectif, ici, était de transposer le modèle ADC dans un format qui permet de l’incorporer dans la programmation de l’IA », a-t-il indiqué. « Nous ne disons pas seulement que ce cadre éthique pourrait bien fonctionner pour l’intelligence artificielle, nous le présentons sous forme de langage qui est accessible dans le contexte de l’informatique. »

    Toujours au dire du chercheur, « avec le développement de l’IA et des technologies robotiques, la société a besoin de tels efforts collaboratifs entre les éthiciens et les ingénieurs. Notre futur en dépend. »

    Abonnez-vous à notre infolettre tentaculaire

    Encouragez-nous pour le prix d’un café

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    6 mai 2025

    L’IA raisonne-t-elle aussi mal que les humains?

    1 mai 2025

    Face à des étudiants, ChatGPT a encore des croûtes à manger

    Pieuvre.ca
    • Site web
    • Facebook
    • X (Twitter)

    Répondre Annuler la réponse

    Vous cherchez un contenu?
    Abonnez-vous à l’infolettre!

    Suivez-nous
    Dossiers spéciaux
    • Jamais lu
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    • Dans les coulisses de…
    Récemment publié
    8 mai 2025

    Une immigration encore importante, au Québec, mais une fécondité au plus bas

    8 mai 2025

    La Voûte #22: Kill Bill, partie 1

    8 mai 2025

    Sommes-nous de plus en plus anxieux? Oui et non

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    8 mai 2025

    L’été s’invite plus tôt avec la troisième saison de Premier trio

    Informations
    • Votre semaine tentaculaire
    • Qui sommes-nous?
    • Contactez-nous
    © 2009-2025 Pieuvre.ca. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.

    Gérez votre confidentialité

    Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.

    Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.

    Fonctionnel Toujours activé
    Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
    Préférences
    L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
    Statistiques
    Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
    Marketing
    Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
    Statistiques

    Marketing

    Fonctionnalités
    Toujours activé

    Toujours activé
    Gérer les options Gérer les services Gérer {vendor_count} fournisseurs En savoir plus sur ces finalités
    Gérer les options
    {title} {title} {title}

    logo

     Ne manquez aucun article ou épisode de podcast: abonnez-vous à l’infolettre!