Pieuvre.ca
    Facebook Twitter Instagram
    Pieuvre.ca
    • Accueil
      • Notre équipe
      • La réplique
      • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
      • Votre semaine tentaculaire
      • Contactez-nous
      • Fil de presse fourni par Cision – Français
      • Newswire provided by Cision – English
    • Culturel
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Poésie
      • Musique
      • Théâtre / Cirque
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FNC
        • FTA
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2021
        • Maison-Blanche 2020
        • Élections fédérales 2019
      • Asie
      • Europe
        • Présidentielle française 2022
      • Moyen-Orient
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Rétroctopode
        • Jeux préférés de…
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
    • Dons
    Pieuvre.ca
    Accueil»Technologie»Inculquer le sentiment de responsabilité pour une moralité informatique
    L'ajout d'un aspect moral dans les décisions prises par les intelligences artificielles permettrait de mieux assurer la sécurité des voitures autonomes.

    Inculquer le sentiment de responsabilité pour une moralité informatique

    1
    Par Pieuvre.ca le 28 mars 2019 Technologie

    Un nouveau modèle mathématique, conçu pour assigner une valeur numérique à la question de « responsabilité » lors d’un événement aux conséquences négatives, pourrait permettre de concevoir des intelligences artificielles respectant un code moral.

    Les travaux de recherche, effectués par le professeur Joseph Halpern et l’étudiant au doctorat Meir Friedenberg, s’appuient sur les recherches déjà effectuées par M. Halpern dans le domaine de la causalité. Ensemble, les deux homme sont mis au point un modèle mathématique permettant de calculer la responsabilité sur une échelle de zéro à un.

    « L’une des choses que nous voulions accomplir était de nous donner un cadre nous permettant d’appliquer ces notions philosophiques et juridiques à des systèmes autonomes », a indiqué M. Friedenberg, principal auteur de l’étude. « Nous croyons que cela sera important si nous allons bel et bien intégrer des systèmes autonomes dans notre société. »

    Lors de précédent travaux, M. Halpern et ses collègues ont défini la responsabilité individuelle comme l’importance, selon eux, de leurs actions sur la conclusion d’un événement. Par exemple, si vous votiez contre un candidat qui, selon vous, perdrait par un seul vote, la responsabilité aurait une valeur de « un », alors que si vous estimiez que le candidat allait perdre par des milliers de voix, la responsabilité serait bien moindre.

    Au cours de leur récente recherche, MM. Friedenberg et Halpern ont d’abord établi la définition de la responsabilité d’un groupe – en gros, une mesure du degré selon lequel le groupe aurait pu se coordonner pour obtenir un résultat différent lors d’un événement. Ils ont ensuite créé un modèle pour « distribuer » cette responsabilité commune à ses membres individuels.

    Pour atteindre cet objectif, les deux chercheurs ont mesuré la capacité des membres du groupe à travailler en commun pour modifier le résultat, en tenant compte du prix d’une telle collaboration. Le coût est effectivement un aspect primordial lorsque vient le temps de calculer la responsabilité, estiment les deux hommes.

    Lorsqu’il est question de voitures autonomes, les concepteurs ou les législateurs pourraient établir leurs propres définitions du coût des gestes à poser lorsque viendra le temps de développer des algorithmes, a indiqué M. Halpern. Par exemple, si un gouvernement décide qu’aucun degré de risque n’est acceptable, une voiture pourrait être conçue pour ne jamais dépasser un autre véhicule, puisque cela augmente les risques d’accident.


    Les Boeing 737 entre techno et politique

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    22 mai 2022

    Twitter : de gauche ou de droite?

    12 mai 2022

    L’IA, un outil contre les bouchons de circulation?

    5 mai 2022

    Quand une panne de Facebook révèle l’aspect « essentiel » des médias sociaux

    Pieuvre.ca
    • Site web
    • Facebook
    • Twitter

    Un commentaire

    1. Pingback: Le plagiat a encore de l’avance sur l’intelligence artificielle - pieuvre.ca

    Répondre Annuler la réponse

    Abonnez-vous à l’infolettre!
    Vous cherchez un contenu?
    Suivez-nous
    Dossiers spéciaux
    • Vues d’Afrique
    • Présidentielle française 2022
    • 45 ans du Stade olympique
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    Récemment publié
    23 mai 2022

    Quand vos publications sur les médias sociaux peuvent affecter votre cote de crédit

    23 mai 2022

    Vancouver pourrait devenir une « ville de 15 minutes »

    23 mai 2022

    Elle s’appelle Echo : sur les traces des Métis

    23 mai 2022

    The Valet, le film pour se changer les idées

    22 mai 2022

    De nouvelles stratégies pour sauver l’une des plantes les plus importantes de la planète

    Fil de presse fourni par Cision
    Newswire provided by Cision
    Informations
    • Votre semaine tentaculaire
    • Contribuez au succès de Pieuvre.ca
    • Notre équipe
    • Contactez-nous
    • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
    © 2009-2022 Hugo Prévost. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.