Close Menu
Pieuvre
    Facebook X (Twitter) Instagram
    PieuvrePieuvre
    • Accueil
      • Qui sommes-nous?
      • Travaillez avec nous
      • Work with us
      • Abonnez-vous à l’infolettre
      • Encouragez Pieuvre
      • Nos abonnés
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIJM
        • FIL
        • FNC
        • FTA
        • Image+Nation
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • Nuits d’Afrique
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2025
      • Asie
      • Europe
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Jeux préférés de…
        • Rétroctopode
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
      • Dans les coulisses de…
    • Encouragez Pieuvre
    Pieuvre
    Accueil»Technologie»Un algorithme qui juge votre visage

    Un algorithme qui juge votre visage

    0
    Par Pieuvre.ca le 25 avril 2022 Technologie

    Lorsque deux personnes se rencontrent, elle s’évaluent automatiquement, en portant des jugements rapides sur toutes sortes d’aspects, allant de l’âge de l’autre personne à leur intelligence, en passant par leur fiabilité, le tout uniquement en fonction de leur apparence. Ces premières impressions, si elles sont souvent erronées, peuvent être extrêmement puissantes, et moduler nos relations, en plus d’avoir un impact sur toutes sortes de choses, comme par exemple la décision d’embaucher quelqu’un, ou de rendre une sentence lors d’un procès criminel. Des chercheurs se sont intéressés à ce phénomène en apprenant à une intelligence artificielle à agir de la sorte… Dans le but de corriger ces réactions instinctives.

    Ces scientifiques, rattachés au Stevens Institute of Technology, en collaboration avec les Universités Princeton et de Chicago, ont ainsi formé un algorithme d’intelligence artificielle pour que celui-ci puisse modéliser cette première impression et prédire comment les gens seront perçus en fonction d’une photo de leur visage. Ces travaux ont été publiés dans Proceedings of the National Academy of Sciences.

    « Il existe de nombreux travaux qui se concentrent sur la modélisation de l’apparence physique des visages des gens », indique Jordan W. Suchow, un scientifique spécialisé en cognition et un expert en IA. « Nous regroupons tout cela avec les jugements humains, et nous utilisons l’apprentissage machine pour étudier les premières impressions biaisées des gens lorsqu’ils rencontrent quelqu’un d’autre. »

    M. Suchow et son équipe ont demandé à des milliers de personnes de donner leurs premières impressions par rapport à plus de 1000 photos de visages générées par ordinateur, en utilisant des critères comme le niveau d’intelligence, la capacité d’être élu, le côté religieux, le fait d’être ou non digne de confiance, ainsi que l’impression que la « personne » est extrovertie (ou pas). Les réponses ont ensuite servi à « entraîner » un réseau neuronal pour que celui-ci puisse passer des jugements rapides sur des gens, en se fiant uniquement à une photo de leur visage.

    « Avec votre visage, nous pouvons utiliser cet algorithme pour prédire ce que seront les premières impressions des gens, et quels stéréotypes seront projetés sur vous, une fois qu’ils verront votre visage », mentionne M. Suchow.

    La plupart des constatations de l’algorithme correspondent aux intuitions collectives ou aux assomptions culturelles: les gens qui sourient tendent à être vus comme davantage dignes de confiance, par exemple, tandis que ceux qui portent des lunettes sont considérés comme étant plus intelligents. Dans d’autres cas, il est un peu plus dur de comprendre pourquoi l’algorithme attribue un trait particulier à une personne.

    « L’algorithme n’offre pas de rétroaction ciblée, pas plus qu’il n’explique pourquoi une image spécifique suscite un jugement particulier », a encore indiqué M. Suchow. « Mais même dans cette situation, cela peut nous aider à comprendre comment nous sommes perçus – nous pouvions classer une série de photos en fonction du fait qu’elles faisaient paraître un individu comme digne de confiance, par exemple, ce qui permet de faire des choix sur la façon de se mettre en valeur. »

    Bien que d’abord développé pour aider des chercheurs en psychologie à générer des images de visages pour les utiliser dans le cadre d’expériences sur la perception et la cognition sociale, le nouvel algorithme pourrait aussi servir dans la vie de tous les jours. Les individus cultivent généralement une personnalité publique de façon minutieuse, par exemple, en partageant uniquement des photos qui les feront paraître intelligents, confiants ou attirants, et il est facile de voir comment cet algorithme pourrait favoriser ce processus, a poursuivi M. Suchow.

    Puisqu’il existe déjà des normes sociales encadrant le fait de se mettre de l’avant de façon positive, cela vient contourner certains des enjeux éthiques entourant la technologie, a-t-il ajouté.

    Risques de manipulation

    De façon encore plus troublante, l’algorithme peut aussi servir à manipuler des photos pour faire en sorte que leurs sujets correspondent davantage à certains traits – par exemple en transformant un politicien pour qu’il semble davantage digne de confiance, ou rendre son adversaire « moins intelligent » ou « plus suspect ». Si des outils liés à l’IA sont déjà employés pour créer de fausses vidéos montrant des événements qui ne se sont jamais produits, le nouvel algorithme pourrait subtilement modifier de vraies images pour manipuler l’avis du public à propos de la personne qui se trouve sur le cliché.

    « Avec cette technologie, il est possible de prendre une photo et d’en créer une version modifiée conçue pour donner une certaine impression », met en garde M. Suchow. « Pour des raisons évidentes, nous devons faire attention à la façon dont cette technologie est employée. »

    Pour protéger cette dernière, justement, les chercheurs ont déposé un brevet et travaillent actuellement à la création d’une nouvelle entreprise pour offrir des licences d’utilisation de l’algorithme à des fins éthiques préapprouvées. « Nous posons tous les gestes que nous pouvons pour nous assurer que l’algorithme ne sera pas utilisé pour causer du tort. »

    Si la version actuelle de l’algorithme se concentre sur les réponses moyennes à un visage donné chez un grand groupe de personnes, M. Suchow espère développer un autre algorithme, capable cette fois de prédire comment une seule personne répondra à un autre visage. Cela pourrait permettre d’obtenir des informations beaucoup plus complètes sur la façon dont les jugements rapides viennent moduler nos interactions sociales, et potentiellement aider les gens à les reconnaître et à aller au-delà des premières impressions lorsque nous prenons des décisions importantes.

    « Il est important de se rappeler que les jugements que nous modélisons ne révèlent rien sur la vraie personnalité ou les compétences d’une personne », rappelle M. Suchow. « Ce que nous faisons, ici, c’est d’étudier les stéréotypes chez les gens, et c’est quelque chose que nous devrions tous chercher à mieux comprendre. »

    Abonnez-vous à notre infolettre tentaculaire

    Encouragez-nous pour le prix d’un café

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    6 mai 2025

    L’IA raisonne-t-elle aussi mal que les humains?

    1 mai 2025

    Face à des étudiants, ChatGPT a encore des croûtes à manger

    Pieuvre.ca
    • Site web
    • Facebook
    • X (Twitter)

    Répondre Annuler la réponse

    Vous cherchez un contenu?
    Abonnez-vous à l’infolettre!

    Suivez-nous
    Dossiers spéciaux
    • Jamais lu
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    • Dans les coulisses de…
    Récemment publié
    9 mai 2025

    Après 24 ans, un dernier Jamais lu émouvant pour sa directrice générale

    8 mai 2025

    Une immigration encore importante, au Québec, mais une fécondité au plus bas

    8 mai 2025

    La Voûte #22: Kill Bill, partie 1

    8 mai 2025

    Sommes-nous de plus en plus anxieux? Oui et non

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    Informations
    • Votre semaine tentaculaire
    • Qui sommes-nous?
    • Contactez-nous
    © 2009-2025 Pieuvre.ca. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.

    Gérez votre confidentialité

    Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.

    Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.

    Fonctionnel Toujours activé
    Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
    Préférences
    L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
    Statistiques
    Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
    Marketing
    Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
    Statistiques

    Marketing

    Fonctionnalités
    Toujours activé

    Toujours activé
    Gérer les options Gérer les services Gérer {vendor_count} fournisseurs En savoir plus sur ces finalités
    Gérer les options
    {title} {title} {title}

    logo

     Ne manquez aucun article ou épisode de podcast: abonnez-vous à l’infolettre!