L’art du compromis: l’intelligence artificielle serait-elle meilleure que l’humain?

0

Les ordinateurs peuvent jouer aux échecs de façon magistrale, et rendre la monnaie de leur pièce à leurs adversaires humains dans le cadre de jeux à somme nulle. Mais est-il possible de leur apprendre à coopérer, plutôt qu’à se montrer compétitifs?

À l’aide d’un nouvel algorithme développé par les professeurs en informatique de la Brigham Young University (BYU) Jacob Crandall et Michael Goodrich, en compagnie de collègues du MIT et d’autres universités de renom, les compromis et la coopération provenant de machines semblent non seulement possibles, mais, dans certaines situations, plus efficaces qu’entre des humains.

« L’objectif ultime est de comprendre les mathématiques à l’oeuvre derrière la coopération entre différentes personnes, et les attributs dont a besoin l’intelligence artificielle pour développer des compétences en matière d’interactions sociales », estime M. Crandall, dont l’étude a récemment été publiée dans Nature Communications.

« L’IA doit pouvoir nous répondre et détailler ce qu’elle fait. Elle doit pouvoir interagir avec d’autres gens. »

L’algorithme à la rescousse

Pour les besoins de l’étude, les chercheurs ont programmé des ordinateurs avec un algorithme appelé S#, et les ont fait jouer à une série de jeux à deux participants pour voir de quelle façon ils pouvaient coopérer dans le cadre de certaines relations. L’équipe a effectué des tests d’interactions entre machines, entre l’humain et la machine, et entre humains. Dans la plupart des cas, les machines programmées avec l’algorithme S# ont surpassé les humains lorsqu’est venu le temps de parvenir à des compromis avantageux pour les deux parties.

« Deux humains, s’ils étaient honnêtes entre eux et loyaux, auraient réussi aussi bien que les deux machines », a poursuivi M. Crandall. « Dans l’état des choses, environ la moitié des humains ont menti à un moment ou à un autre. Alors, en gros, cet algorithme apprend que les caractéristiques morales sont une bonne chose. Il est programmé pour ne pas mentir, et il apprend également à poursuivre la collaboration une fois que celle-ci apparaît. »

Les scientifiques ont renforcé la capacité des ordinateurs à coopérer en les programmant avec une série de phrases spécifiques. Dans les tests, si les participants humains coopéraient avec l’ordinateur, la machine pouvait répondre avec des phrases préprogrammées. Phrases qui changeaient du tout au tout si les participants tentaient de trahir l’ordinateur ou de dénoncer une entente: l’ordinateur avait alors quelques réparties bien senties à sa disposition.

Peu importe le jeu ou la combinaison de joueurs, ces phrases préprogrammées ont permis de doubler le nombre de relations de coopération. Et lorsque les machines utilisaient ces phrases, les joueurs humains étaient souvent incapables de dire s’ils affrontaient un humain ou un ordinateur.

M. Crandall espère que les conclusions de ces travaux puissent avoir des implications à long terme pour les relations humaines.

« Dans nos sociétés, les relations se détériorent constamment. Les gens qui étaient nos amis pendant des années deviennent soudainement des ennemis. Puisque l’ordinateur est en fait plus à apte à parvenir à des compromis que nous le sommes, il pourrait éventuellement nous apprendre à nous améliorer. »


En complément:

Facebook va prioriser les « amis »

Partagez

À propos du journaliste

Pieuvre.ca

Répondre