Lorsqu’il est question de jeux comme les échecs ou le go, l’intelligence artificielle a largement surpassé les meilleurs joueurs du monde. Ces IA « superhumaines » sont sans opposants, mais peut-être que la collaboration avec les humains est plus difficile que les vaincre. Est-ce que cette même technologie peut tisser des liens avec l’humanité?
Dans le cadre d’une nouvelle étude, des chercheurs du Lincoln Laboratory, du MIT, ont cherché à savoir à quel point des humains pourraient jouer au jeu de cartes coopératif Hanabi avec un modèle d’IA avancé conçu pour exceller à jouer avec des équipiers précédemment inconnus. Dans le cadre d’expériences à l’aveugle, les participants ont joué à deux séries du jeu: l’une avec un agent IA comme coéquipier, l’autre avec un agent basé sur des règles, soit un robot programmé manuellement pour jouer d’une façon prédéfinie.
Les résultats ont surpris les chercheurs. Non seulement le pointage n’était pas meilleur avec le coéquipier IA qu’avec le robot « de base », mais les humains ont constamment détesté jouer avec le premier. Ils ont trouvé qu’il était imprévisible, non fiable et indigne de confiance, en plus de ressentir des émotions négatives, même quand l’équipe gagnait.
« Cela souligne vraiment la distinction entre la création d’une IA qui atteint relativement bien ses objectifs, et créer une IA qui est subjectivement digne de confiance ou préférée », mentionne Ross Allen, coauteur de l’étude et chercheur au sein de l’Artificial Intelligence Technology Group. « On pourrait croire que ces deux aspects sont si similaires qu’il n’existe pas vraiment de différence, mais cette étude révèle que ce sont en fait deux problèmes séparés. Nous devons travailler à démêler le tout. »
Des humains détestant leur coéquipier IA pourrait être un problème, pour les chercheurs qui travaillent à concevoir cette technologie, technologie qui devrait un jour travailler avec des humains à de vrais problèmes, comme se défendre contre des missiles ou effectuer des chirurgies complexes. Cette dynamique, appelée intelligence d’équipe, est la prochaine frontière de la recherche en IA, et emploie une forme spécifique d’intelligence artificielle appelée apprentissage de renforcement.
Dans ce contexte, l’IA ne se fait pas dire quelle action effectuer, mais découvre plutôt quels gestes permettent d’obtenir les meilleures « récompenses » en essayant des scénarios encore et encore. C’est cette technologie qui a mené aux joueurs superhumains d’échecs et de go. Contrairement aux algorithmes basés sur des règles, ces IA ne sont pas programmées pour suivre des états de situation « si…/alors », puisque les résultats possibles des tâches humaines qu’elles doivent accomplir, comme le fait de conduire une voiture, sont trop nombreux pour être codés.
« L’apprentissage par renforcement est une façon beaucoup plus générale de développer l’IA. Vous pouvez l’entraîner pour apprendre comment jouer aux échecs, mais cet agent IA n’ira pas nécessairement conduire une voiture. Mais vous pouvez utiliser le même algorithme pour former un autre agent à la conduite, si vous disposez des bonnes données », affirme M. Allen. « En théorie, il n’y a pas de limite à ce que vous pouvez faire. »
Mauvais indices, mauvais gestes
Aujourd’hui, des chercheurs utilisent Hanabi pour évaluer la performance des modèles d’apprentissage par renforcement développés en vue de la collaboration, de la même façon que les échecs ont servi de référence pour tester les IA compétitives pendant des décennies.
Hanabi ressemble à une version multijoueurs de Solitaire. Les joueurs travaillent de concert pour empiler des cartes du même symbole selon un ordre précis. Cependant, les joueurs ne peuvent pas voir leurs propres cartes, seulement celles détenues par leurs coéquipiers. Chaque joueur est strictement limité dans la façon dont il peut communiquer avec les autres pour faire en sorte qu’ils choisissent la meilleure carte à partir de leur propre main, pour le prochain tour.
Lors des essais, dans le cadre de l’étude, « un participant a dit être stressé à un point tel, par le fait que l’IA jouait mal, qu’il a carrément développé un mal de tête », soutient Jaime Pena, un coauteur des travaux. « Un autre a dit qu’il pensait que l’agent fonctionnant selon des règles était idiot, mais fiable, alors que l’agent IA a démontré qu’il comprenait les règles, mais que ses coups ne correspondaient pas à ce à quoi ressemble une équipe. Pour eux, l’IA donnait de mauvais indices, et jouait mal. »
Cette perception d’une IA jouant mal établit un lien avec un comportement surprenant observé par les chercheurs lors de précédents travaux dans le même genre. Par exemple, en 2016, lorsqu’AlphaGo, de la compagnie DeepMind, a battu pour la première fois les meilleurs joueurs de Go, l’un des coups les plus célébrés par AlphaGo était le 37e de la 2e partie, un coup si inhabituel que les commentateurs humains avaient l’impression qu’il s’agissait d’une erreur. Une analyse après la fin du match a révélé que ce coup était en fait extrêmement bien calculé, et a été décrit comme un coup de « génie ».
De tels coups peuvent être célébrés dans un tel contexte, mais les agents IA qui agissent de la sorte risquent d’être moins salués dans un contexte de travail en équipe. Les chercheurs du Lincoln Laboratory ont constaté que les coups étranges ou presque illogiques étaient les pires lorsque venait le temps de saper la confiance des humains envers leur compagnon IA. Cela nuisait à l’idée d’une collaboration sans faille, mais réduisait aussi le désir des humains de jouer avec un partenaire IA.
La faute aux humains?
Les chercheurs notent aussi que l’IA utilisée dans le cadre de cette étude n’a pas été développée en fonction des préférences humaines. Mais cela fait partie du problème: elles sont peu nombreuses à respecter ce critère. Comme la plupart des modèles d’IA collaborative, ce modèle a été conçu pour obtenir le meilleur pointage, et son succès a été évalué en fonction de sa performance objective.
Si les chercheurs ne se penchent pas sur la question de la préférence subjective des humains, « alors nous ne créerons pas d’IA que les humains voudront utiliser », avance M. Allen. « Il est plus facile de travailler sur une IA qui améliore un nombre précis. Il est beaucoup plus dur de travailler sur une IA qui oeuvre dans le domaine plus flou des préférences humaines. »
Les scientifiques estiment que la capacité de l’IA d’expliquer ses actions mènera à développer une relation de confiance. Leurs futurs travaux s’articuleront autour de ce principe.
« Vous pouvez imaginer que nous recommençons l’expérience, mais après celle-ci – et cela est plus facile à dire qu’à faire – les humains pourraient demander pourquoi tel ou tel coup a été joué. Si l’IA pouvait fournir des explications, alors notre hypothèse veut que l’humain dire « oh, c’est une étrange façon de voir les choses, mais je comprends, maintenant », et il lui ferait confiance. Nos résultats pourraient complètement changer, même si nous ne modifions pas les méthodes de prise de décision », poursuit M. Allen.