Les grands modèles langagiers, comme la version 4 de ChatGPT, seraient plus convaincants que des humains, environ les deux tiers du temps, lorsqu’ils « participent » à des débats en ligne, révèle une nouvelle étude publiée dans Nature Human Behaviour.
Le secret? Selon les auteurs des travaux, ce taux de réussite découle de l’adaptation des arguments du logiciel à l’aide d’informations personnalisées à propos de leurs adversaires.
Ces résultats seraient suffisants pour pousser les chercheurs à réclamer des travaux plus poussés pour mieux contrer les risques associés à l’utilisation de ces systèmes d’intelligence artificielle, lorsque vient le temps d’essayer de convaincre une autre personne.
À mesure que les conversations entre humains et modèles langagiers deviennent plus courants, de précédents travaux indiquaient déjà que ces modèles pouvaient s’avérer plus persuasifs, et ainsi être capables de modifier les convictions ou les opinions d’une personne.
Cependant, on ignorait, jusqu’à présent, si ces modèles pouvaient s’adapter à des informations personnalisées pour cibler leurs opposants, lors de débats à l’aide d’arguments « faits sur mesure ».
Lors de la plus récente étude, Francesco et Salvi et ses collègues ont jumelé 900 Américains avec un autre humain, ou avec la déclinaison 4 de ChatGPT pour débattre de divers enjeux sociopolitiques, par exemple si les États-Unis devaient interdire les combustibles fossiles.
Dans certains de ces binômes, l’opposant (artificiel ou humain) a obtenu des informations démographiques à propos de son partenaire, y compris son genre, son âge, son ethnicité, son niveau d’éducation, son statut d’emploi et ses affiliations politiques, histoire de mieux cibler ses arguments.
Ces débats ont eu lieu dans un environnement numérique contrôlé; les participants ont été recrutés via un système faisant appel à la communauté et conçu spécifiquement pour cette étude.
Lorsque les modèles langagiers étaient munis des informations personnelles à propos des participants, M. Salvi et ses collègues ont ainsi constaté que GPT-4 était 64,4% plus persuasif que les opposants humains. Cependant, sans accès à ces informations personnelles, les capacités de persuasion du modèle langagier étaient impossibles à distinguer de celles des humains.
Les auteurs de l’étude notent par ailleurs que parmi les limites de leurs travaux, on trouve le fait que le débat suit une approche structurée, alors que les débats se déroulant dans le monde réel peuvent être plus libres, et que les échanges évalués impliquaient une limite de temps.
Malgré tout, limites ou non, les chercheurs soutiennent que cette capacité des modèles langagiers à influencer des opinions humaines aura des impacts sur la conception des plateformes numériques.