Une seule voix n’est pas garante de succès, lorsqu’il est question d’assistants virtuels comme Siri et Alexa, révèle une nouvelle étude de chercheurs de l’Université Penn State. Ainsi, les voix jugées plus extroverties, c’est-à-dire celles qui s’expriment plus fort, plus rapidement et avec un ton plus bas, auraient davantage la cote. De plus, une similarité entre la voix artificielle et celle des utilisateurs aurait un effet sur leur expérience.
De fait, les chercheurs ont constaté que le fait d’accroître la similarité entre la voix des assistants et celle des gens se fiant à ces voix synthétiques permettait aux humains de mieux résister aux informations à caractère persuasif, comme de la désinformation à propos des vaccins contre la COVID-19.
Dans le cadre de cette étude, 38 % des participants non vaccinés ont changé d’avis à propos de la vaccination après avoir écouté de fausses informations à propos de cette procédure qui étaient partagées par un assistant virtuel.
Les conclusions des travaux pourraient avoir des implications visant à accroître la résistance des utilisateurs face aux fausses nouvelles, affirment les chercheurs.
Leurs résultats ont été publiés dans l’International Journal of Human-Computer Studies.
« Notre étude démontre que lorsque des utilisateurs interagissent avec un assistant vocal qui est similaire à leur personnalité, ils ont une meilleure opinion du service qui leur est fourni », mentionne S. Shyam Sundar, coauteur de l’étude et professeur à Penn State.
Les auteurs des travaux ont constaté que les utilisateurs qui percevaient la voix de l’assistant vocal comme étant similaire à la leur, que cela soit vrai ou non, jugeaient ledit assistant comme étant plus sociable et plus attirant sur le plan intellectuel. On estimait aussi que l’interlocuteur artificiel était plus digne de confiance.
« Cette tendance à tracer une équivalence entre une similarité perçue et la crédibilité était davantage prononcée chez ceux qui personnalisaient leur expérience en choisissant une voix préférée pour l’assistant vocal », a ajouté le Pr Sundar.
De façon possiblement paradoxale, cette similarité de la « personnalité » de l’assistant vocal a aussi fait en sorte que les utilisateurs étaient davantage résistants aux informations fournies par l’appareil.
« Le grand nombre de personnes non vaccinées, reliées à des personnalités d’assistant vocal similaires, qui ont changé d’avis à propos de la vaccination contre la COVID-19 représente une conclusion contre-intuitive », mentionne le principal auteur de l’étude, le professeur adjoint Eugene C. Snyder, du New Jersey Institute of Technology.
« Les gens démontrent souvent une résistance par rapport à des tentatives de persuasion de la part de sources d’information, comme les chroniqueurs ou les influenceurs sur les médias sociaux. Pour les participants de l’étude qui n’étaient pas vaccinés, être confrontés à de la désinformation de la part d’un assistant vocal qui leur ressemble pourrait avoir créé une forme de résistance. Cependant, d’autres travaux sont nécessaires pour clarifier cette réaction, puisque les personnes non vaccinées formaient une minorité dans notre échantillon, soit 27 % des participants. »
Au dire du Pr Sundar, les conclusions de l’étude jettent un nouvel éclairage sur la façon dont les humains traitent les informations.
« Selon nos données, lorsque vous entendez de l’information provenant d’un assistant vocal qui vous ressemble, cela a un effet de résistance à la persuasion et que vous traiterez le message transmis de façon plus prudente. Ce traitement prudent est ce qui vous fait prendre conscience de l’aspect pervasif du message, et pourquoi vous devriez y résister. »