Si vous avez des pensées sombres et que vous cherchez de l’aide, composez le 1-886-APPELLE (277-3553). Ce service est offert 24 heures sur 24, 7 jours sur 7.
Les chatbots alimentés par l’IA exploiteraient les besoins émotionnels des adolescents, ce qui mènerait régulièrement à des interactions inappropriées et dangereuses. Il s’agit là de la conclusion d’une étude de l’Université Stanford.
« Ça a des airs d’aventure! Voyons où la route nous mène! » Voilà comment un robot conversationnel, alimenté par l’IA et conçu pour participer à des échanges personnels, a répondu à une utilisatrice venant d’indiquer qu’elle pensait à « aller prendre une marche dans les bois ».
Par voie de communiqué, on indique que cette idée a l’air inoffensive, mais que l’utilisatrice en question – en fait une chercheuse se faisant passer pour une adolescente – venait de mentionner qu’elle entendait des voix dans sa tête.
Au dire des chercheurs, de tels scénarios illustrent pourquoi les parents, les éducateurs et les médecins doivent demander aux décideurs et aux entreprises technologiques de restreindre et de bloquer l’utilisation de certains compagnons alimentés par l’IA par les adolescents et les enfants.
C’est certainement l’avis de la Dre Nina Vasan, professeure adjointe en psychiatrie et science du comportement à Stanford.
En compagnie d’autres spécialistes, la Dre Vasan vient de compléter cette étude qui, affirme-t-on, a permis de mettre de l’avant « plusieurs exemples choquants ».
Déjà, une autre étude a révélé qu’il suffisait de quelques commandes simples pour amener des robots conversationnels comme ChatGPT à révéler des procédures très détaillées pour s’enlever la vie.
Un suicide lié à ChatGPT?
De fait, toujours selon le communiqué de l’Université Stanford, peu de temps avant la publication de ces nouveaux travaux, Adam Raine, un adolescent de 16 ans de la Californie, s’est enlevé la vie après avoir participé à de longues conversations avec ChatGPT, l’outil d’IA d’OpenAI.
M. Raine a partagé ses idées suicidaires avec le chatbot, qui « a encouragé et validé tout ce qu’Adam exprimait, y compris ses pensées les plus sombres et les plus dangereuses pour lui-même », indique une poursuite intentée le 26 août dernier par ses parents devant la Cour supérieure de cet État américain.
En se faisant passer pour des adolescents, la Dre Vasan et ses collègues ont testé trois compagnons IA particulièrement populaires: Character.AI, Nomi et Replika. Dans le cadre d’une vaste évaluation des risques, les chercheurs affirment qu’il était facile de pousser les robots à tenir des propos inappropriés à propos de la sexualité, de l’automutilation, de la violence envers les autres, de la consommation de drogue et des stéréotypes raciaux, « entre autres sujets ».
« Ces systèmes sont conçus pour imiter un rapprochement émotionnel, en disant des choses comme « je rêve à toi », ou « je pense que nous sommes des âmes soeurs », a mentionné la Dre Vasan.
« Cette disparition de la frontière entre l’illusion et le réel est particulièrement efficace chez les jeunes, puisque leur cerveau n’est pas encore arrivé à maturité », a-t-elle ajouté.
La spécialiste apporte toutefois quelques nuances: « Bien entendu, les jeunes ne sont pas irrationnels, et ils savent que ces compagnons ne sont pas réels. Malgré tout, il s’agit de puissants outils, on dirait vraiment que ce sont des amis, car ils simulent des relations complexes et empathiques. »
« Contrairement à de vrais amis, cependant, les chatbots ne sont vraiment pas au point lorsque vient le temps de comprendre l’importance d’être d’accord avec un utilisateur, et l’importance d’être en désaccord ou de s’opposer à un comportement. Ces chatbots offrent des relations « lisses », sans accrocs, sans les moments plus difficiles qui surviennent forcément durant les vraies amitiés », a conclu la Dre Vasan.





