L’IA générative fragilise-t-elle les systèmes informatiques? C’est ce que laisse entendre un spécialiste en informatique, selon qui le recours à de tels outils numériques pour « concevoir, entraîner ou effectuer différentes étapes » au sein d’un système d’apprentissage machine pourrait grandement accroître les risques en matière de cybersécurité.
Dans des travaux publiés dans Patterns, le professeur Michael Lones, professeur à l’Université Heriot-Watt, soutient ainsi que le fait de se tourner vers l’IA générative augmente le danger d’être victime de « cyberattaques, de fuites de données, ou encore de faire preuve de biais à l’encontre de groupes sous-représentés ».
Selon ce spécialiste, donc, il ne faut pas seulement examiner les gains en termes de coûts de développement, mais plutôt tracer un portrait complet de la situation.
« Les développeurs de systèmes d’apprentissage machine (notamment, justement, des outils d’intelligence artificielle, NDLR) doivent être au courant des risques liés à l’utilisation de l’IA générative et trouver un équilibre entre l’amélioration des capacités et les dangers inhérents », affirme-t-il par voie de communiqué.
« En raison des limitations actuelles de l’IA générative, je crois que c’est un bon exemple du fait que ce n’est pas parce que vous pouvez le faire que vous devez le faire. »
Toujours selon le Pr Lones, « si vous utilisez l’IA générative de différentes façons, au sein de vos systèmes d’apprentissage machine, ce logiciel peut interagir de façon inattendue, voire incompréhensible ».

Vous aimez nous lire et nous écouter? Pour continuer de vous offrir nos contenus, nous avons besoin de vous.
Pour seulement 5$ par mois, contribuez au succès de Pieuvre et obtenez l’accès à La Voûte, une série d’épisodes exclusifs du podcast Rembobinage. Abonnez-vous dès aujourd’hui!
L’apprentissage machine est utilisé dans toutes sortes de systèmes et services, que ce soit pour proposer des recommandations sur un site de commerce en ligne, alimenter les algorithmes des médias sociaux, ou encore dans des contextes plus délicats, comme l’évaluation d’une demande de prestations ou un remboursement d’assurance.
Dans le cadre de ses travaux, le chercheur a examiné quatre façons dont l’IA générative est utilisée dans le domaine de l’apprentissage machine: comme composante au sein du processus d’apprentissage, pour concevoir et coder ledit processus, pour synthétiser les données servant à «l’entraînement» de la machine, ainsi que pour analyser les informations produites par l’ordinateur.
Selon le Pr Lones, toutes ces façons de faire comporteraient des risques; l’un des principaux dangers est l’idée que l’IA fasse des erreurs, notamment en « hallucinant » des informations.
« Dans des domaines comme la médecine ou la finance, il existe des lois obligeant à expliquer à quel point les processus d’apprentissage machine sont fiables, et démontrer comment la machine prend des décisions. Dès que vous commencez à utiliser des modèles langagiers (l’IA générative, NDLR), il devient très difficile d’être transparent, parce que les modèles sont opaques », dit-il.
C’est là le concept de « boîte noire » utilisé pour parler de différents systèmes d’intelligence artificielle: on peut connaître les informations qui sont fournies à l’IA, on peut connaître ce que l’IA produit comme résultat, mais il est bien souvent impossible de comprendre comment la machine a pris sa décision.
« Les compagnies vont déployer ces systèmes pour réduire leurs coûts, entre autres, et cela pourrait permettre d’améliorer l’expérience des utilisateurs, mais cela pourrait aussi avoir des conséquences négatives », soutient le Pr Lones.





