Les cybercriminels sont-ils particulièrement portés sur les avancées technologiques? Pas nécessairement, indique une nouvelle étude, qui révèle que ces bandits numériques n’ont pas vraiment intégré l’utilisation de l’IA dans leur travail.
Pour parvenir à cette conclusion, des chercheurs de l’Université d’Édimbourg, de Cambridge et de Strathclyde ont analysé pas moins de 100 millions de publications mises en ligne dans des communautés consacrées à la chose criminelle.
Les résultats sont disponibles sur le serveur de prépublication arXiv.
En fait, indiquent les experts par voie de communiqué, la plupart des cybercriminels, souvent appelés pirates, n’ont pas les connaissances nécessaires pour alimenter un courant d’innovation dans le cadre de leurs activités criminelles.
L’IA utilisée… dans certains cas
Toujours selon l’étude, si l’intelligence artificielle est belle et bien utilisée dans certaines circonstances, cela se produit principalement quand les criminels veulent dissimiler des tendances qui sont détectables par les outils de cyberdéfense, ou encore pour alimenter des robots, sur les médias sociaux, qui mènent entre autres des campagnes de harcèlement, en plus de chercher à frauder des internautes crédules.
Les chercheurs ont analysé les conversations recueillies dans des endroits peu recommandables du web à l’aide d’outils d’apprentissage machine et de techniques d’échantillonnages manuelles, en tentant de trouver des messages indiquant comment les criminels expérimentaient avec les technologies d’intelligence artificielle à partir de novembre 2022, date du lancement de ChatGPT.
Il a ainsi été découvert que les outils de programmation fonctionnant à l’IA sont généralement utilisés par des gens déjà calés en la matière, plutôt que de servir à aplanir la courbe d’apprentissage pour commettre des cybercrimes.
Après tout, écrit-on, les outils d’IA nécessitent une grande quantité de connaissances de base pour s’en servir correctement.
Par ailleurs, les chercheurs ont découvert que ChatGPT et consorts servaient surtout lorsque venait le temps de « préparer le terrain » sur les réseaux sociaux, en se faisant passer pour de vraies personnes, entre autres.
De l’avis des spécialistes, puisque l’industrie de la cybercriminalité est déjà « lourdement industrialisée », s’appuie sur des gens n’ayant besoin que de peu de connaissances techniques, et dépend largement d’outils automatiques, « cela représente une évolution, plutôt qu’une révolution dans les pratiques criminelles ».
Les mesures préventives fonctionnent
Un point positif, dans cette étude: les mesures de protection directement codées dans les instructions des outils d’intelligence artificielle seraient largement efficaces pour réduire l’impact des démarches malveillantes des cybercriminels.
Les chercheurs soutiennent qu’il y a néanmoins lieu de s’inquiéter, après des indications voulant que les communautés criminelles réussissent à manipuler les informations fournies par les robots conversationnels les plus répandus.
Ironiquement, plusieurs contributeurs à ces communautés de criminels ont indiqué avoir, eux aussi, peur de « perdre leur emploi » en raison de l’IA.
Toujours au dire des chercheurs, le plus risqué serait que des criminels mettent la main sur des « agents d’IA », des outils spécialisés qui peuvent agir de façon autonome dans certaines circonstances.
« Les cybercriminels expérimenent avec les outils d’intelligence artificielle, mais selon ce que nous avons constaté, ils n’y trouvent pas vraiment leur compte, pour l’instant », indique le Dr Ben Collier.
« En fait, le vrai danger est du côté des compagnies et des membres du public qui adoptent des systèmes d’IA mal sécurisés, ce qui les rend vulnérables à des attaques dévastatrices pouvant être lancées par des cybercriminels sans trop d’efforts ou sans avoir besoin de grandes qualifications. »





