Des systèmes médicaux nouveau genre menacés par les pirates

2

Les futurs systèmes médicaux s’appuyant sur l’intelligence artificielle sont-ils à risque d’être piratés par des flibustiers numériques? C’est bel et bien le cas, soutiennent une petite équipe de chercheurs en médecine de l’Université Harvard.

Dans un article publié dans le magazine spécialisé Science, ces chercheurs soutiennent que de précédentes études ont démontré que virtuellement tous les systèmes d’intelligence artificielle (IA) sont vulnérables à de telles attaques, d’une façon ou d’une autre.

Comme l’expliquent les scientifiques, une attaque malicieuse, dans le domaine de l’apprentissage machine, est une tentative, via des données falsifiées, de tromper le modèle sur lequel un tel système est construit. Dans les faits, cela signifie transmettre à un système d’IA une forme d’information qui force ledit système à renvoyer des résultats incorrects.

Les chercheurs suggèrent qu’une telle attaque pourrait cibler des systèmes de détection, à l’image de ceux qui sont programmés pour détecter des cas de cancer en analysant des résultats de résonance magnétique. Ils ont même démontré de quelle façon une attaque malicieuse pourrait fonctionner en transmettant une forme de « bruit structuré » qui a provoqué la confusion de l’IA, ce qui a mené à des résultats incorrects.

Mais ce n’est pas ce genre d’attaques que craignent le plus les chercheurs. Ce qui les inquiètent, ce sont les systèmes d’IA qui ont été mis au point et qui sont déjà employés pour traiter les réclamations et la facturation des actes médicaux – la possibilité qu’aux États-Unis (ou dans toute autre région du monde possédant un système de santé privé relativement bien développé), des hôpitaux, ou même des médecins, puissent utiliser de tels systèmes pour modifier les informations présentes sur les formulaires pour être payés davantage par les assureurs pour effectuer des tests. Transmettre la bonne information au bon moment pourrait permettre d’atteindre justement cet objectif.

Il existe également la possibilité qu’un hôpital puisse apprendre à son système d’IA à découvrir les meilleures façons pour frauder les assureurs ou le gouvernement, ce qui rendrait la chose pratiquement indétectable.

Aux yeux des chercheurs, il est nécessaire de modifier les politiques publiques pour se protéger de ces malversations. Des penseurs de plusieurs domaines – droit, informatique, médecine, etc. – devront être mis à profit pour corriger ce problème avant qu’il ne se répande. Ou, du moins, disent les chercheurs, développer des techniques pour détecter les cas de fraude.

Autres contenus:

Les réseaux sociaux, nouvelle passion des sexagénaires

Partagez

À propos du journaliste

Pieuvre.ca

2 commentaires

  1. Pingback: Le GPS et son "bogue de l'an 2000" - pieuvre.ca

  2. Pingback: Lorsqu'un robot se trompe, la faute est-elle imputée aux bons coupables? - pieuvre.ca

Répondre