Close Menu
Pieuvre
    Facebook X (Twitter) Instagram
    PieuvrePieuvre
    • Accueil
      • Qui sommes-nous?
      • Travaillez avec nous
      • Work with us
      • Abonnez-vous à l’infolettre
      • Encouragez Pieuvre
      • Nos abonnés
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIJM
        • FIL
        • FNC
        • FTA
        • Image+Nation
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • Nuits d’Afrique
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections fédérales 2025
      • Asie
      • Europe
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Jeux préférés de…
        • Rétroctopode
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
      • Dans les coulisses de…
    • Encouragez Pieuvre
    Pieuvre
    Accueil»Technologie»Les armes contrôlées par l’IA sont-elles dangereuses?
    Nous n'en sommes heureusement pas encore au point où des ordinateurs contrôleraient des armes aussi terrifiantes que les robots des films Terminator.

    Les armes contrôlées par l’IA sont-elles dangereuses?

    0
    Par Agence Science-Presse le 8 novembre 2023 Technologie

    Les avancées de l’intelligence artificielle (IA) ouvrent de nouvelles possibilités dans le domaine militaire, pour la création de ce qu’on appelle des armes autonomes. Faut-il s’en inquiéter? Le Détecteur de rumeurs fait le tour de la question.

    Qu’est-ce qu’un « système autonome »?

    Un système est appelé « autonome » si, à partir du moment où il est activé, il fonctionne seul, sans intervention humaine. Il peut s’agir autant d’un système simple comme un grille-pain, que du pilote automatique d’un avion, anticipait en 2016 Paul Scharre, auteur d’un rapport du Center for a New American Security sur le risque opérationnel des armes autonomes.  Les voitures « sans conducteur » que l’on nous promet depuis une dizaine d’années, entrent aussi dans cette catégorie.

    Où en sont les armes autonomes?

    Les systèmes autonomes ont plusieurs applications dans le domaine militaire, observaient des chercheurs du Massachusetts Institute of Technology (MIT) dans un article de 2022. Par exemple, ils peuvent être utiles pour nettoyer un champ de mines ou pour approvisionner les troupes. Mais l’article s’intéressait plus particulièrement aux armes autonomes létales, dans le contexte du développement de l’intelligence artificielle. Et on en parlait depuis longtemps: dès 2016, Paul Scharre entrevoyait que cette automatisation des armes leur permettrait d’être plus précises et de limiter, en théorie, les dommages collatéraux chez les civils.

    De fait, les armes autonomes existent depuis longtemps, rappelait en 2022 Neil Davison, conseiller scientifique et politique principal au Comité international de la Croix-Rouge. Il donnait en exemple les systèmes aériens de défense contre les missiles ou les drones kamikazes, qui sont conçus pour voler au-dessus d’un champ de bataille et détruire certaines cibles prédéterminées —comme des radars ou des chars d’assaut. Dans un texte d’opinion publié en 2018 dans la revue Foreign Policy, Paul Scharre estimait qu’au moins 30 pays utilisaient déjà des armes autonomes pour défendre leurs bases, leurs véhicules et leurs navires.

    L’ajout de l’intelligence artificielle

    L’essor de l’intelligence artificielle (IA) ces dernières années a donc ouvert de nouveaux horizons. L’IA, soulignaient les chercheurs du MIT, permet notamment de concevoir des systèmes avec une vitesse de réaction encore plus grande qu’avec les systèmes informatiques d’avant. Les armes contrôlées par l’IA peuvent également continuer de fonctionner même si elles ne sont plus en mesure de communiquer avec leur base.

    À l’heure actuelle, l’IA est utilisée surtout pour ces drones kamikazes et pour des véhicules aériens sans pilote. Par ailleurs, dès le début des années 2010,  la division militaire du géant sud-coréen Samsung  a développé des fusils sentinelles (sentry gun), capables de reconnaître des cibles humaines puis de tirer sur elles. Dans la même décennie, Israël aurait déployé ce type d’arme à sa frontière avec Gaza.

    Les risques d’erreurs d’une arme autonome

    C’est évidemment arrivé à ce stade que les systèmes autonomes utilisés à des fins militaires deviennent dangereux, s’ils ne fonctionnent pas comme ils le devraient. C’est ce qui était survenu en 2003 au-dessus de l’Irak, rappelle la journaliste spécialisée en technologies militaires Kelsey Atherton. Le système antimissile américain Patriot avait alors abattu par erreur un avion de combat britannique, tuant ses deux pilotes. L’ordinateur du Patriot avait conclu par erreur qu’il s’agissait d’un missile irakien et avait recommandé de faire feu.

    Même si ce système n’était pas à proprement parler « autonome », puisque la décision finale de tirer revenait aux humains, sa capacité à traiter des données avec une grande rapidité était déjà de très loin supérieure aux capacités humaines. Vingt ans plus tard, on a atteint un niveau que peu imaginaient en 2003. Et pourtant, beaucoup de choses, aujourd’hui encore, peuvent amener les armes autonomes à se tromper ou à agir de façon imprévisible.

    • Erreurs de programmation ou de conception du logiciel

    Dans son rapport publié en 2016, Paul Scharre rappelait les résultats d’une étude qui avait conclu qu’on trouve en moyenne de 15 à 50 erreurs par 1000 lignes de code dans un logiciel. Si les programmeurs sont très rigoureux, ce taux peut diminuer jusqu’à 0,1. Dans un système composé de millions de lignes de code, cela laisse inévitablement des erreurs.

    • Problèmes lors de la collecte de données

    Dans la masse de données qu’utilise l’IA pour prendre une décision, la qualité de ces données peut faire une différence, peut-on lire dans un rapport de l’Institut des Nations unies pour la recherche sur le désarmement, publié en 2021. Or, en contexte de guerre, la qualité des données peut être problématique: une mauvaise ligne téléphonique ou une connexion satellite instable, des senseurs mal calibrés, la fumée qui nuit à la visibilité, etc.

    De plus, le risque d’erreur augmente si l’IA a été entraînée avec des données qui ne correspondent pas à celles recueillies dans les conditions de combat, souligne Kelsey Atherton. Par exemple, le système Patriot, en 2003, avait été conçu en présumant qu’il devrait réagir à un nombre important de missiles. Or, pendant son premier mois d’opération, au tout début de la guerre en Irak, il a plutôt été exposé à 41 000 avions alliés et à seulement 9 missiles balistiques irakiens.

    • Cyberattaques

    S’ajoute à cela le fait que les systèmes militaires sont utilisés contre des adversaires qui ont tout intérêt à corrompre les données. C’est d’autant plus préoccupant que l’IA est facile à tromper. Dans une expérience réalisée en 2021 par la compagnie OpenAI, le simple fait de coller une étiquette avec le mot « iPod » sur une pomme amenait le logiciel à l’identifier comme un iPod avec un niveau de confiance de 99,7 %. Une autre expérience menée en 2018 a réussi à rendre un panneau d’arrêt indétectable en lui ajoutant des autocollants.

    • Interactions non prévues avec l’environnement

    Paul Scharre donne aussi l’exemple de huit avions déployés dans le Pacifique en 2007. Lorsqu’ils ont traversé la ligne de changement de date, cela a provoqué un arrêt immédiat des systèmes informatiques. Ce bogue n’avait pas été identifié à l’étape des tests du système.

    Les risques d’escalade

    Tous les systèmes autonomes —militaires ou non— comportent des risques. Les dérapages des agents conversationnels dans la dernière année —ceux qui, par exemple, insèrent de fausses informations dans des textes— le rappellent aussi. Mais le potentiel de dommages est différent avec une arme, et pas uniquement parce que des vies humaines sont en jeu. Un soldat peut lui aussi se tromper et viser la mauvaise cible, mais le risque que plusieurs soldats fassent exactement la même erreur en même temps à plusieurs reprises, est faible. La machine autonome, elle, pourrait effectivement répéter la même erreur jusqu’à ce qu’elle soit mise hors fonction. Dans un contexte politique tendu, prévient Neil Davison, les armes autonomes pourraient accélérer l’utilisation de la force et augmenter le risque d’escalade d’un conflit.

    En raison de la rapidité de l’IA, il est difficile de prévoir combien de temps mettraient les humains avant d’intervenir. En 2018, Paul Scharre faisait un parallèle avec les algorithmes utilisés sur les marchés boursiers, qui prennent des décisions en quelques microsecondes, ce qui peut représenter plusieurs millions de dollars de transactions. Scharre citait aussi le Secrétaire à la défense des États-Unis Robert Work qui, deux ans plus tôt, avait résumé le problème ainsi: « si nos adversaires vont vers des Terminators, et qu’il s’avère que les Terminators sont capables de prendre des décisions plus vite, même si elles sont mauvaises, comment réagirons-nous? »

    Plus tôt cette année, le New York Times donnait la parole à des membres de la communauté militaire inquiets, dans un contexte où des règlementations sur l’IA se font attendre: « personne ne sait vraiment de quoi ces technologies sont capables lorsqu’il est question de développer et de contrôler des armes » et personne n’a la moindre idée « du type de régime de contrôle des armes qui pourrait fonctionner ».

    Une complexité difficile à saisir

    Plus un système est complexe, plus il est difficile pour son opérateur de le comprendre. La complexité d’un système affecte donc la capacité de l’humain à en prévoir le comportement.

    Rappelons à ce sujet que les armes autonomes contrôlées par l’intelligence artificielle se basent sur ce qu’on appelle l’apprentissage machine (machine learning). En d’autres mots, rappelle Neil Davison, ces logiciels s’écrivent eux-mêmes grâce à la grande quantité de données qui leur est fournie pour s’entraîner. Cela signifie que même le programmeur n’en connaît pas la structure interne et peut donc difficilement prédire son comportement.

    Dans certains cas, l’humain pourrait même ne pas être en mesure de réaliser que le système se trompe. Déjà en 2003, les soldats qui utilisaient le système Patriot n’étaient pas en mesure de déterminer si les informations fournies par le système étaient pertinentes. Ils lui ont donc fait confiance et ont accepté sa recommandation de faire feu.

    Verdict

    Les armes autonomes contrôlées par l’IA existent d’ores et déjà, et en dépit des progrès des dernières années, il est acquis qu’elles peuvent encore faire des erreurs. De plus, le potentiel de dommages élevé est inhérent à la nature même de ces systèmes: leur rapidité, qui constitue leur principal attrait aux yeux des militaires, et leur complexité.

    Abonnez-vous à notre infolettre tentaculaire

    Encouragez-nous pour le prix d’un café

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    6 mai 2025

    L’IA raisonne-t-elle aussi mal que les humains?

    1 mai 2025

    Face à des étudiants, ChatGPT a encore des croûtes à manger

    Agence Science-Presse
    • Site web
    • X (Twitter)

    Répondre Annuler la réponse

    Vous cherchez un contenu?
    Abonnez-vous à l’infolettre!

    Suivez-nous
    Dossiers spéciaux
    • Jamais lu
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    • Dans les coulisses de…
    Récemment publié
    8 mai 2025

    Une immigration encore importante, au Québec, mais une fécondité au plus bas

    8 mai 2025

    La Voûte #22: Kill Bill, partie 1

    8 mai 2025

    Sommes-nous de plus en plus anxieux? Oui et non

    8 mai 2025

    ChatGPT n’a pas réussi à prédire le nom du nouveau pape

    8 mai 2025

    L’été s’invite plus tôt avec la troisième saison de Premier trio

    Informations
    • Votre semaine tentaculaire
    • Qui sommes-nous?
    • Contactez-nous
    © 2009-2025 Pieuvre.ca. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.

    Gérez votre confidentialité

    Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.

    Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.

    Fonctionnel Toujours activé
    Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
    Préférences
    L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
    Statistiques
    Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
    Marketing
    Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
    Statistiques

    Marketing

    Fonctionnalités
    Toujours activé

    Toujours activé
    Gérer les options Gérer les services Gérer {vendor_count} fournisseurs En savoir plus sur ces finalités
    Gérer les options
    {title} {title} {title}

    logo

     Ne manquez aucun article ou épisode de podcast: abonnez-vous à l’infolettre!