Les défis éthiques et les risques de l'intelligence artificielle militaire

L’intelligence artificielle transforme de nombreux domaines, et le militaire n’y fait pas exception. Bien que l’IA puisse offrir un avantage stratégique indiscutable, son intégration dans les opérations militaires soulève également des préoccupations et des risques éthiques tout aussi profonds qui méritent une attention particulière. Cette réflexion vise à examiner ces dilemmes éthiques dans le domaine de l’IA militaire, en particulier en ce qui concerne les impacts des armes autonomes, les biais algorithmiques, la fiabilité des systèmes en situation de guerre, les tentatives internationales de réglementation et les conséquences humanitaires potentielles.

IA militaire

Déléguer la force létale : un dilemme moral

Parmi ces préoccupations, la question la plus urgente est l’utilisation des SALA, ou Systèmes d’Armes Létales Autonomes. Ces armes prennent des décisions d’engagement sans intervention humaine directe. En fin de compte, la question la plus fondamentale est la suivante : est-il moralement acceptable qu’une IA prenne une décision aussi grave, à savoir celle de retirer une vie ou non ?

La prise de décisions létales, comme toute autre question éthique et humanitaire, devrait toujours rester centrée sur l’humain afin de préserver la dignité humaine et la responsabilité morale. Les SALA suscitent des inquiétudes quant au respect d’un aspect essentiel du droit international humanitaire : le principe de distinction entre combattants et non-combattants, ainsi que le principe de proportionnalité des actions. Les machines ne possèdent pas de perspicacité morale ou de capacité de jugement leur permettant d’évaluer des situations complexes sur le terrain, comme l’authenticité d’une reddition ennemie ou la présence de civils, ce qui pourrait entraîner de graves violations des lois de la guerre.

Cela soulève alors la question de savoir qui serait tenu pour responsable en cas d’échec. Si une arme autonome provoque des dommages collatéraux ou des meurtres injustifiables, qui en porte la responsabilité ? Le programmeur, l’opérateur ou le système lui-même ? Cette incertitude pose un dilemme moral unique quant à l’attribution des responsabilités et compromet la confiance du public dans l’utilisation de cette technologie.

Les biais dans les algorithmes militaires

Les systèmes d’intelligence artificielle utilisés dans le domaine militaire peuvent également contenir des biais latents dans leurs données d’entraînement, ce qui peut entraîner des décisions discriminatoires ou simplement erronées dans des contextes de combat, avec des conséquences potentiellement très graves. Par exemple, les systèmes de reconnaissance faciale déployés avec des drones ont été accusés de présenter des biais raciaux, commettant des erreurs lors de l’identification des cibles en fonction de la race des individus concernés. Ce type de mauvaise identification peut conduire à des erreurs militaires majeures et à des pertes parmi les civils.

Ces biais ne proviennent pas uniquement des données, mais peuvent également émaner directement du processus de développement. Les ingénieurs, souvent inconscients de leurs propres biais, peuvent concevoir des modèles qui reflètent ces derniers. Ainsi, il est possible que les schémas existants de discrimination dans la société en général, lorsqu’ils sont intégrés dans l’IA militaire, soient reproduits et potentiellement amplifiés.

Certaines mesures peuvent contribuer à atténuer ces risques : l’audit actif des algorithmes, la diversification des ensembles de données d’entraînement et la sensibilisation des équipes de développement aux questions éthiques en jeu. Intégrer des éthiciens et des spécialistes en sciences sociales dans le processus de conception pourrait également aider à corriger ces biais.

Fiabilité et sécurité des systèmes en situation de guerre

La fiabilité des technologies d’IA militaire est cruciale dans des environnements de guerre très dynamiques et complexes. La possibilité d’une mauvaise interprétation d’informations critiques en raison d’une surcharge d’informations ou de dysfonctionnements techniques est omniprésente, augmentant ainsi le risque d’erreurs graves sur le terrain. Les conséquences peuvent être désastreuses, allant de l’échec de la mission à des pertes humaines évitables.

En outre, ces systèmes sont particulièrement vulnérables aux cyberattaques. Les adversaires auront la capacité de pirater, d’intercepter ou de compromettre ces systèmes critiques dans le cadre des opérations militaires. Des attaques par déni de service ou des manipulations de données pourraient neutraliser la communication entre les machines autonomes et leurs opérateurs humains, créant ainsi des défis supplémentaires quant à la fiabilité des systèmes d’IA en situation de guerre.

Cela souligne la nécessité de protocoles rigoureux pour le test et la validation de ces dispositifs, avec l’intégration de mécanismes de redondance indispensables pour surmonter les éventuelles défaillances. La cybersécurité doit être une priorité absolue, avec des mesures résolues pour protéger les systèmes face aux menaces émergentes en constante évolution.

Régulations Internationales et Efforts de Contrôle

Le débat sur l’interdiction des armes autonomes est au cœur des discussions internationales. De nombreux pays et organisations de la société civile plaident en faveur d’une interdiction complète des SALA, estimant qu’elles représentent des risques majeurs pour le respect du droit international humanitaire et pour l’éthique militaire. Ils redoutent une érosion des valeurs humaines dans la conduite des guerres, où les décisions de vie ou de mort pourraient être entièrement déshumanisées.

Cependant, plusieurs puissances militaires – notamment les États-Unis, la Russie, Israël et l’Inde – ont rejeté une telle interdiction. Elles soutiennent que les contrôles existants sont suffisants et expriment leurs inquiétudes quant au fait que de nouvelles restrictions pourraient freiner le développement technologique et réduire leur avantage stratégique.

Cette division crée une lacune dans la régulation juridique de ces technologies. Une nouvelle course aux armements en IA, sans consensus international, accroît les risques de prolifération incontrôlée en l’absence d’un cadre global. Néanmoins, certaines initiatives mondiales commencent à émerger pour garantir une supervision humaine dans toutes les décisions prises par des systèmes d’IA, en exigeant notamment que toute décision létale soit validée par un opérateur humain.

Conséquences humanitaires de l'utilisation de l'IA militaire

L’utilisation de l’IA dans les conflits armés pose des risques importants pour les populations civiles, principalement en raison d’erreurs de jugement. Un système autonome pourrait mal interpréter une situation complexe, confondant ainsi des civils avec des combattants et prenant une décision correcte selon un critère erroné. Dans les cas où aucune intervention humaine n’a lieu, l’IA peut causer des dommages collatéraux considérables.

À plus long terme, l’adoption massive de l’IA pourrait transformer la nature des conflits. Des combats plus rapides rendraient le contrôle opérationnel plus difficile, et des cycles de violence amplifiés par des décisions automatisées pourraient se poursuivre avec peu de délibérations stratégiques. Cela risquerait non seulement de prolonger les conflits, mais aussi d’augmenter le nombre de victimes civiles et les coûts matériels.

Par ailleurs, les conséquences potentielles pour la stabilité internationale sont tout aussi préoccupantes. Une plus grande dépendance aux systèmes autonomes réduit les opportunités de résolution pacifique des conflits tout en augmentant le risque d’affrontements involontaires. C’est pourquoi il est essentiel que la communauté internationale anticipe ces problèmes et élabore des règles visant à maintenir l’utilisation de l’IA dans les activités militaires sous le contrôle significatif de l’humain.

L’intégration de l’Intelligence Artificielle dans le domaine militaire offre, d’une part, des opportunités stratégiques jusque-là inimaginables, mais, d’autre part, soulève des défis et des risques d’une nature éthique extrêmement préoccupante. Qu’il s’agisse de la délégation de décisions létales à des algorithmes, des biais intégrés dans ces derniers, de la question même de la fiabilité des systèmes ou de leurs conséquences sur l’humanité, tout cela met en évidence la nécessité d’une gestion prudente et responsable de l’IA militaire.

Pour établir des normes et des réglementations adaptées, il sera indispensable que les décideurs politiques, les militaires, les ingénieurs et la société civile collaborent en plaçant ce principe essentiel de contrôle humain au cœur des décisions militaires critiques. La réponse réside dans une approche éthique et réfléchie, qui s’appuie sur les avancées technologiques tout en veillant à préserver les valeurs humanitaires fondamentales applicables aux conflits armés.

Mathias Comandré et Mattéo Mevellec, analystes au sein de la Commission Innovation de Défense de l’INAS

L’INAS a pour mission de contribuer au débat public sur les questions stratégiques. Ses publications reflètent uniquement les opinions de leurs auteurs et ne constituent en aucune manière une position officielle de l’organisme.

Pour aller plus loin :

  • CSET. (2024). Building Trust in AI: A New Era of Human-Machine Teaming.
  • RAND Corporation. (2020). Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World.
  • RUSI. (2024). Challenges in Human-Machine Collaboration in Military Applications.
  • Chatham House. (2024). Military Applications of Artificial Intelligence: The Russian Approach.
  • NATO. (2020). Science & Technology Trends 2020-2040.
  • Ministère des Armées. (2020). Éthique et soldat augmenté : Réflexions du Comité d’éthique de la défense.
  • Royal United Services Institute (RUSI). (2024). Struggling, Not Crumbling: Russian Defence AI in a Time of War.
  • Mitchell Aerospace Power. (2024). Human-Machine Teaming: Enhancing Situational Awareness in Military Operations.
  • Air University. (2024). Accelerating Decision-Making Through Human-Machine Teaming.
  • SpringerLink. (2024). Advent of a New Era in Naval Warfare: Autonomous and Unmanned Systems.
  • USNI News. (2024). New Study Outlines Path for U.S., U.K. Human-Machine Teaming.