L’intégration croissante de l’intelligence artificielle et des technologies autonomes dans les opérations militaires redéfinit la collaboration entre l’homme et la machine. Ce concept, connu sous le nom de Human-Machine Teaming (HMT), vise à tirer parti des forces complémentaires des opérateurs humains et des systèmes intelligents pour accroître l’efficacité, la rapidité et la précision des actions sur le terrain. Dans ce cadre, des avancées ouvrent de nouvelles perspectives stratégiques. Cependant, cette évolution s’accompagne de défis fondamentaux où la confiance mutuelle devient désormais primordiale entre humains et machines dans des contextes dans lesquels les décisions peuvent avoir des conséquences irréversibles. Plus qu’un simple progrès technologique, l’interaction homme-machine dans le domaine militaire pose les bases d’une transformation profonde des doctrines, où efficacité opérationnelle et éthique doivent coexister harmonieusement.
Le concept d’équipe homme-machine (Human-Machine Teaming, HMT) est un élément clé de l’évolution des technologies de défense. Loin de remplacer les capacités humaines, ces technologies renforcent la prise de décision militaire en temps réel, la gestion des données, la surveillance et le soutien logistique. L’intelligence artificielle joue un rôle de soutien en automatisant certaines tâches complexes ou répétitives, permettant aux humains de se concentrer sur des décisions stratégiques et tactiques avec une précision et une réactivité accrue.
L’un des défis majeurs dans l’intégration des systèmes d’IA au sein des équipes militaires est d’assurer que ces systèmes soient bien compris et jugés dignes de confiance par les opérateurs humains. La confiance entre les soldats et les machines autonomes ou semi-autonomes est cruciale pour garantir l’efficacité des opérations. En effet, une mauvaise compréhension des systèmes d’IA pourrait entraîner des erreurs graves sur le champ de bataille.
Pour établir cette confiance, les systèmes d’IA doivent être transparents dans leurs processus décisionnels. Cela signifie que les opérateurs doivent comprendre comment les systèmes IA prennent leurs décisions et sur quelles bases. Par exemple, dans des situations de stress élevé, comme lors d’une mission critique, les soldats doivent pouvoir s’appuyer sur l’IA sans remettre en question ses recommandations. L’intégration de systèmes à la fois transparents et explicables aide à bâtir cette confiance, en permettant aux opérateurs de suivre les intentions et le raisonnement derrière chaque action de la machine.
Cependant, un excès de confiance dans ces systèmes peut poser des risques. Une surestimation des capacités des systèmes IA pourrait entraîner une surutilisation ou une dépendance excessive, tandis qu’une confiance insuffisante pourrait limiter leur efficacité en conduisant à un rejet ou à une sous-utilisation des technologies pourtant cruciales. L’équilibre entre explicabilité, transparence et fiabilité est donc un enjeu majeur pour faire de l’IA un partenaire complémentaire aux capacités humaines sur le terrain.
Les applications militaires du Human-Machine Teaming permettent d’augmenter la conscience situationnelle des soldats grâce aux apports de l’IA sur le champ de bataille, tout en favorisant une collaboration en devenir entre l’homme et la machine.
Durant la cérémonie du 8 octobre 2024 célébrant le 60e anniversaire de la première prise d’alerte nucléaire, le ministre des Armées et des Anciens Combattants, Sébastien Lecornu, a annoncé le lancement du développement du drone de combat qui viendra compléter le futur standard F5 du Rafale (post-2030). Le PDG de Dassault Aviation, Éric Trappier, a déclaré lors de la même cérémonie : « Ce drone de combat furtif, concomitant au Rafale F5, contribuera à la supériorité technologique et opérationnelle des ailes françaises à partir de 2033. »
Ce drone, conçu pour le combat collaboratif, intégrera des technologies avancées de furtivité, de contrôle autonome (avec intervention humaine), ainsi que la capacité d’emport en soute. Polyvalent, il pourra s’adapter aux menaces futures et contribuera à l’indépendance stratégique de la France. Le développement de ce drone s’appuiera sur les avancées du programme nEUROn, premier démonstrateur européen de drone de combat furtif. Le tandem formé par le Rafale F5 et ce nouveau drone de combat, avec leurs évolutions à venir, garantira à la France une indépendance stratégique et une supériorité capacitaire durable, comparable à celle qu’offrait le Mirage IV en son temps.
Le programme nEUROn, lancé en 2003, a réuni les ressources de six pays européens sous la direction de Dassault Aviation. Avec un premier vol en 2012 et plus de 170 vols d’essai à ce jour, il a respecté ses engagements en termes de performance, de délais et de coûts. Le développement de ce nouveau drone de combat, officiellement lancé par la Loi de Programmation Militaire (LPM), représente une priorité stratégique pour la France.
De fait, l’importance de ce projet réside non seulement dans l’innovation technologique qu’il incarne, mais aussi dans la consolidation de la souveraineté industrielle et militaire de la France. En effet, le développement d’une telle capacité renforce la position du pays parmi les rares nations capables de concevoir des systèmes de défense aussi complexes. La complémentarité entre le Rafale F5 et le drone de combat illustre l’évolution des doctrines de défense, qui tendent vers une intégration accrue de l’intelligence artificielle et des capacités autonomes tout en maintenant un contrôle humain.
Cependant, cette course à l’innovation technologique pose aussi des défis stratégiques. Elle pourrait notamment impacter le programme SCAF (Système de Combat Aérien du Futur), qui vise à remplacer le Rafale au niveau européen. Le calendrier pourrait être ajusté pour intégrer ces nouvelles technologies, soulevant des questions sur la manière dont ces innovations seront intégrées dans la dynamique européenne, où les intérêts nationaux et industriels doivent être alignés. Cette interconnexion des programmes montre l’importance croissante de la coopération européenne dans le domaine des armements, notamment face à des concurrents comme les États-Unis ou la Chine, qui développent également des systèmes autonomes de plus en plus avancés.
En somme, ce projet de drone de combat furtif reflète la capacité de la France à rester à la pointe de l’innovation technologique dans le domaine militaire. Il pose toutefois des défis en termes de collaboration européenne et de cohésion industrielle, des enjeux centraux dans l’évolution des politiques de défense contemporaines.
Comme évoqué précédemment, les applications militaires de l’intelligence artificielle sont diverses et prometteuses. Toutefois, leur déploiement nécessite de surmonter certains défis, notamment en matière de transparence et d’explicabilité. L’interaction entre humains et machines doit être améliorée, en particulier à travers le développement de systèmes de décision plus complexes qui dépassent les réponses binaires.
L’un des enjeux cruciaux est la capacité à rendre ces technologies plus compréhensibles pour les opérateurs humains. En effet, si l’IA peut analyser des données complexes et fournir des recommandations, il est essentiel que ces recommandations soient fiables et adaptées aux besoins opérationnels. Dans certains contextes critiques, une recommandation avec une fiabilité de 90 % peut ne pas être acceptable, alors qu’elle le serait pour des tâches moins risquées comme une simple recommandation de livre par un algorithme commercial.
De plus, l’IA peut être trompée ou manipulée. Par exemple, des attaques adverses peuvent exploiter des failles dans les algorithmes d’IA, comme l’ajout de bruits invisibles à l’œil humain dans des images pour induire en erreur les systèmes de détection d’armes. Ces vulnérabilités sont un défi important pour la sécurité et nécessitent une approche proactive dans la conception des systèmes d’IA. L’intégration de la cybersécurité dès la conception des systèmes, et non après coup, est essentielle pour minimiser les risques d’attaques et garantir la fiabilité des systèmes dans des environnements critiques. Cela implique également l’utilisation d’IA antagonistes pour tester les systèmes et les renforcer contre les tentatives de manipulation.
Tout compte fait, l’évolution des technologies militaires et l’intégration croissante de l’intelligence artificielle dans les interactions HMT ouvrent des horizons prometteurs pour renforcer la supériorité opérationnelle, mais pose tout de même des questions complexes, notamment sur des enjeux à la fois de : confiance, transparence et responsabilité. Ces derniers constituent des facteurs cruciaux à ne pas négliger afin de garantir l’efficacité des opérations et la sécurité des décisions.
Toutefois, cette synergie ne doit pas se faire au détriment de l’humain ; celui-ci doit rester au cœur des stratégies militaires. La maîtrise des systèmes autonomes et le maintien d’un équilibre entre innovation technologique et contrôle humain sont des défis que les armées devront relever avec lucidité. Ces enjeux ne se limitent pas au champ de bataille stricte mais touchent également à des considérations éthiques, industrielles et stratégiques.
En fin de compte, le HMT représente une avancée technologique, où la construction de cette alliance doit non seulement renforcer nos capacités, mais aussi réaffirmer que la technologie doit toujours rester au service de l’homme, et non l’inverse.
Mathias Comandré et Mattéo Mevellec, analystes au sein de la Commission Innovation de Défense de l’INAS
L’INAS a pour mission de contribuer au débat public sur les questions stratégiques. Ses publications reflètent uniquement les opinions de leurs auteurs et ne constituent en aucune manière une position officielle de l’organisme.
Pour aller plus loin :
© 2025 INAS