Par Martin Homo, chef de bataillon, officier des troupes de Marine, stagiaire de la 136e promotion de l’école de Guerre et ancien chef de cabinet du directeur de l’IHEDN
Tribune. La robotique militaire prend quotidiennement de l’ampleur : l’état-major britannique envisage ainsi une proportion d’un robot pour trois combattants à l’horizon 2030. Le robot désigne un système automatisé (SA) évoluant dans les milieux terrestres ou aériens. Lui conférer une pleine autonomie reviendrait à lui octroyer une liberté d’appréciation innée et la capacité à modifier ses règles internes. Armé, il deviendrait un système d’arme létal autonome (SALA), parfois qualifié de « robot tueur ».
Inexistant à ce jour et techniquement immature au regard de l’horizon technologique perceptible, le SALA n’en demeure pas moins un objet d’étude courant et vendeur. Par l’image déformée et l’irrationalité diffuse qu’il produit au sujet de la robotique militaire, le SALA empêche un débat apaisé sur la question robotique et fait peser un risque majeur sur une capacité clef pour l’avenir des forces terrestres françaises. Il semble dès lors légitime de se pencher sur l’argumentaire de ses contradicteurs.
Le danger éthique du robot tueur : la guerre désincarnée
Selon le narratif de ses principaux contempteurs, le SALA permettrait aux armées des démocraties de déroger à une conception de la guerre prétendument contraignante face à des adversaires moins inhibés. La conception française de la conflictualité s’oppose à toute logique désincarnée et dénuée d’empathie. Le fantasme d’une machine tuant froidement et de manière indiscriminée relève de la crainte d’une déshumanisation de la conflictualité.
Se borner à cette légitime crainte revient cependant à nier l’évidence d’une programmation de la machine principalement par l’homme, le ministère des Armées ayant avec force rappelé le rejet définitif de la production ou de l’utilisation de SALA hors de tout contrôle humain, se fondant sur les préconisations fortes de son comité d’éthique. Les forces françaises recourent à la force dans une logique d’altérité clausewitzienne, recherchant l’ascendant et l’imposition de leur volonté, non la destruction aveugle et complète de leurs adversaires. Paraphrasant Clémenceau, l’on pourrait ainsi évoquer « la guerre comme une affaire trop sérieuse pour être délaissée par l’Homme ».
Le risque juridique du robot tueur : la guerre déresponsabilisée
Le SALA serait à dessein exonéré de toute responsabilité dans ses actions, ouverture du feu inclue. Il ferait également écran entre la décision d’engagement et ses conséquences funestes. La responsabilité est au cœur du commandement. Une action militaire doit pouvoir être attribuée, le respect du droit étant un trait majeur des conditions d’engagement militaires françaises.
Les conventions de La Haye et de Genève, régissant le droit « de la guerre » et « dans la guerre », ont imprimé des principes cardinaux dans la conduite d’hostilités : principes d’humanité, de distinction entre combattants et non combattants, de proportionnalité dans l’emploi de la force ou encore de nécessité absolue. Un système apte à reconfigurer seul ses règles d’engagement dans une logique d’efficacité pure, échappant à toute subordination hiérarchique présente ici une probabilité de compatibilité faible avec les principes cités supra.
La responsabilité constitue un second écueil du SALA. L’élément intentionnel d’une infraction étant impossible à caractériser pour une machine, cette dernière ne pourrait se voir reprocher un acte frauduleux. L’imputabilité fluctuerait dès lors entre plusieurs acteurs (utilisateur, chef tactique, industriel auteur des lignes de codes ou même autorité politique), sans qu’une responsabilité directe ou indirecte n’émerge aujourd’hui en doctrine. Le risque réputationnel serait élevé, l’acceptabilité dégradée, la machine frappée d’inemployabilité car générant plus d’aléas que d’avantages.
L’ineptie tactique du robot tueur : la guerre incontrôlée
Le SALA agirait enfin isolément, sur ou au-delà de la ligne de front, assigné à des missions de recherche et destruction. Une telle machine serait ainsi susceptible de s’opposer à tout facteur pouvant entraver l’atteinte de son objectif. Outre la constitution d’un risque pesant sur des forces amies ou des éléments civils présents sur sa trajectoire, un procédé de cet ordre serait tactiquement contre-productif.
La tactique est ontologiquement une volonté d’ordonner le chaos issu de la guerre, en vue de l’atteinte d’objectifs précis. Sa mise en œuvre suppose des valeurs partagées, une discipline librement consentie et un lien de confiance entre le chef et la troupe, toutes notions relevant de l’esprit de corps. Le combat « de subsidiarité » ainsi permis n’est en rien un blanc-seing confié au subordonné. Il consiste en un échange : le subordonné dispose d’une forte latitude pour accomplir sa mission, mais doit à son chef des compte-rendu réguliers sur ses choix et ses avancées, acceptant un veto hiérarchique éventuel.
L’introduction d’un SALA dans cet ensemble complexe reviendrait à y lâcher un franc-tireur incontrôlable, ruinant la confiance le sous-tendant. Le robot « tueur » placerait ainsi l’intégralité de la chaîne de commandement face à des contradictions éthiques, un inconfort juridique permanent et ce sans apporter d’avantage tactique concret. Le fantasme doit céder le pas devant le principe de réalité.
La réflexion dans le domaine de l’IA intégrée à la robotique militaire ne peut s’exonérer des réalités techniques, pas plus qu’elle ne doit remettre en cause nos valeurs fondamentales appliquées à la conflictualité. Ce cadre de réflexion indispensable gagnerait à s’affranchir de toute interférence narrative spécieuse. Le robot tueur doit être tué, afin de permettre à l’Homme de garantir la saine croissance du robot militaire.
Saint-cyrien, le chef de bataillon Martin HOMO est officier des troupes de Marine et stagiaire de la 136e promotion de l’école de Guerre, doctorant professionnel au sein de l’ESCP, et ancien chef de cabinet du directeur de l’IHEDN, il étudie l’influence de la robotisation sur la tactique militaire. En 2022, il fait partie de la promotion des Young Leaders Engagés de l’Institut Aspen France. Martin Homo fait part ici pour Géostratégie magazine d’une analyse ciselée sur la situation de la robotique militaire.