La question
02/10/2025
Terminator respecte-t-il le droit international humanitaire ?
Oui, sérieusement. Les progrès de l’intelligence artificielle amènent à se poser cette question. Les systèmes d’armes létales autonomes (SALA), alias “robots tueurs”, sont dans la place. Ce qui pose une question de droit, dans cette réalité.

En 2029, selon James Cameron, Skynet expédiera en 1984 un cyborg pour tuer la mère du chef de la résistance. Pure fiction ? L’IA, réelle celle-là, s’est diffusée jusque dans la défense avec les systèmes d’armes létales autonomes (SALA), parfois surnommés « robots tueurs ». Ces systèmes posent un défi inédit au droit international humanitaire (DIH), qui repose sur quatre principes cardinaux. Les robots peuvent-ils s’y conformer ?
Terminator doit distinguer le civil du militaire
Le DIH impose une distinction permanente entre civils et combattants, biens civils et objectifs militaires : on ne frappe que ce qui relève de la cible militaire. Les algorithmes, nourris de capteurs, reconnaissent bien une signature matérielle (un char, un radar), beaucoup moins une intention hostile chez un combattant sans uniforme, mêlé à des civils. Des erreurs de classification peuvent rendre une arme non discriminante par nature, donc illicite.
Le théorème de Sarah Connor
Même face à une cible légitime, l’attaquant doit veiller constamment à épargner les civils. Le talon d’Achille des SALA est la variation soudaine : arrivée de civils, météo changeante, brouillage GPS. Plusieurs États y répondent par l’architecture de contrôle. Ainsi, le Department of Defense américain exige, depuis 2023, des dispositifs de supervision et de désactivation/abstention si l’évaluation l’impose ; la France a défendu, devant le Groupe d’experts gouvernementaux (GGE) en 2025, un contrôle et un jugement humains en amont (conception, programmation), complétés par des règles d’engagement strictes quant au temps, à l’espace et à la mission. Le non-respect du principe de précaution peut être illustré par la scène dans laquelle le Terminator cherche Sarah Connor, future mère du chef de la résistance, et la trouve dans une boite de nuit. Sans se soucier des dommages collatéraux, il tire dans la foule, tuant de nombreuses personnes. Dans une telle situation, l’attaque aurait dû être suspendue de dommages civils excessifs par rapport à l’avantage concret attendu ; si l’on admet, bien entendu, que Sarah Connor est une cible militaire.
Peser la proportionnalité
Si des dommages civils demeurent possibles, l’attaque est illicite s’ils risquent d’être excessifs au regard de l’avantage militaire concret et direct attendu. Or mesurer cet « excès » exige des jugements contextuels difficiles à formaliser. L’Institut des Nations unies pour la recherche sur le désarmement (UNIDIR) plaide pour proscrire les systèmes « non interprétables » dont le calcul ne peut être expliqué (la fameuse boîte noire) ; des exercices menés par le Stockholm International Peace Research Institute (SIPRI) en 2024 montrent qu’une faible erreur d’estimation de la présence civile peut faire basculer l’appréciation de la licéité. En clair : une faible erreur d’estimation suffit parfois à franchir la ligne rouge.
Bannir les maux superflus
Le DIH proscrit les moyens « de nature à causer des maux superflus ou des souffrances inutiles ». Un système qui privilégie la létalité alors qu’une capture est possible inflige une souffrance non nécessaire. D’où un corollaire technique : prévoir la réversibilité et la modulation de la force ; à défaut, l’arme viole ce principe.
En somme, un Terminator peut respecter le DIH, mais seulement sous conditions strictes : environnement opérationnel structuré où la discrimination est fiable ; supervision humaine apte à intervenir utilement ; paramètres d’emploi encadrés (temps, lieu, mission) ; capacités d’auto-abstention et de désengagement ; traçabilité et explicabilité permettant d’évaluer la proportionnalité. À l’inverse, l’imprévisibilité, l’opacité et l’absence de contrôle humain significatif rendent l’usage juridiquement prohibé. Plus l’autonomie est gouvernée par un pilotage humain et des limites juridiques en amont, plus la machine s’inscrit dans l’État de droit des conflits armés. Sans cela, notre cyborg reste… hors-la-loi.
La question de la part d’humain dans l’IA me renvoie aux interviews menées par ma consœur du SKEMA Centre for Artificial Intelligence (SCAI), Margherita Pagani : aux travaux de Valentina Pitardi qui explique – et ce serait préférable pour nous dans un contexte cameronien – que « les gens sont plus enclins à obéir à un panneau qu’à un robot » ; et aux réflexions du professeur Vinod Aggarwal pour qui l’IA, au-delà du droit, « remet en question les fondements mêmes de l’humanité ». Une question que s’est peut-être posée un autre écorché de la science-fiction, Dark Vador en personne (artificiellement assistée). Vous êtes-vous déjà demandé s’il aurait pu invoquer la légitime défense lorsqu’il tue l’empereur pour défendre son fils ? L’écoute de ce podcast vous le dira.
Aller plus loin
Ce sujet vous intéresse ?
Nous vous conseillons de lire ceci.

PODCAST – Dark Vador aurait-il pu invoquer la légitime défense ?
C’est LA question que personne ne s’est JAMAIS posée.

