La question

02/10/2025

Terminator respecte-t-il le droit international humanitaire ?

Terminator, vu par l'IA

Terminator doit distinguer le civil du militaire

Le DIH impose une distinction permanente entre civils et combattants, biens civils et objectifs militaires : on ne frappe que ce qui relève de la cible militaire. Les algorithmes, nourris de capteurs, reconnaissent bien une signature matérielle (un char, un radar), beaucoup moins une intention hostile chez un combattant sans uniforme, mêlé à des civils. Des erreurs de classification peuvent rendre une arme non discriminante par nature, donc illicite.

Le théorème de Sarah Connor

Même face à une cible légitime, l’attaquant doit veiller constamment à épargner les civils. Le talon d’Achille des SALA est la variation soudaine : arrivée de civils, météo changeante, brouillage GPS. Plusieurs États y répondent par l’architecture de contrôle. Ainsi, le Department of Defense américain exige, depuis 2023, des dispositifs de supervision et de désactivation/abstention si l’évaluation l’impose ; la France a défendu, devant le Groupe d’experts gouvernementaux (GGE) en 2025, un contrôle et un jugement humains en amont (conception, programmation), complétés par des règles d’engagement strictes quant au temps, à l’espace et à la mission. Le non-respect du principe de précaution peut être illustré par la scène dans laquelle le Terminator cherche Sarah Connor, future mère du chef de la résistance, et la trouve dans une boite de nuit. Sans se soucier des dommages collatéraux, il tire dans la foule, tuant de nombreuses personnes. Dans une telle situation, l’attaque aurait dû être suspendue de dommages civils excessifs par rapport à l’avantage concret attendu ; si l’on admet, bien entendu, que Sarah Connor est une cible militaire.

Peser la proportionnalité

Si des dommages civils demeurent possibles, l’attaque est illicite s’ils risquent d’être excessifs au regard de l’avantage militaire concret et direct attendu. Or mesurer cet « excès » exige des jugements contextuels difficiles à formaliser. L’Institut des Nations unies pour la recherche sur le désarmement (UNIDIR) plaide pour proscrire les systèmes « non interprétables » dont le calcul ne peut être expliqué (la fameuse boîte noire) ; des exercices menés par le Stockholm International Peace Research Institute (SIPRI) en 2024 montrent qu’une faible erreur d’estimation de la présence civile peut faire basculer l’appréciation de la licéité. En clair : une faible erreur d’estimation suffit parfois à franchir la ligne rouge.

Le DIH proscrit les moyens « de nature à causer des maux superflus ou des souffrances inutiles ». Un système qui privilégie la létalité alors qu’une capture est possible inflige une souffrance non nécessaire. D’où un corollaire technique : prévoir la réversibilité et la modulation de la force ; à défaut, l’arme viole ce principe.

En somme, un Terminator peut respecter le DIH, mais seulement sous conditions strictes : environnement opérationnel structuré où la discrimination est fiable ; supervision humaine apte à intervenir utilement ; paramètres d’emploi encadrés (temps, lieu, mission) ; capacités d’auto-abstention et de désengagement ; traçabilité et explicabilité permettant d’évaluer la proportionnalité. À l’inverse, l’imprévisibilité, l’opacité et l’absence de contrôle humain significatif rendent l’usage juridiquement prohibé. Plus l’autonomie est gouvernée par un pilotage humain et des limites juridiques en amont, plus la machine s’inscrit dans l’État de droit des conflits armés. Sans cela, notre cyborg reste… hors-la-loi.


La question de la part d’humain dans l’IA me renvoie aux interviews menées par ma consœur du SKEMA Centre for Artificial Intelligence (SCAI), Margherita Pagani : aux travaux de Valentina Pitardi qui explique – et ce serait préférable pour nous dans un contexte cameronien – que « les gens sont plus enclins à obéir à un panneau qu’à un robot » ; et aux réflexions du professeur Vinod Aggarwal pour qui l’IA, au-delà du droit, « remet en question les fondements mêmes de l’humanité ». Une question que s’est peut-être posée un autre écorché de la science-fiction, Dark Vador en personne (artificiellement assistée). Vous êtes-vous déjà demandé s’il aurait pu invoquer la légitime défense lorsqu’il tue l’empereur pour défendre son fils ? L’écoute de ce podcast vous le dira.

Aller plus loin

Pr. Valentina Pitardi: “Les gens sont plus enclins à obéir à un panneau qu’à un robot”

On appelle ça la “justice interactionnelle”

Le professeur Vinod Aggarwal présente ses recherches devant le public réuni à SKEMA.
Vinod Aggarwal : “L’IA remet en question les fondements mêmes de l’humanité”

Faut-il encadrer l’innovation ?

PODCAST – Dark Vador aurait-il pu invoquer la légitime défense ?

C’est LA question que personne ne s’est JAMAIS posée.

Partager