WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'utilisation des robots militaires dans les conflits

( Télécharger le fichier original )
par Thomas Sadigh
Université Paris Sud-11 - M2 droit public international et européen 2013
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

L'UTILISATION DES ROBOTS MILITAIRES DANS LES CONFLITS

Figure 1 : Le drone X47-B, de Northrop Grumman

Thomas SADIGH

Mémoire du M 2 droit public international et européen (2012/2013), Université Paris-Sud 11

dirigé par M D. Dormoy

RESUME

Cette étude a pour but d'examiner la légalité et certaines questions relatives à la responsabilité de l'utilisation des robots militaires et notamment les drones dans les conflits. On étudie, en outre dans ce cadre, le degré d'autonomie de ces robots que le DIP autorise.

On confronte ces utilisations aux DIH. L'application du DIH montre que l'utilisation des robots militaires semi autonomes peut être selon les cas de nature à violer l'interdiction des armes de nature à causer des maux superflus, l'interdiction des armes à effets indiscriminés, les principes de distinction, de précaution et de proportionnalité voire la clause de Martens. L'application du DIH à des robots totalement autonomes fait apparaitre 5 violations indépendantes des circonstances de faits et dues à l'autonomie du robot. De tels robots violeraient ainsi les principes de distinction, de précaution et la clause de Martens. Actuellement ces 5 violations que j'ai mises en évidence sont les seules limites que le DIH pose quant à l'autonomie des robots militaires. Hors de ces hypothèses, le DIH s'applique mais permet une autonomie totale du robot (lors de la mobilité du robot principalement). Mais il n'est pas communément accepté en doctrine qu'il est illégal qu'un robot puisse prendre la « décision » d'attaquer de manière autonome. C'est pourquoi, il apparait nécessaire que le DIP interdise spécifiquement que l'initiative d'une attaque soit laissée à un robot.

PLAN

L'UTILISATION DES ROBOTS MILITAIRES DANS LES CONFLITS

Chapitre 1. L'examen de légalité de l'utilisation des robots militaires semi autonomes

I Les faits pertinents : l'utilisation de robots semi autonomes

II Droit applicable

A) Définition juridique des robots militaires

1. Les robots militaires comme arme

2. Autres qualifications

3. Le régime des armes nouvelles armes

B) Etude de légalité de l'utilisation des robots semi autonomes

1. DIP applicable

2. DIH applicable

2.1 Destinataires du DIH

2.2 Eléments du DIH applicable

2.2.1. Le DIH applicables aux armes

2.2.1.1L'interdiction des armes qui causent des maux superflus

2.2.1.2 L'interdiction des armes qui rendent la mort inévitable

2.2.1.3 L'interdiction des armes à effets indiscriminés

2.2.1.4 Les armes interdites désignées dans des conventions

2.2.2 DIH applicable à l'utilisation des robots militaires

2.2.2.1 Le principe de distinction

2.2.2.2Le principe de proportionnalité de l'attaque

2.2.2.3 La nécessité militaire

2.2.2.4 L'obligation de précaution dans l'attaque

2.2.2.5 L'humanité telle que posée dans la clause de Martens

III Application

A) Application du droit relatif à légalité du robot comme arme

B) Application du régime relatif à l'utilisation des robots militaires

IV Conclusion : des préoccupations quant à la légalité selon les cas

Chapitre 2 Le degré d'autonomie que le DIP autorise

I Les faits pertinents : l'utilisation d'un robot totalement autonome

II Droit applicable

A) droit relatif à la légalité

1. Le régime applicable aux armes

2. Le régime de l'utilisation

B) La responsabilité de l'utilisation d'un robot totalement autonome

III Application

A) Application du régime relatif aux armes

B) Application du régime relatif à l'utilisation

IV Conclusion : les illégalités mises en évidences

Chapitre 3. Proposition de régime juridique spécial pour les robots militaires

I Les lacunes du droit

II proposition de régime spécial

L'UTILISATION DES ROBOTS MILITAIRES DANS LES CONFLITS

Le droit international public (DIP) est un outil de la justice dans les rapports entre Etats. Le droit humanitaire (DIH) est le droit qui s'applique aux conflits armés. Les conflits peuvent donner lieu à divers comportements injustes que le DIH permet de combattre.

Je propose d'étudier la manière dont le DIP et en particulier le DIH s'appliquent à l'utilisation des robots militaires dans les conflits.

Actuellement, l'utilisation des robots militaires dans les conflits est en nette augmentation.

En particulier ces dernières années les drones, véhicules aériens, pilotés à distance, aucun homme n'étant à bord, ont été très utilisés. Ils sont pilotés depuis un cockpit situé dans une base militaire, parfois très loin du champ de bataille.

Le fameux drone Predator a été très utilisé ces dernières années par l'armée américaine en Irak et en Afghanistan entre autres. C'est un drone qui est conçu pour des fonctions de surveillance mais qui a été équipé d'un lanceur de petits missiles de croisière.

Les Etats Unis ont mené des exécutions extra judiciaires de terroristes présumés en Somalie, au Yémen et au Pakistan à l'aide de drones. Ces pratiques ne seront pas étudiées.

Dans le cockpit des drones, un pilote et un opérateur dirigent le drone. Ils sont informés de ce que les capteurs du drone relèvent grâce à de nombreux écrans. Le pilote manipule le cockpit comme si c'était le cockpit d'un avion de combat classique. Ils communiquent par radio avec d'autres militaires. Le pilote peut faire feu sur une cible comme le ferait le pilote d'un avion de combat. La portée des missiles des drones est très ample, ils peuvent frapper des cibles très éloignées.

De manière générale, on peut raisonnablement penser que, dans un futur proche, les robots seront encore davantage utilisés par les armées. En outre et cela est la problématique de cette étude, Les capacités techniques d'autonomie des robots seront de plus en plus développées, et du moins de plus en plus disponibles.

Pour donner une définition du robot en physique on utilisera les définitions apportées par Wikipédia et Roboticus.org1 :

Un robot est un agent (capable d'exécuter des tâches) mécanique ou virtuel, guidé par un programme informatique ou bien un circuit électronique. Les robots peuvent être autonomes ou bien semi autonomes.

Un robot doté d'intelligence artificielle (AI) peut adapter l'exécution de ses tâches à un environnement aléatoire (du point de vue du robot). Pour cela, il doit reconnaitre la contrainte puis réagir à celle-ci.

Les contraintes sont perçues par des capteurs (des caméras thermiques par exemple), transmises à un système informatique ou électronique, lequel les analyse. Il associe à ces signaux une réponse qu'il commande au système moteur d'effectuer ou non.

Cette AI repose sur des modèles mathématiques complexes. En plus de capteurs physiques, ces robots peuvent prendre des décisions très complexes et s'appuient également sur un apprentissage de leurs erreurs comme peut le faire l'être humain. On peut schématiser ce fonctionnement :

Figure 2 : Schéma du fonctionnement d'un robot

Dans cette étude, j'analyserai les robots de manière générale car cette étude se veut applicable à tous les robots militaires mais on portera un intérêt particulier aux drones.En effet,cette étude a pour objectif d'étudier les questions soulevées pas la pratique comme l'utilisation de plus en plus fréquente des drones.

L'ensemble des robots militaires inclue des robots très variés et différents. Par exemple, techniquement, un missile de croisière est un robot.En effet, ils sont robotisés, sélectionnent une cible puis une fois tirés, ils sont autonomes. Ils sont guidés grâce à des systèmes de guidage, inertiels, topographiques ou satellites (Les missiles utilisés par les drones Predator sont des missiles de croisière réduits). Mais actuellement ils sont très chers et peu utilisés. En outre ce ne sont pas des robots très « intelligents ». Dans cette étude, les torpilles et mines ne seront pas considérées comme des robots. Les drones par contre, sont très utilisés et leur utilisation soulève de très nombreuses questions juridiques et même au-delà, du champ juridique.

On raisonnera donc de manière générale sur les robots militaires. On parlera de manière générique d'opérateur du robot. L'opérateur est un militaire subordonné au commandant qui manipule le robot, le contrôle, le pilote. L'opérateur contrôle le robot depuis un cockpit, non nécessairement situé à proximité du champ de bataille (grâce à des systèmes de communication par satellite ou radio).

Quel est le droit applicable à l'utilisation de ces robots militaires ? Quels problèmes l'application du droit actuel pose-t-elle, et comment peuvent-ils être résolus ?

Je montrerai d'abord les préoccupations quant à la légalité qui ressortent de l'application du DIP aux robots militaires semi autonomes (Chapitre 1), puis le degré d'autonomie des robots militaires dont le DIP autorise l'utilisation (Chapitre 2), et enfin, les propositions de régime juridiquespécial envisageables (Chapitres 3).

Chapitre 1. L'examen de la légalité de l'utilisation des robots militaires semi autonomes

Dans ce chapitre, on examine la légalité de l'utilisation de robots semi autonomes. Ce sont les robots qui sont actuellement utilisés par les armées et dont l'utilisation est de plus en plus fréquente. L'initiative de l'attaque est contrôlée par un opérateur.

On se trouve en cas de conflit armé : le robot militaire est déployé par l'armée. L'opérateur est un militaire, soumis aux instructions de son commandant.

Comment le DIP s'applique-t-il à des robots ? On dégagera dans une première étape, les faits pertinents et le droit applicable, puis on appliquera ce droit et identifiera les illégalités mises en évidences.

I Les faits pertinents : l'utilisation de robots semi autonomes

On se place dans l'hypothèse d'un conflit armé.

Un robot peut dans cette catégorie, être techniquement semi autonome, capable d'identifier une cible mais il demeure incapable d'initier une attaque ou faire feu. Seul un opérateur humain peut faire feu par une commande en temps réel auprès du système.

Pour simplifier, cette catégorie désigne les robots qui ne peuvent « décider » de manière autonome d'initier une attaque ou bien de faire feu sur une cible identifiée. Si un opérateur ne donne pas la commande en temps réel de faire feu, le robot ne peut en aucun cas initier une attaque. Les fonctions autonomes du robot seraient uniquement par exemple, le décollage, l'atterrissage automatique pour le cas d'un drone, ou bien la capacité d'une mobilité autonome, ou de détecter et d'identifier des cibles et alerter l'opérateur.

Selon le jargon technique il s'agit du cas « human-in-the-loop » que l'on peut traduire littéralement par « humain dans le circuit ». C'est-à-dire que l'interaction d'un humain est nécessaire à une étape de la chaine de fonctionnement du robot pour qu'il effectue sa fonction.

Dans ce cas, l'opérateur décide de tirer et il fait feu (décision et action). L'opérateur pilote le robot semi autonome depuis un cockpit qui peut être situé plus ou moins loin du champ de bataille. Dans le conflit en Afghanistan, certains drones « Predator » étaient pilotés depuis le Nouveau Mexique aux Etats Unis2.

Une nouvelle catégorie plus fine est apparue récemment, dans le jargon technique. Il s'agit du cas « human-on-the-loop » (« personne humaine sur le circuit de fonctionnement du robot »). C'est la situation, dans laquelle le robot est capable de réaliser sa fonction de manière totalement autonome, sans nécessiter l'interaction avec un humain dans le circuit de réalisation d'une fonction. Mais, en particulier lors de la perception de certains stimuli ou bien avant de réaliser certaines fonctions, un opérateur humain peut intervenir et surmonter la fonction automatique du robot. L'opérateur peut,entre autre, empêcher la réalisation d'une fonction par le robot. Par exemple on peut imaginer un robot qui détecterait une cible comme devant être frappée, mais avant de tirer automatiquement, le systèmealerte l'opérateur humain. Alors ce dernier exerce un contrôle sur la fonction « tirer sur la cible » du robot. Il peut intervenir dans le circuit pour empêcher une telle attaque ou manoeuvrer le tir lui-même ou ne rien faire. Cette catégorie semble correspondre aux robots que l'armée américainesouhaite développer3.

Je n'étudierai pas cette catégorie car d'un point de vue juridique, cela fait simplement basculer l'étude juridique dans le cas « human-in-the-loop » ou bien le cas « human-out-of-the-loop ». En effet, si le militaire est alerté par le système et décide de prendre le contrôle de la machine, soit pour lui-même tirer sur la cible, soit pour décider de ne pas tirer sur la cible, le régime juridique applicable sera le même que dans les cas « human-in-the-loop ». C'est le régime applicable à l'utilisation de toute arme.

Si le militaire est alerté par le système, mais décide de ne pas intervenir et que le robot initie l'usage de la force ou tire sur la cible, de manière autonome, alors, le régime applicable est le même que dans le cas « human-out-of-the-loop ». Juridiquement, ce cas s'analyse de manière différente et inédite.

La pratique actuelle est l'utilisation de robots militaires avec « human-in-the-loop ».

II Droit applicable

On se propose d'étudier la « silhouette » du régime juridique applicable à l'utilisation des robots militaires. On dégagera en particulier le droit applicable à cette utilisation.

On peut d'abord se demander comment les robots militaires sont définis en DIP. Comme je le démontrerai, les robots militaires soit semi (ou totalement)autonomes, peuvent être qualifiés d'arme.

A) Définition juridique des robots militaires

1. Les robots militaires comme arme

Les robots militaires sont-ils des armes ? On se situe dans le DIP général mais celui-ci ne donne pas de définition d'une arme. Si on recherche dans la sous branche du DIH, on trouve plusieurs conventions internationales qui donnent des listes d'armes spécifiques (interdites). Ces armes sont définies juridiquement. Elles sont décrites de manière technique, désignées par leur nom dans les utilisations par les Etats, mais là encore dans le DIH, il n'y a pas de définition juridique générale d'une arme.

Au-delà, en DIH les armes sont désignées de manière générale, dans les conventions de Genève par exemple. Leur utilisation est ainsi en général, soumise à un régime juridique que l'on étudiera plus loin.

En l'absence de définition générale, on peut appliquer une interprétation d'après l'article 31 de la Convention de Vienne de 1969, qui dispose :

« Un traité doit être interprété de bonne foi suivant le sens ordinaire à attribuer aux termes du traité dans leur contexte et à la lumière de son objet et de son but. »

Dès lors, la définition courante d'une arme remplit les conditions de cet article 31. E David que j'ai pu contacter considère que cette définition courante peut être utilisée. On peut alors utiliser la définition que donne un dictionnaire : d'après le Larousse en ligne, une arme est :

« Tout objet, appareil, engin qui sert à attaquer (arme offensive) ou à se défendre (arme défensive) ».

On peut ainsi, qualifier les robots militaires d'armes, qu'ils soient semi autonomes ou bien totalement autonomes.

Il y a une difficulté supplémentaire : le robot militaire est un ensemble mais il porte souvent une arme de tir, autonome, que des soldats dans des situations différentes utilisent eux-mêmes directement. Par exemple, le « Foster-Miller TALON »4, mini tank, téléguidé peut porter des mitraillettes « M249 ». Comment qualifier cet ensemble? Le jargon militaire américain parle de « systèmes d'armes ».

Mais juridiquement, si l'on reste sur la définition courante d'une arme, un robot militaire même équipé d'une arme reste « un engin qui sert à attaquer... ».

L'ensemble est donc une arme, elle-même, composée d'une arme.

En outre, qualifier les robots militaires d'armes ne semble pas contrarier l'objet et le but des traités de DIH.

Donc, dans cette étude, on qualifierales robots militaires, d'armes.

Alors, lorsque le DIH prévoit des régimes applicables aux « armes » de manière générale, on considérera que ces régimes sont applicables aux robots militaires. Dans certaines autres hypothèses on qualifiera les robots militaires autrement que comme « armes ».

2. Autres qualifications

Cette qualification des robots militaires comme armes n'exclue pas que selon l'utilisation qui en est faite, ces derniers ne puissent être qualifiés d'objets juridiques autres que des armes. En particulier, les drones, peuvent être qualifiés d'aéronefs. En effet, d'après la convention de Chicago de 1944 telle qu'actualisée, annexe 7, un aéronef est :

« Toute machine capable de se soutenir dans l'atmosphère par les réactions de l'air autres que celles de l'air contre la surface de la Terre. »

C'est-à-dire tout engin autre qu'un simple planeur. On remarquera que la Convention de Chicago pose un régime juridique pour les aéronefs civils mais la définition de l'aéronef qu'elle comporte est plus large et s'applique aussi aux aéronefs militaires.

De manière plus générale, les robots militaires peuvent être qualifiés autrement que comme « armes ».

En conclusion, selon mon analyse, on peut qualifier les robots militaires d'armes en DIH. Cette qualification englobe de nombreuses hypothèses de fait rencontrées dans la pratique. Pour les autres hypothèses de fait, on peutenvisager d'autres qualifications. Dans cette étude, on se limitera principalement à qualifier les robots militaires comme « armes ».

Dès lors que les robots militaires sont ainsi qualifiés, on peut rechercher comment le DIP s'applique à ces objets juridiques.

3. Le régime des armes nouvelles armes

En DIH, la recherche et le développement de nouvelles armes par les Etats parties est limitée. Les Etats doivent se conformer au DIH. Donc ils ne peuvent évidemment pas utiliser une arme qui violerait le DIH. Le DIH va plus loin car il pose une obligation de moyens sur les Etats qui consiste à ce que dès le stade de « recherche/ développement », les Etats de leur propre initiative, examinent la légalité de la nouvelle arme qu'ils sont en train de développer.

Cette règle est esquissée dès la Déclaration de St-Pétersbourg de 1868, dernier alinéa, et actuellement posée à l'art 36, PA 1 :

« Article 36 -- Armes nouvelles

Dans l'étude, la mise au point, l'acquisition ou l'adoption d'une nouvelle arme, de nouveaux moyens ou d'une nouvelle méthode de guerre, une Haute Partie contractante a l'obligation de déterminer si l'emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent Protocole ou par toute autre règle du droit international applicable à cette Haute Partie contractante. »

Cette obligation peut paraitre faible mais les Etats qui développent de nouvelles armes ont intégré cette règle parmi leurs obligations internationales. Les statistiques de 20065 indiquent que 9 Etats (Etats Unis, Pays Bas, Norvège, Suède, France, Belgique, Royaume Uni, Allemagne, Australie) ont mis en place des procédures formelles internes de contrôle de la légalité internationale des nouvelles armes qu'ils développent. Tous, sont des Etats occidentaux. On peut remarquer que la Russie et la Chine, Etats communistes, d'après ces chiffres n'ont pas de mécanisme de contrôle connu en 2006.

Un robot militaire peut être qualifié d'arme nouvelle. Leur conception, selon les modèles est bien nouvelle. En outre, même pour ceux plus anciens, ils sont régulièrement améliorés technologiquement ce qui permet de considérer les nouveaux modèles améliorés comme des nouvelles armes.

Les Etats Unis étant les leaders de la production de robots militaires. Il est intéressant de se pencher sur le mécanisme qu'ils ont mis en place. Le mécanisme a été mis en place avant même l'adoption du PA 1, auquel ils ne sont pas partie par une directive6 du « Department of Defense » (DoD). Dès 1979. L'armée a ainsi mis en place des mécanismes internes de contrôle de légalité internationale de « toutes armes ou systèmes d'armes... » au sein des composantes pertinentes du DoD. Un organe juridictionnel militaire du DoD saisi par un responsable militaire procède à cet examen (Rapport du CICR de 2006). Cela montre que l'obligation de contrôler la légalité par une procédure est respectée pour le cas des Etats Unis.

B) Etude de légalité de l'utilisation des robots semi autonomes

En cas de conflit armé, il y a application cumulative de 2régimes juridiques : Le DIP des droits de l'Homme s'applique de manière indifférente d'une part et d'autre part, le DIH s'applique en tant que droit spécial. C'est-à-dire que s'il y a contrariété entre le DIH et le DIP des droits de l'Homme (DH), le DIH prime le DIP des droits de l'Homme et s'applique sans restriction.

En effet d'après la CIJ, dans l'avis « du Mur » (CIJ, avis Conséquences juridiques de l'édification d'un mur..., 9/7/2004 para. 106) :

« De manière plus générale, la Cour estime que la protection offerte par les conventions régissant les droits de l'homme ne cesse pas en cas de conflit armé... »

La CIJ qualifie plus loin dans ce même paragraphe le DIH de « lexspecialis » par rapport au DIP des DH dans les situations de conflit armé.

Dès lors, l'utilisation de robots militaires dans un conflit armé est soumise au DIP des droits de l'Homme et au DIH en tant que droit spécial.

On étudiera premièrement le DIP des DH applicable, puis le DIH applicable.

1. DIP applicable

Le droit international des droits de l'Homme, est de source conventionnelle ou coutumière. Les conventions pertinentes pour cette étude sont la déclaration universelle des droits de l'Homme du 10/12/1948 et le pacte international relatif aux droits civiques et politiques du 16/12/1966. La coutume apporte des éléments, notamment l'interdiction de la torture.

La déclaration universelle des droits de l'Homme protège en particulier le droit à la vie (art 3), elle interdit la torture (art 5), elle reconnait aussi le droit à un recours effectif devant les juridictions nationales compétentes contre les actes violant les droits qui lui sont reconnus par la loi (art 8).

Le pacte international relatif aux droits civiques et politiques, protège le droit à la vie (art6) et interdit la torture (art 7).

Le DIH protège très largement les personnes civiles et les militaires. On pose l'hypothèse qu'il s'applique de manière spéciale pour l'utilisation des robots militaires donc on ne développera pas le DIP des DH.

2. DIH applicable

Le DIH fait peser sur les Etats un certain nombre d'obligations. Les obligations applicables à l'utilisation des drones sont : Les obligations quant aux armes, et les obligations relatives à la conduite des hostilités qui régissent en particulier l'utilisation des robots militaires.

2.1 Destinataires du DIH

Le DIH est de source conventionnelle ou coutumière. Les Etats sont liés par les conventions de DIH c'est-à-dire le droit « de La Haye » et les conventions « de Genève »(CG)dans la seule mesure de leur ratification ou adhésion aux traités. En effet, conformément au droit des traités de la convention de Vienne, les Etats peuvent faire des réserves aux traités auxquels ils adhèrent. Il faut remarquer pour donner une idée de la pratique que la quasi-totalité des Etats sont membres des CG. 173 Etats sont partie au protocole 1 (PA 1). Mon étude est générale et ne concerne pas les seules obligations de tel ou tel autre Etat. Je ferai l'hypothèse que le DIH dans son ensemble est applicable. Pour déterminer les obligations particulières d'un Etat, il revient au lecteur de chercher si l'Etat est bien partie aux conventions applicables et si oui dans quelle mesure.

Donc le DIH est dans notre hypothèse, applicable aux Etats.

Dès lors, il est applicable aux Etats en tant que sujet de DIP mais aussi aux organes de l'Etat dont le comportement est imputé à l'Etat.

En effet, en DIP général, d'après l'article 4 du projet d'articles sur la responsabilité de l'Etat pour fait illicite :

« 1. Le comportement de tout organe de l'Etat est considéré comme un fait de l'Etat d'après le droit international [...]

2. Un organe comprend toute personne ou entité qui a ce statut d'après le droit interne de l'Etat. »

Pour rappel, Le projet d'article se voulait codification de la coutume internationale mais a incorporé des adaptations de la coutume par un phénomène de développement progressif du droit. Cela étant le projet d'article a été largement utilisé dans la pratique et entre autres dans la jurisprudence internationale. Cette jurisprudence a quasiment donné aux articles 4 et 5 une valeur coutumière.

Le corps de l'armée et les militaires sont des organes de l'Etat par définition. Le droit interne très souvent retranscrit cela, ce qui permet d'appliquer le 2. de l'article 4. Dans la pratique, qualifier l'armée, un corps de l'armée ou un militaire individuel d'organe de l'Etat, ne soulève pas de difficulté particulière. La CIJ examine très succinctement la qualification du droit interne puis conclut (voir par exemple : CIJ, affaire des activités armées sur le territoire du Congo, 19/12/05, para. 213).

Dès lors, une violation du DIH par un organe de l'Etat est imputable à l'Etat en DIP. Sous un autre angle cela permet de dire que, les militaires en tant qu'organes de l'Etat sont tenus de respecter le DIH. Cet aspect est particulièrement pertinent dans notre étude. Car ce sont les militaires qui utilisent les robots militaires au sens propre. Un certain nombre des obligations pesant en amont sur l'Etat en vertu du DIH applicable, pèse ainsi en bout de chaine, intégralement sur les militaires qui utilisent les robots militaires.

2.2 Eléments du DIH applicable

On présentera une synthèse des règles pertinentes applicables à notre cas.

2.2.1. Le DIH applicables aux armes

C'est-à-dire le droit applicable aux armes indépendamment de leur usage.

Quel est le régime applicable aux armes en DIH ?

Le DIH interdit de manière générale, certaines armes en ce qu'elles présentent certaines caractéristiques intrinsèques. En outre, de manière spéciale, le DIH interdit des armes particulières, identifiées sur la base de conventions. Ces armes spécialement interdites, sont communément illégales par ailleurs en ce qu'elles présentent les caractéristiques que le DIH interdit de manière générale.

Pour déterminer si les robots militaires sont légaux ou non eneux-mêmes, indépendamment de leur utilisation, il faut rechercher s'ils correspondent aux armes interdites, auquel cas, ils sont interdits. Il existe divers robots militaires mais ils présentent certaines caractéristiques communes. Ainsi, on peut examiner le droit qui leur est applicable de manière commune au regard du DIH.

Les armes interdites sont celles qui causent des maux superflus, celles qui rendent la mort inévitable,celles indiscriminées et enfin celles spécialement désignées et interdites dans des conventions internationales.

2.2.1.1 L'interdiction des armes qui causent des maux superflus

C'est une règle ancienne, intégrée dans le PA 1. D'après l'art 35§2 de ce dernier, l'utilisation d'armes qui causent des maux superflus est interdite :

« Il est interdit d'employer des armes, des projectiles et des matières ainsi que des méthodes de guerre de nature à causer des maux superflus. »

Que sont les maux superflus ? Pour E David, Il y a 2 manières d'interpréter cette règle et le DIH ne fait pas clairement de choix entre les 2 interprétations :Il faut,

_soit mettre en balance les maux causés aux combattants touchés avec l'avantage militaire que l'attaque apporte à la partie,

_ou bien mettre en balance les maux causés avec l'objectif de mettre le combattant attaqué hors de combat.

Si les maux causés sont superflus par rapport à l'un ou l'autre objectif selon l'interprétation que l'on donne à l'article, alors l'arme est interdite.

Selon M. N. Schmitt, les maux qui ne remplissent aucun but militaire7 sont superflus.

Cette interdiction des armes qui causent des maux superflus est coutumière et applicable dans les conflits armés non internationaux (DIH coutumier, règle 70).

Si l'arme utilisée est un robot militaire, il faut qu'en tant qu'ensemble il soit qualifiable d'arme légale. On ne doit pas examiner de manière autonome, la légalité de l'arme que le robot porte. Cela ne permet pas de déduire une solution quant à la légalité du robot en tant qu'ensemble. Il faut rester sur l'hypothèse que l'arme dont on examine la légalité est l'ensemble du robot équipé d'armes.

Dans notre étude, on doit donc rechercher si le robot militaire est de nature à causer des maux superflus.

Il est nécessaire de relever un problème. Comme le commentaire du protocole de 1986 le remarque cet article donne lieu à des interprétations diverses par les Etats. Le texte interdit en elles-mêmes des armes qui présentent pour caractéristique de causer par nature des maux superflus. On s'en tiendra au texte dans cette étude car dès le commentaire du protocole, il apparait des incohérences que les auteurs répètent. On ne s'engagera pas sur cet autre débat.

2.2.1.2 L'interdiction des armes qui rendent la mort inévitable

Cette règle est posée par le préambule de la déclaration de St-Pétersbourg de 1868. Ce préambule dispose que :

«... ce but (le but légitime de la guerre) serait dépassé par l'emploi d'armes qui aggraveraient inutilement les souffrances des hommes mis hors de combat ou rendraient leur mort inévitable ; »

Remarquons avec insistance qu'il est n'est pas interdit que les armes rendent inévitables la mort des combattants ennemis mais seulement celle de ceux « mis hors de combat ». Si on replace cette règle dans son contexte, vu le « but légitime » de la guerre, il apparait que les auteurs veulent limiter « les calamités de la guerre ». Ainsi sans être excessivement idéalistes ils posent cette règle qu'une arme ne doit pas rendre inévitable la mort d'un combattant alors qu'il est déjà mis hors de combat.

Cette règle est applicable dans l'hypothèse où un combattant utilise un robot militaire contre son ennemi.

2.2.1.3 L'interdiction des armes à effets indiscriminés

D'après l'article 51 4. Du PA 1, les armes à effets indiscriminés sont interdites. En effet, celui-ci dispose :

« 4 ... « attaques sans discrimination » s'entend : [...]

b) des attaques dans lesquelles on utilise des méthodes ou moyens de combat qui ne peuvent pas être dirigés contre un objectif militaire déterminé ; ou

c) des attaques dans lesquelles on utilise des méthodes ou moyens de combat dont les effets ne peuvent pas être limités comme le prescrit le présent Protocole ; et qui sont, en conséquence, dans chacun de ces cas, propres à frapper indistinctement des objectifs militaires et des personnes civiles ou des biens de caractère civil. »

Selon M. Schmitt, professeur au United States Naval WarCollege, le 4 (b), d'une part, interdit les armes ne pouvant en aucun cas être dirigées contre un objectif militaire déterminé. Celles-ci sont interdites en elles-mêmes7.

D'autre part, le 4 (c), interdit, dans certains cas, l'usage d'armes pouvant être ciblées contre un objectif militaire déterminé, mais, qui même alors produisent des effets indiscriminés rendant l'arme illégale.

On remarque que selon cette interprétation, l'arme est illégale en fonction de son utilisation dans certains cas.

En effet, comme le commentaire de l'article le montre (point 1962), l'alinéa c) ne désigne pas des armes à effets indiscriminés, par leur nature intrinsèque indépendamment des circonstances. Cet alinéa interdit en tant qu'armes à effets indiscriminés, des armes qui selon les « situations » ou « circonstances » impliquent plus globalement une attaque sans discrimination.

E. David utilise la qualification d' « armes à effets indiscriminés », interdites en elles-mêmes, en se fondant, entre autres, sur une interprétation du §4 de l'art 51, dans son ensemble.

2.2.1.4 Les armes interdites désignées dans des conventions

Il existe une série de conventions internationales qui interdisent spécifiquement telles ou telles armes désignées nommément dans les conventions. Aucune convention n'interdit de robots militaires. Ni de manière générale, ni aucun robot particulier.

Mais il est possible dans la pratique, d'équiper un robot militaire de certaines de ces armes.

Or,si le robot est équipé d'une arme interdite par exemple, utilisant des balles « dum-dum », cela rend l'arme globale interdite.

Démontrons cela :

Les armes non conventionnelles sont interdites en tant que telles. Donc cela ne dépend pas de leur utilisation. On pourrait concevoir qu'un robot équipé d'une arme non conventionnelle soit très précis et puisse satisfaire aux exigences générales du DIH malgré l'arme non conventionnelle utilisée. Mais même si cela était le cas, juridiquement si l'arme est interdite en tant que telle, elle ne peut être portée par un robot.

Selon une autre interprétation, on pourrait considérer qu'un robot militaire équipé d'une arme non conventionnelle, est une arme globale juridiquement autonome de l'arme non conventionnelle dont il est équipé, et ainsi lui-même éventuellement légal. Mais alors, si on examine pour chaque arme non conventionnelle, la légalité de l'ensemble « robot + arme non conventionnelle », il apparait que l'ensemble entre lui-même toujours sous la qualification de l'arme interdite.

Donc, si une telle arme interdite est portée par le robot, alors le robot militaire est qualifiable d'arme interdite. Il ne peut plus, en aucun cas être utilisé légalement.

Mon raisonnement consiste à se demander pour chaque arme interdite, listée par E. DAVID, (sauf les lance-flammes)si elle pourrait être portée par un robot. Si oui, alors je considère que l'interdiction concernée est pertinente pour cette étude. Cette démarche nous donne au final comme liste d'armes interdites pertinentes, la liste initiale exhaustive de toutes les armes interdites.

En effet, elles pourraient toutes être portées par un robot. Par exemple, les nouvelles technologies des armes nucléaires, permettent de fabriquer des têtes nucléaires de plus en plus petites. On peut raisonnablement imaginer dans un futur proche, qu'il soit possible technologiquement, de concevoir des drones aériens ou robots terrestres capables de lancer des petites têtes nucléaires.

Ces armes interdites pertinentes sont donc :

_Les projectibles d'un poids inférieur à 400g explosibles ou chargés de matières fulminantes ou inflammables,

Elles sont interdites d'après la déclaration de St-Pétersourg du 29/7/1899.

_Les balles dum-dum,

Interdites par la déclaration de La Haye (IV, 3) de 1869. Règle coutumière applicable aux CANI (DIH cout, règle 77).

_Les gaz asphyxiants, toxiques ou similaires et autres armes chimiques,

Interdits par la déclaration de La Haye (IV, 2) du 29/7/1899 concernant les gaz asphyxiants. Puis entre autres, la Convention de Paris du 13/1/1993 concernant les armes chimiques. Règle coutumière et applicable dans les CANI (DIH cout, règle 7).

_Le poison et les armes empoisonnées,

Utilisation interdite par l'art 23 du règlement de La Haye de 1907

_Les mines et les torpilles sous-marines,

Interdites par la 8ème convention de La Haye relative à la pose des mines sous-marines de contact.

_Les armes bactériologiques,

Interdites par le protocole de Genève du 17/6/1925.

_Les armes nucléaires,

Interdites de manière limitée par l'avis consultatifs de la CIJ du 8/7/1996 (para. 97) :

« En conséquence, au vu de l'état actuel du droit international pris dans son ensemble, tel qu'elle l'a examiné ci-dessus, ainsi que des éléments de fait à sa disposition, la Cour est amenée à constater qu'elle ne saurait conclure de façon définitive à la licéité ou à l'illicéité de l'emploi d'armes nucléaires par un Etat dans une circonstance extrême de légitime défense dans laquelle sa survie même serait en cause. »

_Les armes qui modifient l'environnement,

Interdites par la convention des Nations Unies du 10/10/1976.

_Les projectiles à éclats non localisables aux rayons X

Interdits par les conventions des NU du 10/10/1980, protocole 1er. Cette interdiction est moins pertinente car il semble que ces projectiles soient lancés par des armes dont le champ de tir n'est pas très ample, alors que les robots militaires seraient plutôt équipés d'armes dont la distance de tir est plus ample.

_Les mines et pièges terrestres

Interdites par la convention des NU de 1980 précitée ainsi que par la convention d'Oslo et d'Ottawa du 18/9/1997.

_Les armes incendiaires

Leur utilisation est limitéepar la convention des NU de 1980, protocole 3, précitée

_Les armes à laser

Interdites par la convention des NU de 1980, protocole 4. L'utilisation de laser pour cibler un objectif militaire n'est pas interdite. Les drones par exemple utilisent des lasers pour cibler et diriger leurs tirs.

_Les sous munitions et les restes explosifs de guerre

Interdits par le protocole 5 de la convention des NU de 1980 et par la convention de Dublin/ Oslo de 2008 « ASM ».

En conclusion,ce régime n'interdit pas les robots militaires en général s'ils ne sont pas équipés d'armes non conventionnelles. Dès lors comment est régie leur utilisation ?

2.2.2 DIH applicable à l'utilisation des robots militaires

De manière générale, le DIH lie les Etats donc les obligations pèsent sur les commandants et les opérateurs en tant qu'organe de l'Etat. Le DIH indique parfois précisément que certaines obligations s'appliquent aux commandants (art 57 infra).

2.2.2.1 Le principe de distinction

D'une part l'utilisation des robots militaires doit respecter le principe de distinction entre les cibles autorisées, seules cibles légales et les cibles protégées par le DIH qu'il est interdit d'attaquer.

On peut qualifier le robot militaire d' « arme », ou bien de « moyen » ou de « méthode de combat ». L'utilisation de ces robots est de manière générale soumise au principe de distinction.

Ce principe est posé notamment aux articles 48 et 51 du 1er PA.

Cette règle revêt en outre un caractère coutumier et elle est codifiée dans le code de DIH coutumier à l'article 1. La formulation de la règle dans le PA 1 montre le droit applicable pour les conflits armés internationaux.

_« art 48

les parties [...] doivent en tout temps faire la distinction entre la population civile et les combattants ainsi qu'entre les biens de caractère civil et les objectifs militaires [...] ne diriger leurs opérations que contre des objectifs militaires. »

Cet article pose un principe ancien mais son expression reflète le droit actuel. Les personnes protégées sont « la population civile ».Il est précisé « en tout temps ». Cela exclut des exceptions au principe éventuellement liées aux circonstances.

Cette règle s'applique aux « opérations » des parties. L'utilisation d'un robot militaire par un opérateur, peut être qualifiée d'opération ou bien d'attaquefaisant partie de l'opération. L'ordre donné par un commandant d'en utiliser, s'inscrit aussi dans les opérations, et est donc aussi soumis à ce régime.

D'après cet article, seuls les combattants et les objectifs militaires peuvent être pris pour cible par l'opérateur du robot. L'obligation pèse sur les opérateurs et commandants.

_« art 51

3. Les personnes civiles jouissent de la protection accordée par la présente section, sauf si elles participent directement aux hostilités et pendant la durée de cette participation.

4. Les attaques sans discrimination sont interdites. L'expression « attaques sans discrimination » s'entend :

a) des attaques qui ne sont pas dirigées contre un objectif militaire déterminé ;

[...]

5. b) les attaques dont on peut attendre qu'elles causent incidemment des pertes en vies humaines dans la population civile, des blessures aux personnes civiles, des dommages aux biens de caractère civil, ou une combinaison de ces pertes et dommages, qui seraient excessifs par rapport à l'avantage militaire concret et direct attendu. »

Cet article 51,au 3. précise le principe de distinction et fait perdre leur protection aux civils qui participent directement aux hostilités tant que cette participation dure.

Puis au 4. Il est posé l'interdiction de lancer une attaque non dirigée vers un objectif militaire déterminé. Les règles posées au 4. (b) et (c), sont applicables aux robots militaires en tant qu'armes indépendamment de leur utilisation comme cela a été démontré plus haut.

Le 5. qualifie de « sans discrimination » une attaque qui produit des destructions collatérales disproportionnées sur des cibles protégées par le DIH. De mon analyse, cette règle pourrait se classer dans l'obligation que l'attaque soit proportionnée plutôt que dans la qualification d'attaque indiscriminée.

Juridiquement, il s'agit d'une hypothèse dans laquelle le caractère disproportionné fait relever l'attaque du régime du principe de distinction. Une telle attaque est ainsi qualifiable de « disproportionnée » et d' « indiscriminée ».

Vu, la définition de l'attaque à l'art 49 et le commentaire de l'article 57 du PA 1, cette obligation pèse sur le commandant et sur l'opérateur.

Les opérateurs ne doivent ainsi pas utiliser des robots militaires semi autonomes, s'ils peuvent s'attendre à ce que cette utilisation cause des dommages collatéraux disproportionnés. Les commandants ne doivent pas ordonner de telles attaques.

Cette règle figure de plus dans le PA 2 à l'article 13. L'article 13 est moins précis que les règles du PA 1 mais le principe général est très semblable. Cet article 13 étend ainsi cette obligation de distinction aux conflits armés internes.

? Définition de la personne civile

En DIH, la personne civile est définie uniquement de manière négative. Cela est posé à l'art 50 du PA 1.

« Article 50 -- Définition des personnes civiles et de la population civile

1. Est considérée comme civile toute personne n'appartenant pas à l'une des catégories visées à l'article 4 A. 1), 2), 3), et 6) de la IIIe Convention et à l'article 43 du présent Protocole... »

Cet article exclut de la qualité de civil, les personnes qui appartiennent aux Forces armées de l'une des parties. Mais aussi les membres des milices et des corps de volontaires qui en font partie (en outre les personnes relevant de l'art 4. A. 3) de la convention 3, qu'il n'est pas pertinent de développer dans cette étude). Sont aussi exclues de la qualité de civils, les civils qui prennent les armes même non organisés en force armée régulière s'ils portent ouvertement les armes et respectent les lois et coutumes de guerre.

Bien que cette définition soit négative,si on interprète cette qualité selon les prescriptions de l'art 31 de la convention de Vienne sur le droit des traités,le sens de « civil » est clair. Il s'agit de la définition courante (le « sens ordinaire »).

Le problème qui subsiste est la délimitation dans certaines hypothèses entre civils et cibles légalement attaquables. En particulier, les civils qui prennent les armes : quelle est la limite juridique précise, au-delà de laquelle, ils perdent leur protection par le droit ? Il faut combiner une application de l'article 51 et de l'article 4 de la CG 3 auquel renvoie l'article 50. De ces articles lus de manière combinée, on tire que :

Les civils non protégés sont :

_ceux qui « participent directement aux hostilités », ou bien

_ceux qui prennent les armes même sans former une force armée organisée s'ils portent ouvertement les armes et respectent les lois et coutumes de guerre.

Il semble que la 2èmehypothèse soit incluse dans celle des civils qui participent « directement aux hostilités ». Les professeurs spécialistes de DIHne font pas une telle sous distinction et on suivra leur interprétation. On reste donc sur la question de ce qu'il faut entendre par « civil » qui « participe directement aux hostilités ». Cela se résout lors de l'application du droit au fait (voir Chapitre 3).

Donc les opérateurs de robots militaires qui téléguident le robot, peuvent légalement prendre pour cible les civils qui participent directement aux hostilités. L'obligation pèse aussi sur les commandants qui donnent l'ordre d'attaquer.

? Le régime relatif au doute

Un problème qui apparait dans le cas de l'utilisation de robots semi autonomes que l'on envisage dans cette partie, est le doute concernant la cible du robot quant à sa qualité de combattant ou de civil (Cet aspect est soulevé par M. N. Schmitt dans son article «Out of the Loop»: AutonomousWeaponSystems and the Law of ArmedConflict, voir 7). Ce cas est prévu à l'art 50 du PA 1 :

« Est considérée comme civile toute personne [...]En cas de doute, ladite personne sera considérée comme civile. »

Pour le cas d'un robot semi autonome, c'est-à-dire télécommandé par un opérateur, le doute est celui de l'opérateur du drone. Ce dernier télécommande le robot à travers un système qui retransmet par exemple sur des écrans les informations que les capteurs du robot collectent. Le doute chez l'opérateur se porte sur des informations ainsi retranscrites. S'il doute quant à la qualité de la cible, il ne doit pas l'attaquer. Il semble que l'obligation pèse aussi sur le commandant.

En effet si on lit l'article 51 en rapport avec les autres articles du protocole, on trouve que les obligations de distinction pèsent dans leur ensemble sur les opérateurs et commandants. Par exemple, dans certaines situations l'opérateur peut être contraint par l'organisation interne de son armée de demander l'approbation de son commandant avant de faire feu. Dans cette hypothèse, l'obligation relative au doute pèse sur le commandant.

Le commentaire de l'article précise qu'il y a doute « en raison des circonstances ».

Par ailleurs, d'après Eric DAVID, la protection des civils vaut sur terre, en mer, et dans l'atmosphère (Principes de droit des conflits armé, p290). C'est-à-dire dans tous les champs de bataille possibles (sauf l'espace, mais on considère cette hypothèse comme non pertinente, dans la période contemporaine de publication de cette étude).

? L'interdiction d'attaquer les personnes hors de combat

Cette règle est posée à l'art 41 du PA 1 :

« 1. Aucune personne reconnue, ou devant être reconnue, eu égard aux circonstances, comme étant hors de combat, ne doit être l'objet d'une attaque.

2. Est hors de combat toute personne :

[...]b) qui exprime clairement son intention de se rendre, ou

c) qui a perdu connaissance ou est autrement en état d'incapacité du fait de blessures ou de maladie et en conséquence incapable de se défendre, à condition que, dans tous les cas, elle s'abstienne de tout acte d'hostilité et ne tente pas de s'évader. »

Un militaire hors de combat ne doit donc pas être attaqué et distingué des combattants pouvant être attaqués.

L'obligation pèse en particulier sur l'opérateur du robot. Il doit reconnaitre la personne hors de combat, à travers les informations que les capteurs du robot lui retransmettent. Si, par exemple il reconnait sur les écrans qui transcrivent les images recueillies par les caméras du robot, un combattant hors de combat, il ne doit pas l'attaquer. Il est interdit en outre, au commandant d'ordonner ou d'autoriser les attaques contre des personnes hors de combat.

? L'interdiction d'attaquer les personnes affectées à la protection civile

Cette règle est posée au PA 1 art 12, 15... On rappelle le principe de cette règle, d'après lequel les personnes affectées à la protection médicale, sanitaire, civile et religieuse des victimes de conflit ne peuvent faire l'objet d'attaques. Elle pèse sur les opérateurs et les commandants. Il n'est pas pertinent de développer ce point car il est peu probable que les opérateurs de robots militaires, rencontrent dans leurs opérations ces personnes.

En conclusion sur cette partie, ces obligations de distinctionspèsent sur les Etats et en aval sur les militaires qui utilisent des robots militaires. Ils doivent ainsi utiliser les robots militaires en respectant ce principe de distinction.

2.2.2.2 Le principe de proportionnalité de l'attaque

Il s'agit d'une limitation des attaques qu'un belligérant peut mener. D'après ce principe, une attaque menée contre un objectif militaire, ne doit pas causer de dommages collatéraux disproportionnés à l'encontre de personnes ou de biens, civils, protégés par le DIH.

Remarquons qu'il ne s'agit pas d'une obligation que l'attaque contre un objectif militaire soit proportionnée en elle-même. Ainsi, une attaque qui cause des dommages très importants uniquement sur des cibles militaires n'est pas disproportionnée quelle que soit l'ampleur des dommages causés. Bien sûr elle peut devenir illégale au titre de l'interdiction des « méthodes de guerre » qui causent des maux superflus. Mais il faut bien concevoir qu'il ne s'agit pas de l'idée de proportionnalité dans l'usage de la force ciblée. Il s'agit de la proportionnalité dans les dommages collatéraux.

Cette règle est posée aux articles 51 (5) (b) et 57 (2) a)(iii) :

«51 (5) (b) Seront [...] considérés comme effectués sans discrimination [...] les typesd'attaques [...] dont on peut attendre qu'elles causent incidemment des pertes en vies humaines dans la population civile, des blessures aux personnes civiles, des dommages aux biens de caractère civil, ou une combinaison de ces pertes et dommages, qui seraient excessifs par rapport à l'avantage militaire concret et direct attendu. »

Donc les dommages collatéraux doivent être proportionnels à « l'avantage militaire ».

Ce principe est particulièrement important pour cette étude car les robots militaires type drones armés peuvent se déplacer loin au-delà des zones de front là où il y a présence de civils.

Dans un tel contexte, l'opérateur du robot ne doit pas faire feu sur un objectif militaire identifié, si on peut s'attendre à ce que l'attaque cause des dommages collatéraux sur les civils, disproportionnés. D'après le commentaire du protocole, L'obligation pèse sur les commandants (art 57 2.b) et sur les opérateurs.

2.2.2.3 La nécessité militaire

Cette règle est étudiée dans le rapport LosingHumanity de HumanRights Watch (HRW) de 20128, mais l'analyse montre que cette elle n'est pas pertinente dans cette étude.

Cette règle n'est pas exprimée juridiquement par une règle précise dans le droit actuel. Mais elle est utilisée dans le droit de Genève. Cette exigence est déjà présente dans le règlement de La Haye de 1907. En outre, le droit de Genève comporte plusieursrègles quifont référence à la « nécessité militaire ». De manière commune, ces articles posent des règles de DIH, auxquelles la nécessité militaire permet de déroger.

On peut faire un travail d'analyse et de synthèse de ces mentions du concept de nécessité militaire :

Il apparait qu'il est difficile de parler d'une règle ou de principe de DIH car la nécessité est dans chaque article seulement mentionnée.

Mais par ailleurs, ce concept a un certain régime juridique propre : Il permet de déroger aux exigences du DIH pour attaquer certains biens normalement protégés (art. 23 g. , règlement de La Haye : protection des propriétés ennemies sauf « nécessités de la guerre » ; art 33 de la CG 1 sur la protection des biens sanitaires des forces armées mobiles tombés au pouvoir de la partie adverse ; l'art 54 sur la protection des biens indispensables à la survie de la population ; art 67 §4. sur les biens de certains membres des forces armées affectés à la protection civile...), ou bien afin de ne pas laisser certains personnels affectés à la protection civile intervenir dans certaines situations (art 15 , règlement de La Haye(organisation du travail de la protection civile sauf « nécessités militaires » ; art 62, PA 1, qui organise le travail des organismes de protection civile sauf si la nécessité militaire « impérieuse » commande de déroger à ce régime ; art 71 PA 1...).

Donc on peut parler de règle.

Par ailleurs, la nécessité militaireest mentionnée dans la convention de la Haye de 1907. Il apparait que la nécessité militaire, est une limiteautonomedu DIH.Maistel que cela y est énoncé, la nécessité militaire à laquelle il est fait référence, n'est pas un concept juridique.

Le PA 1, art 52 2. apporte des éléments de définition positive de la règle. Cet article trace la délimitation entre les biens civils protégés (au titre du principe de distinction) et ceux pouvant être pris pour cible. D'après cet article, les biens pouvant être pris pour cible sont définis de manière large et incluent ceux « normalement affecté[s] à un usage civil » sous condition. Cette condition, c'est la nécessité militaire (selon les auteurs (David, Bettati) et malgré que l'expression n'est pas utilisée dans l'article).

Schématiquement, d'après le principe de distinction, il est interdit de détruire des biens civils.

Mais il y a des exceptions à ce principe : ce sont les destructions de biens « normalement affecté[s] à un usage civil »justifiées par la nécessité militaire. Ainsi, si une attaque dirigée contre des biens civils est nécessaire militairement, elle peut être menée de manière licite.

Ainsi l'art 52 2. Du PA 1 dispose que :

«Les attaques doivent être strictement limitées aux objectifs militaires. En ce qui concerne les biens, les objectifs militaires sont limités aux biens qui, par leur nature, leur emplacement, leur destination ou leur utilisation apportent une contribution effective à l'action militaire et dont la destruction totale ou partielle, la capture ou la neutralisation offre en l'occurrence un avantage militaire précis. »

Cette définition positive ne vaut que pour les biens.

Ainsi, pour qu'une attaque soit militairement nécessaire, il faut qu'elle apporte un avantage militaire. Alors, cela justifie les destructions de certains biens ou bien, qu'une partie ne laisse pas le personnel affecté à la protection civile intervenir.

De telles attaques doivent remplir cette condition. L'obligation pèse sur les commandants et les opérateurs.

Le principe de nécessité est relevé comme pertinent par HumanRights Watch dans le rapport Losinghumanity de 2012 mais notre analyse montre le contraire. En effet, les destructions de biens peuvent être faites par des robots militaires mais elles ne nécessitent pas particulièrement l'utilisation de ces derniers. Les dérogations à l'organisation du travail des membres de la protection civile n'ont, elles pas de rapport direct avec l'utilisation de robots militaires.

2.2.2.4 L'obligation de précaution dans l'attaque

Cette règle est posée à l'art 57 PA 1. Elle consiste à ce que les belligérants prennent toutes les précautions possibles, de manière « constante » pendant toute la durée des « opérations militaires » en vue de ne pas violer le DIH, et en particulier l'obligation de distinction, de proportionnalité de l'attaque.... L'article liste une série d'obligations pesant sur les belligérants lors de l'attaque, selon différentes hypothèses envisagées.

On peut soulever en particulier pour le cas de l'utilisation des robots militaires, le 2. :

« 2. En ce qui concerne les attaques, les précautions suivantes doivent être prises :

a) ceux qui préparent ou décident une attaque doivent :

i) faire tout ce qui est pratiquement possible pour vérifier que les objectifs à attaquer ne sont ni des personnes civiles, ni des biens de caractère civil, et ne bénéficient pas d'une protection spéciale, mais qu'ils sont des objectifs militaires au sens du paragraphe 2 de l'article 52, et que les dispositions du présent Protocole n'en interdisent pas l'attaque ;

ii) prendre toutes les précautions pratiquement possibles quant au choix des moyens et méthodes d'attaque en vue d'éviter et, en tout cas, de réduire au minimum les pertes en vies humaines dans la population civile, les blessures aux personnes civiles et les dommages aux biens de caractère civil qui pourraient être causés incidemment »

Le 2. a) tel que le commentaire de l'article de 1986, le précise, ne vise pas uniquement les commandants mais aussi des « chefs subalternes » ou plus loin, des « militaires de rang inférieur ». En outre, les moyens « pratiquement possibles » doivent être interprétés selon le « bon sens » et la « bonne foi ». En cas de doute quant à la qualité de la cible, ceux qui préparent ou décident l'attaque doivent demander des renseignements complémentaires sur l'objectif militaire si les renseignements à disposition sont insuffisants.

Le commentaire de l'art 15 du code de droit humanitaire coutumier de 2006, précise que certains Etats considèrent que cette obligation pèse uniquement sur les commandants.

Pour le cas des robots militaires, d'après l'alinéa i), le commandant qui donne l'ordre de lancer le robot, doit de manière pratique mettre en oeuvre des moyens pour vérifier que les cibles de l'attaque sont des combattants. Il peut par exemple exiger que si un combattant est identifié par le robot hors du champ de bataille, l'opérateur demande son autorisation avant de tirer.

D'après le ii), le commandant doit mettre en oeuvre des moyens consistant à évaluer s'il n'y a pas de méthode de guerre à sa disposition qui pourraient causer moins de dommages collatéraux éventuels que l'utilisation du robot.

En outre, il y a une obligation d'adaptation de l'attaque :

« b) une attaque doit être annulée ou interrompue lorsqu'il apparaît que son objectif n'est pas militaire ou qu'il bénéficie d'une protection spéciale ou que l'on peut attendre qu'elle cause incidemment des pertes en vie humaines dans la population civile, des blessures aux personnes civiles, des dommages aux biens de caractère civil, ou une combinaison de ces pertes et dommages, qui seraient excessifs par rapport à l'avantage militaire concret et direct attendu ».

D'après le commentaire de l'article datant de 1986, cette obligation pèse ici sur le commandant et surtout sur l'opérateur.

Cette règle est particulièrement pertinente pour le cas des robots militaires, car ils peuvent être déployés loin de la zone de front du champ de bataille à proximité de cibles civiles. Alors, au cours du déploiement du robot, l'opérateur doitadapter son attaque en fonction des informations qui lui parviennent sur l'objectif militaire initial. Si par exemple les informations que la caméra du robot rapporte montrent que la cible se trouve à proximité de civils, l'opérateur doit adapter son comportement en interrompant ou annulant l'attaque. Cette obligation pèse aussi sur le commandant qui dans la pratique doit intervenir pour décider d'annuler une attaque.

2.2.2.5 L'humanité telle que posée dans la clause de Martens

Le principe d'humanité s'exprime par de nombreuses règles sur le traitement des personnes au pouvoir de l'ennemi. Mais il s'applique aussi à la conduite des hostilités.

La clause de Martens soumet, même en l'absence de disposition expresse du DIH, la conduite des hostilités, notamment aux « principes de l'humanité ». La clause de Martens a été intégrée au droit de La Haye et au droit de Genève, notamment à l'art 1 §2 du PA 1. qui dispose que :

« Dans les cas non prévus par le présent Protocole ou par d'autres accords internationaux, les personnes civiles et les combattants restent sous la sauvegarde et sous l'empire des principes du droit des gens, tels qu'ils résultent des usages établis, des principes de l'humanité et des exigences de la conscience publique. »

D'après cet article, le régime minimal qui subsiste en tout temps en cas de conflit est celui qui découle des principes du droit des gens. Ces derniers, résultent eux-mêmes notamment des principes de l'humanité. Les « principes du droit des gens » est une formule sujette à interprétations.

Mais ils résultent en particulier des principes de l'humanité. Cet article pose les principes de l'humanité en termes très généraux. Il est donc difficile de décrire les règles qui peuvent en découler en particulier pour notre cas.

Donc la clause impose que les militaires qui utilisent les drones se soumettent à un régime juridique, lui-même conforme aux principes de l'humanité. Donc l'humanité indirectement est une obligation pour les combattants.

Cette obligation pèse sur les commandants et les opérateurs de robots militaires.

On a vu que le droit relatif aux armes peut s'appliquer aux robots militaires semi autonomes. Dès lors, on peut procéder à l'application afin de voir s'il ressort des illégalités relativement à ces utilisations.

III Application

A) Application du droit relatif à légalité du robot comme arme

On rappelle qu'on étudie ici un robot, contrôlé et dirigé par un opérateur, qui seul peut en temps réel faire feu sur une cible. Ces robots sont déjà utilisés et en cours de nouveaux développements.

On a vu que le robot ne doit pas ni rendre la mort inévitable, ni causer des maux superflus, ni avoir des effets indiscriminés, ni être équipé d'une arme non conventionnelle. Que ressort-il de l'application de ce régime aux robots semi autonomes ?

1. Application de l'obligation que le robot ne cause pas des maux superflus

Les robots militaires ne doivent pas causer de maux superflus aux combattants ennemis touchés.

D'une part cela interdit que le robot soit équipé d'armes qui causent des maux superflus car alors, quelle que soit l'attaque, l'arme est de nature à causer des maux superflus.

Il est possible, d'autre part, qu'un robot équipé d'armes conventionnelles cause des maux superflus. En particulier, les drones équipés de missiles explosifs antichars (les « Hellfire ») ont été très utilisés en Irak et en Afghanistan. Mais utilisés contre un combattant comme unique cible, ils ne laissent quasiment aucune chance de survie à ce combattant. Et en outre à supposer qu'il survive, il est très probable qu'il perde un ou plusieurs membres de son corps. Cela est superflu tant en rapport avec l'avantage militaire que l'attaque donne à la partie, qu'en rapport avec la nécessité de mettre ce combattant cible, hors de combat (les industries militaires travaillent sur la mise au point de missiles plus petits et moins puissants pour équiper spécialement les drones).

Le problème est que ces maux superflus, sont la conséquence de l'utilisation d'une arme légale. Mais alors le seul droit applicable à l'utilisation d'une arme, ignore un tel cas.

Le droit relatif aux armes en elles-mêmes est-il exclu ? Le commentaire de l'art 35 PA 1 et le commentaire du code de DIH coutumier apportent des amorces de solution. Ces commentaires montrent que cette règle est interprétée de manière diverse par les Etats et en particulier le commentaire de l'article énonce, de manière quelque peu étonnante que : « Il [l'article] énonce une interdiction de résultat, mais non directement une interdiction de moyen ». Ainsi le résultat de causer les souffrances superflues dues aux drones serait interdit par cette règle.

L'interprétation suivanteserait alorslégalement concevable : onconsidère que les drones utilisés contre des combattants découverts sont des armes causant des maux superflus car lors d'une telle utilisation, le drone par nature, dès qu'il touche une cible lui inflige la mort ou bien la perte de membres, ce qui est superflu.

Un tel raisonnement serait en effet analogue à l'interdiction limitéedes lance-flammespar une convention spéciale.

Donc, plus généralement, dans les cas où les robots totalement autonomes sont de nature à causer des maux superflus, ils sont interdits par le DIH.

En particulier en Irak et en Afghanistan, de telles utilisations illégales ont été faites mais par ailleurs, les drones Predator étaientsouvent utilisés contre des véhicules.

2. Application de l'obligation que le robot ne rende pas la mort inévitable

Il est interdit d'utiliser une arme qui rend la mort des combattants mis hors de combat, inévitable.

Dans les faits, le robot est déployé sur le champ de bataille et télécommandé à distance. L'opérateur, dispose des informations relevées par les capteurs du robot, comme des caméras, des détecteurs thermiques... On fait l'hypothèse que l'attaque est très précise.

Dans le cas des drones, par exemple, l'un des problèmes qui se posent est que ceux-ci peuvent tirer des missiles très puissants comme des « Hellfire » contre des combattants. Alors, en particulier, ces combattants étant pris pour cible de manière très précise et, par des missiles explosifs très puissants, il apparait qu'ils n'ont que très peu de chances de survie, à cause de la nature même du robot comme arme.

Selon le manueld'E. DAVID, la légalité des « armes modernes » très précises qui « frappent plus surement les combattants » peut être discutée, notamment au regard de « l'interdiction des armes rendant la mort inévitable ».

Mais, l'interface du robot induit une certaine limite technique à la précision, et un léger décalage de temps entre le moment précis auquel l'opérateur actionne la commande de tir et le moment auquel la munition est tirée.

Il est pratiquement possible, qu'un opérateur de robot semi autonome, fasse feu sur une cible repérée sur un écran du cockpit de pilotage du robot, que le combattant pris pour cible, alerté par le bruit du robot, se déplace et échappe complètement à l'attaque ou du moins, qu'il soit touché et survive. Alors, grâce aux capteurs du robot, il est tout à fait possible que le combattant mis hors de combat soit reconnu comme tel et épargné par l'opérateur.

Donc,selon les cas, les robots les robots militaires semi autonomes peuvent rendre la mort des combattants mis hors de combat, inévitable. En particulier, cela peut être le cas des drones équipés de missiles Hellfire utilisés contre des combattants découverts. Dans ces cas, ce sont des armes illégales.

3. Application de l'interdiction d'utiliser des armes à effets indiscriminés

Il faut que l'arme puisse être dirigée contre un objectif militaire et, de manière cumulative, qu'elle ne frappe pas alors, objectifs militaires et civils de manière indistincte.

Les robots militaires peuvent manifestement être dirigés contre un objectif militaire déterminé.

Concernant les effets de l'attaque, il faut que les effets de l'attaque ne soient pas indiscriminés. L'article 51 4., PA 1, concerne les « cas » dans lesquels les effets sont indiscriminés. Donc il faut, au cas par cas, examiner si l'attaque ne cause pas d'effets indiscriminés.

On propose cette interprétation comme repère : les effets sont indiscriminés s'ils frappent dans au moins 50% des cas, des civils.

Cela peut être le cas des attaques de drones équipés de lanceurs de missiles Hellfire, s'ils sont utilisés contre un combattant ennemi situé à proximité de cibles civiles. Dans un tel cas, cette attaque pourrait même frapper largement plus de civils que les objectifs militaires.

Dans ces cas, un tel drone armé d'un lanceur de missiles Hellfire est illégal en tant qu'arme à effets discriminés.

Si, plus généralement, le robot est équipé d'armes explosives très puissantes, et est utilisé contre un objectif militaire situé à proximité de civils, alors le robot peut selon les cas, être une arme à effets indiscriminés, interdite.

4. Application de l'interdiction des armes désignées et interdites dans les conventions

Il ne faut pas dans la pratique que le robot (qui lui-même ne figure dans aucune convention comme arme interdite), soit équipé de l'une de ces armes interdites. Car alors, comme on l'a montré cela rendrait l'arme globale interdite.

B) Application du régime relatif à l'utilisation des robots militaires

1. Application du principe de distinction

? Cas général

Il faut que l'opérateur fasse la distinction entre civils et militaires. La technologie est très sophistiquée et les opérateurs disposent de nombreuses informations sur leurs cibles. Mais ils n'ont pas de vue directe sur la cible. Les caméras frontales des robots, d'après ce que les médias ont divulgués sont parfois primitives9. Elles sont utilisées de manière combinée avec d'autres capteurs comme des capteurs thermiques. Mais cette relativement faible définition des images, est une limite à prendre en compte lors de la distinction entre cibles civiles et militaires.

? Application de l'obligation relative au doute

En particulier le DIH impose qu'en cas de doute sur la qualité de combattant ou de civil, de la cible, la cible soit considérée civile et épargnée.

Ce doute dans le chef de l'opérateur peut apparaitre dans la pratique et dans certains cas être dû à la faible résolution des caméras du robot. Alors, l'opérateur doit considérer la cible comme civile et l'épargner.

Si les images transmises par le robot ne sont pas assez claires, une attaque contre des cibles données, malgré le doute quant à la qualité de civil ou militaire de la cible est une violation de l'obligation de distinction.

? Application de l'obligation de distinguer les combattants hors de combat

Le DIH interdit d'attaquer toute personne « reconnue, ou devant être reconnue, eu égard aux circonstances » comme combattant hors de combat (PA1, art 41).

Cette exigence peut être remplie par l'opérateur d'un robot militaire même au travers des informations que lui transmettent les capteurs du robot. Dans la pratique, il peut reconnaitre l'Etat d'un combattant.

Mais la notion de personne hors de combat inclue, la personne qui « exprime clairement son intention de se rendre »

Mais comment le combattant pris pour cible par un robot militaire peut-il exprimer son intention de se rendre ? Comment peut-il se rendre ?

On peut relever 3 cas susceptibles de se rencontrer dans la pratique.

_Si le combattant hors de combat exprime son intention de se rendre à des militaires au sol, alors que, de son côté l'opérateur le prenait pour cible, alors, l'opérateur ne doit pas attaquer le combattant hors de combat. Dans cette hypothèse la difficulté est que l'opérateur doit être capable de comprendre le comportement du militaire qui se rend. Or, il peut être assez subtil d'apprécier que le militaire exprime son intention de se rendre depuis un cockpit de pilotage de robot à travers des écrans d'ordinateur. Il semble que ce n'est pas le cas type qu'un robot militaire rencontre dans la pratique actuelle.

_Pour que le combattant hors de combat puisse se rendre, il faudrait que des militaires appartenant à la même partie que l'opérateur qui dirige le robot, soient à proximité pour capturer le militaire hors de combat. Quels cas cela peut recouvrir ? A qui le militaire hors de combat doit il exprimer son intention de se rendre ?

Un cas possible est que le combattant pris pour cible exprime son intention de se rendre à l'opérateur, par l'intermédiaire du robot. Dans la pratique actuelle cela parait très difficile à appliquer car les attaques sont très rapides. Mais cela est possible pour le futur si les militaires connaissent mieux les drones et que de bonnes pratiques s'installent entre les Etats.

Même alors, il faudrait que les militaires du même camp que l'opérateur soient informés, par exemple par l'opérateur qu'un combattant hors de combat souhaite se rendre pour pouvoir venir le capturer.

_Un autre problème est le cas où le militaire exprime son intention de se rendre à l'opérateur à travers les caméras du robot. L'opérateur alors reconnait un militaire hors de combat, mais il n'y a aucune troupe au sol pour capturer le militaire. Que doit faire l'opérateur du drone ?

D'après le DIH, un tel militaire est une cible protégée donc il ne peut pas être attaqué même s'il ne peut pas pratiquement être capturé.

En conclusion, il peut être difficile pour l'opérateur de reconnaitre une personne hors de combat.

En outre, il est très difficile dans la pratique pour un opérateur de reconnaitre qu'un militaire cible exprime son intention de se rendre.

? Application de l'obligation de distinguer les personnes affectées à la protection civile

La difficulté est celle pour l'opérateur de les reconnaitre malgré les limites techniques éventuelles dans la transmission des informations des capteurs au cockpit de pilotage. Alors, l'obligation relative au doute peut s'appliquer aussi. Cela ne pose pas de difficulté particulière dans la pratique.

2. Application du principe de proportionnalité

Il est interdit de mener des attaques « dont on peut attendre » qu'elles causent des dommages collatéraux disproportionnés sur les civils, par rapport à l'avantage militaire attendu. Cette obligation pèse sur le commandant et l'opérateur du robot. Cette interdiction s'applique à l'utilisation des robots télécommandés.

Dans la pratique cette règle est pertinente pour les utilisations de drones télécommandés. En effet, comme énoncé plus haut de nombreux drones ont été utilisés, munis de lanceurs de missiles anti chars. De tels drones ont pris pour cible des objectifs militaires. Or, l'un des avantages stratégiques des drones est qu'ils peuvent être déployés loin des zones de front, là où se trouvent des civils. Ces 2 éléments de faits sont des difficultés à prendre en compte pour les militaires dans l'application du principe.

Dès que les robots semi autonomes sont utilisés contre des objectifs militaires dans de tels environnements, il est très probable qu'ils causent des dommages collatéraux très importants. Alors, le principe de proportionnalité s'applique.

Donc, si contrairement à ce que l' « on peut attendre »,une attaque est menée, alors qu'elle cause des dommages collatéraux excessifs par rapport à l'avantage militaire apporté, cette attaque ordonnée par le commandant ou menée par un opérateur, est illégale.

Vu les cas révélés dans la presse, il apparait que des dommages collatéraux importants ont été causés. Dans la pratique, cette règle est pertinente pour les attaques menées par les drones Predator en particulier.

Si l'ordre est donné alors qu'il n'est pas connu que des civils sont présents à proximité de l'objectif militaire, l'ordre est légal mais il peut apparaitre à l'opérateur que les faits ne sont pas ce qui était prévu et que des civils se trouvent à proximité des objectifs militaires. Alors, l'obligation de précaution quant à la proportionnalité (PA 1, art 57 2. B)) oblige l'opérateur à annuler ou interrompre l'attaque.Même si l'ordre est illégalement donné, alors qu'on pouvait attendre que des civils se trouvent à proximité de l'objectif militaire, l'obligation de précaution commandeà l'opérateur d'annuler ou interrompre l'attaque s'il apparait qu'elle est disproportionnée.

3. Application de la règle de nécessité militaire

Cette règle oblige les parties à ne pas détruire certains biens protégés ou empêcher le travail du personnel de la protection civil sauf si cela est nécessaire militairement. Cette règle n'a pas d'application particulière pour l'utilisation des robots militaires.

4. Application de l'obligation de précaution dans l'attaque

Cette obligation oblige commandants et opérateurs à mettre en oeuvre des moyens afin d'assurer une précaution dans leurs attaques.

En particulier il est pertinent de relever que commandant et opérateur doivent faire tout ce qui est pratiquement possible pour vérifier que l'objectif à attaquer est bien une cible légalement attaquable. Cela oblige les opérateurs en particulier, à exploiter tous les capteurs du robot, éventuellement à communiquer par radio avec d'autres militaires pour procéder à cette vérification. Dans le cas des drones, ceux-ci peuvent être utilisés pour collecter des renseignements sur la cible pendant des périodes étendues pour vérifier la qualité de cible légalement attaquable.

En outre, les commandants ou opérateurs doivent prendre les précautions « pratiquement possibles » quant au choix des moyens ou méthodes de guerre pour réduire au minimum les dommages collatéraux pour les civils.

Or par exemple, les drones Predator utilisés dans les conflits récents lançaient des missiles explosifs très puissants sur leurs cibles, dans des environnements où des civils pouvaient se trouver. S'il est « pratiquement possible » pour le commandant d'utiliser un moyen ou une méthode de guerre, propre à causer moins de dommages collatéraux pour les civils, alors il est obligé d'utiliser de tels moyens ou méthodes et non pas le drone Predator.

Dans la pratique par l'armée américaine, cette règle rendrait illégale une attaque au moyen d'un robot équipé de lance-missiles Hellfire dans un environnement où peuvent se trouver des civils s'il y a un moyen alternatif d'attaquer l'objectif en risquant de causer moins de dommages contre des civils.

En outre, commandant et opérateur en particulier doivent adapter l'attaque s'il apparait que la cible n'est pas un objectif militaire ou bien que l'attaque est disproportionnée. L'opérateur qui manipule un robot télécommandé est en mesure de faire cette adaptation. Il doit en particulier utiliser par exemple les capteurs du robot pour pouvoir, le cas échéant, adapter son attaque.

La pratique ne montre pas de préoccupation particulière quant à la légalité des utilisations de robots au regard de cette règle.

5. Application des principes de l'humanité

Les combattants dans la conduite des attaques sont indirectement sous l'empire des principes de l'humanité. Donc ils doivent mener leurs attaques avec humanité. Un problème pratique qui apparait est que l'opérateur du robot militaire ne se situe pas sur le champ de bataille. Donc il ne courre aucun risque lorsqu'il mène l'attaque. Il peut faire feu sur un combattant ennemi, depuis une base américaine. Cette absence de prise de risque rend l'attaque déloyale.

Mettons-nous à la place de l'ennemi. Il ne voit peut être même pas l'attaque arriver. Un drone fait feu sur lui avec un missile de croisière propulsé à la vitesse du son (cas du drone Predator armé). Il entend juste une détonation et c'en fini de lui. A supposer qu'il soit habitué des drones il peut le reconnaitre et tenter de fuir mais probablement que l'explosion de la munition le touchera.

Il est problématique que le combattant soit attaqué dans un rapport de force déloyal et qu'en plus, ses chances d'échapper à l'attaque soient très faibles. Cela étant les drones ne sont pas déployés pour n'importe quelles missions.

Mais que recouvrent « les principes de l'humanité » ? Et de quelle manière sont-ils applicables ? Les juridictions pénales internationales n'ont pas défini cela. Donc on ne peut conclure que l'utilisation des robots semi autonomes contrevient à la clause de Martens.

IV Conclusion : des préoccupations quant à la légalité de l'utilisation des robots semi autonomes, selon les cas

En conclusion, sauf cas particuliers, les robots militaires semi autonomes ne sont pas interdits au regard du DIH. Ces cas particulier, cela étant, doivent être soulignés :

_Les robots normalement dirigés contre des combattants découvert mais équipé de lanceurs de missiles très puissants sont illégaux au regard de l'interdiction des armes qui causent des maux superflus.

_En outre, des robots équipés de lanceurs de missiles explosifs très puissants, ne doivent pas être utilisés contre des objectifs militaires dans des environnements où sont présents des civils. Cela est interdit au titre de l'interdiction des armes dont les effets sont indiscriminés.

Quant à l'utilisation des robots, une illégalité probable est le cas où un opérateur attaque une cible, alors que les informations dont il dispose depuis son cockpit sont limitées et en particulier, la résolution des caméras, laisse subsister un doute quant à la qualité de la cible. Il y a préoccupation quant à son obligation de distinction.

Un cas plus net, est la probabilité élevée de mener une attaque disproportionnée dans les environnements où sont présents des civils et le robot est équipé par exemple de missiles Hellfire.

On a montré les préoccupations quant à la légalité de l'utilisation des robots semi autonomes dans les conflits. Mais, les différents robots semi autonomespeuvent être plus ou moins autonomes. En outre, la technologie relative aux fonctions autonomes de ces robots se développe très rapidement et on voit apparaitre de nouveaux robots dotés de fonctions autonomes de plus en plus importantes. Donc on est amené à se demander quel degré d'autonomie le DIP autorise.

Chapitre 2 Le degré d'autonomie que le droit autorise

Dans cette étude, on part de l'hypothèse à priori que l'utilisation de robots militaires totalement autonomes est illégale en DIP. Le raisonnement confirmera cela.

Dans cette partie, on cherche à déterminer le degré d'autonomie des robots militaires que le DIP autorise. La méthode que l'on suit consiste à étudier la légalité d'un scénario majorant qui est l'utilisation d'un robot totalement autonome. Cela permet de délimiter le degré d'autonomie autorisé.

Il apparait qu'un robot totalement autonome violerait le DIP de 5 manières : Il y aurait violation du principe de distinction (de 2 manières), du principe de précaution (de 2 manières) et enfin violation des principes de l'humanité.

Cela met en évidence la limite du degré d'autonomie des robots militaires que le DIP pose. Ainsi, l'autonomie ne peut priver l'opérateur du robot de son obligation d'exercer un doute quant à la qualité militaire ou non de la cible attaquée, ni priver l'opérateur de son obligation de reconnaitre en personne en temps réel une personne hors de combat, ni priver les militaires de leur obligation de veiller constamment au respect du DIH, ni les priver de leur obligation d'adapter l'attaque s'il apparait que la cible n'est pas un objectif militaire licite, ni enfin permettre que le robot initie l'attaque de manière autonome. Alors pour ce qui est de la mobilité du robot, l'autonomie peut être totale (à condition que le robot ne devienne pas lui-même projectile de l'arme), la phase de l'attaque par contre doit demeurer sous le contrôle actif d'un opérateur.

Pour obtenir cette conclusion on dégage d'une part le droit applicable aux robots militaires totalement autonomes (I) puis on applique le droit au cas (II). Les illégalités qui apparaissent sont les points critiques à partir desquelles on trace la limite du degré d'autonomie maximal licite des robots militaires utilisés (III).

I Les faits pertinents : l'utilisation d'un robot totalement autonome

On fait l'hypothèse dans ce chapitre que le robot est programmé pour techniquement respecter le DIH. En outre, on pose l'hypothèse que le robot est fiable à 90%.

De manière générale, un robot totalement autonome est techniquement capable de rechercher des informations sur son environnement, de réaliser ses fonctions sans assistance humaine pendant une période de temps étendue, il est en outre mobile dans son environnement de travail sans assistance humaine.

On considère qu'un robot est autonome si, en outre, il ne cause pas de dommages ni aux personnes, ni aux biens ni contre lui-même, sauf si cela fait partie de son programme. Dans le cas des robots militaires leur programme même, les conduit à causer des dommages aux personnes ou aux biens, donc cela ne leur fait pas perdre leur caractère autonome.

Pour cette étude, ce que je considère comme totalement autonome est un robot qui, en particulier, est capable de faire feu sur une cible identifiée, sans nécessiter une intervention humaine ni sans nécessiter d'alerter une personne humaine de l'attaque imminente de manière à permettre à cette dernière, d'éventuellement prendre le contrôle du robot. C'est-à-dire dans la pratique, sans qu'un militaire opérateur ne commande en temps réel de tirer sur la cible, ni sans qu'il soit alerté de manière à pouvoir intervenir dans le fonctionnement jusque-là autonome du robot. Cette catégorie est appelée dans le jargon « man-out-the-loop », ce qui signifie « personne humaine hors de la boucle » de fonctionnement du robot.

Dans cette situation, le robot « décide » et fait l'action consistant à tirer sur la cible.

Cela décrit une situation de fait, qui ne se rencontre pas dans la pratique mais qui pourrait apparaitre dans un futur relativement proche. Actuellement il est très difficile d'envisager un robot dont l'AI ne soit ni faible ni infaillible. Pourtant, vu la rapidité des progrès technologiques, je pense que dans ce futur proche la question de l'utilisation de tels robots totalement autonomes se posera. Dans cette étude, le cas des robots militaires totalement autonomes servira aussi de cas théorique de référence permettant de mettre en évidence des aspects juridiques de l'utilisation des robots avec « human-on-the-loop ».

Déjà, le « Techwin sgr-A1 », un robot sentinelle non mobile est capable de détecter une cible et, de faire feu selon un mode automatique sur cette cible10. Mais il est actuellement utilisé seulement de manière semi autonome, opéré par un militaire, ce dernier pouvant, lui-seul, décider de faire feu. Le mode automatique de la machine n'a pas été utilisé, peut-être parce qu'il est très peu sophistiqué actuellement.

II Droit applicable

A) droit relatif à la légalité de l'utilisation des robots militaires totalement autonomes

Dans cette hypothèse il n'y a plus d'opérateur qui téléguide le robot. Un commandant donnerait l'ordre de lancer le robot militaire contre un objectif militaire déterminé puis, un opérateur sur le terrain lancerait le robot, qui à partir de ce stade est totalement autonome. On fait l'hypothèse que le robot est programmé pour techniquement respecter le DIH. En effet de manière schématique, si un robot n'est pas programmé pour respecter le DIH, alors il devient une arme qui frappe indistinctement civils et militaires, ou bien une arme ne pouvant être lancée contre un objectif militaire déterminé. C'est-à-dire une arme illégale. Donc un robot autonome ne peut être utilisé que s'il est programmé pour respecter le DIH. Cela ne libère en rien les militaires de leurs obligations au regard du DIH.

1. Le régime applicable aux armes

1.1La qualification d'arme

?La qualification d'arme

En s'en tenant à la définition courante d'une arme que l'interprétation du DIH permet, comme la convention de Vienne sur le droit des traités le prévoit, on trouve qu'un robot militaire totalement autonome est bien un « engin qui sert à attaquer... » et donc une arme au sens du DIH.

? La qualification d'arme nouvelle

On a qualifié une arme. Lorsqu'ils sont mis au point (ou seront mis au point), les robots militaires totalement autonomes sont à un moment donné de nouvelles armes introduites et donc entrent dans cette qualification de l'article 36 du PA 1. En outre, si, par la suite les modèles sont améliorés, on peut considérer que les nouveaux modèles sont eux aussi de nouvelles armes mises à disposition des armées et donc entrent dans la qualification de l'article 36. Dès lors, il faut que les Etats examinent la légalité de l'utilisation de ces armes par des procédures internes.

1.2 Le droit applicable

La légalité du robot totalement autonome lui-même en tant qu'arme est soumise au même droit que celui applicable si le robot est télécommandé, déjà présenté plus haut.

Il s'agit des 4 règles que le DIH pose : l'interdiction des armes qui causent des maux superflus, l'interdiction des armes qui rendent la mort inévitable, l'interdiction des armes à effets indiscriminés et l'interdiction des armes non conventionnelles.

Mais en particulier, le robot militaire totalement autonome, ne doit pas produire d'effets indiscriminés d'après l'article 51 4. du PA 1, précité. Les robots étant programmés, ils sont limités par leur programme. Ils pourraient rencontrer des situations qui ne sont pas prévues dans le programme et faillir à leur fonction. C'est pourquoi il est intéressant d'envisager dans cette étude, l'utilisation d'un robot fiable seulement à 90%.

Or, sont interdits, « des méthodes ou moyens de combat dont les effets ne peuvent pas être limités comme le prescrit le présent Protocole ; et qui sont, en conséquence, dans chacun de ces cas, propres à frapper indistinctement ».

Selon mon interprétation, le terme « indistinctement » impose outre les autres règles du DIH, que le robotaie une fiabilité au moins supérieure à 50%.

2. Le régime de l'utilisation

Concernant, les règles de DIH applicables à l'utilisation d'un robot totalement autonome, les règles précitées sont aussi applicables. Certaines semblent plus pertinentes. On les mettra en évidence.

2.1 L'obligation de distinction

? Cas général

Sur qui pèse l'obligation de distinction ? Les Etats sont obligés de respecter le DIH, donc les obligations pèsent en bout de chaine sur les commandants responsables qui donnent l'ordre de lancer puis sur les opérateurs des robots.

_L'art 48, PA 1 impose aux militaires de distinguer en tout temps les objectifs attaqués.

Remarquons que cette obligation pèse sur les militaires mais dans notre hypothèse, l'opérateur, ne fait que lancer le robot sur une cible. Or, le robot peut rencontrer lors de ce déploiement des civils. 10% d'entre eux seront attaqués.

Le commentaire de l'article précise qu'« il est du devoir des Parties au conflit de se doter des moyens accessibles qui leur permettront de respecter les règles du Protocole. En tout état de cause, on pourrait reprocher à une Partie qui dispose de tels moyens de ne pas les employer et de s'être ainsi privée sciemment de la possibilité d'opérer la distinction requise. » En effet, l'obligation de précaution impose certains choix des armes à utiliser.

Mais, concernant la règle même, l'article impose de ne pas « diriger » l'attaque contre des cibles civiles. Donc il semble que le défaut de fiabilité du robot ne soit pas du ressort de cette obligation.

_L'art 51 4. (c) interdit d'utiliser des moyens de combats dont les effets dans certains « cas » sont propres à frapper indistinctement, civils et militaires. Or, un robot est limité techniquement. S'il y a des cas connus dans lesquels le robot ne peut distinguer civils et combattants, le robot ne doit être utilisé dans aucun de ces cas.

? Le régime relatif au doute

Concernant le problème du doute tel que prévu à l'article 50 du PA 1 précité. D'après cette règle s'il y a un doute sur la qualité de combattant ou de civil concernant une personne, il faut considérer la personne comme civile.

L'obligation relative au doute pèse juridiquementsur le commandant et l'opérateur qui lancent le robot.

Mais ces derniers ne doutent que de manière anticipée avant de lancer le robot.

Or le robot n'est pas un simple missile intelligent. C'est une arme capable de se déplacer de manière autonome et qui, même dirigée contre un objectif militaire, a une capacité d'initier une ou plusieurs attaques de manière autonome.

Si alors, uncommandant ou un opérateur considèrequ'aucun des objectifs que le robot devrait rencontrer, n'est indubitablement combattant, ils ne doivent pas du tout lancer le robot.

On ne parle pas ici, des dommages collatéraux dus à un défaut de fiabilité mais des objectifs que le robot attaque tel que son usage par les militaires le prévoit.

On peut se demander si cette exigence quant au doute est licitement remplie de cette manière. Car si, avant et lors du lancement, il n'y a pas de doute quant aux objectifs militaires, une fois déployé,une cible attaquée pourrait s'avérer douteuse quant à sa qualité militaire.

Un autre cas serait que le robot pourrait rencontrer d'autres cibles lors du déploiement. Alors, le doute ne peut plus être exercé par les militaires.

Donc le doute ne peut être exercé que sur une portion réduite de l'attaque.

? L'interdiction d'attaquer les personnes hors de combat

De même, les personnes « reconnues ou devant être reconnue[s] eu égard aux circonstances » comme combattants hors de combat d'après l'art 41 du PA 1, ne doivent pas être attaquées. Est-ce que le robot peut reconnaitre les personnes hors de combat? Un robot peut reconnaitre une cible techniquement. Mais, l'obligation de reconnaitre les personnes hors de combat pèse sur l'opérateur ou le commandant d'après cet article. Or, une fois le robot lancé, les militaires ne peuvent plus exercer cette obligation. Ils doivent reconnaitre les personnes hors de combat avant même de lancer le robot ou lors du lancement, alors que celui-ci n'a encore attaqué aucune cible. Il parait quasi impossible pour eux de reconnaitre les personnes hors de combat comme cet article le commande.

Cela étant, les commandantspourraient de manière abstraite, définir une personne hors de combat comme présentant des caractéristiques données. Un robot pourrait être programmé pour reconnaitre ces caractéristiques, et les associer à la reconnaissance d'une personne hors de combat, laquelle, il n'attaque pas. Alors le robot reconnait techniquement une personne hors de combat et l'épargne. On peut envisager ainsi qu'un commandant qui déploie un tel robot, ajuridiquement reconnu indirectement une personne hors de combat en s'appuyant sur la technologie du robot.

Justement, l'art 41 2.donne 3 caractéristiques alternatives qui caractérisent la personne hors de combat.

Dès lors, le robot étant programmé pour reconnaitre ces caractéristiques, il peut être utilisé par le commandant, conformément à l'obligation qui pèse sur lui de reconnaitre les combattants hors de combat.

Mais,Le 1. de cet article protège, une personne « reconnue ou devant être reconnue, eu égard aux circonstances », comme hors de combat. Or le commentaire de l'article précise que sont protégés les combattants « reconnus, par une personne raisonnable », comme étant hors de combat. En l'absence de mentions d'une possible reconnaissance indirecte, l'interprétation la plus cohérente, au vu notamment de la date de rédaction du PA 1, est que cet article oblige les parties à ce que leurs militaires reconnaissent en personne, les combattants hors de combat.

? L'interdiction d'attaquer les personnes affectées à la protection civile

De la même manière le personnel affecté à la protection civile ne doit pas faire l'objet d'attaques (PA 1 art 12, 15... précités). L'obligation de distinction pèse sur le commandant et l'opérateur. Il n'y a ici pas d'obligation de distinction directe par un militaire. Cette obligation peut être remplie par un robot programmé pour distinguer techniquement ce personnel.

2.2. Le principe de proportionnalité

Ce principe est particulièrement pertinent (art 51 (5) (b) et 57 (2) (iii) précités). Il a été débattu pour le cas de robots totalement autonomes dans le rapport LosingHumanity de HRW et M. N. Schmitt dans ses articles.

A titre d'illustration, un drone totalement autonome pourrait être lancé loin du front pour frapper un objectif militaire situé à proximité de biens ou personnes, civils. Dans cette hypothèse, l'obligation de proportionnalité pèse sur le commandant et sur l'opérateur qui lancent le robot.

Cette obligation de proportionnalité, oblige ces derniers à ne choisir d'utiliser le robot que si on peut en attendretechniquement, qu'il ne cause pas de dommages collatéraux disproportionnés.

Le problème à prendre en compte par les militaires est qu'un robot totalement autonome n'est pas parfaitement prévisible. On étudie par hypothèse un robot fiable à seulement 90%.

Or, si un robot militaire est techniquement capable de distinguer mais de manière limitée, comment appliquer le principe de proportionnalité ?

Le commentaire de l'article énonce que la « précision des armes employées » fait, entre autres, partie del'ensemble des « facteurs qui doi[ven]t être pris en considération ». On interprète la fiabilité du robot comme un de ces facteurs.

Dès lors, commandant et opérateur doivent tenir compte du défaut de fiabilité dans leur appréciation de la proportionnalité de l'attaque.

2.3. La nécessité militaire

Telle que nous l'avons étudiée, il n'y a pas d'article relatif à la nécessité militaire qui s'applique spécialement aux robots militaires. Tel que l'art 52 PA 1, le pose, une attaque par un robot militaire contre des biens « normalement affectés à un usage civil » doit être nécessaire militairement c'est-à-dire apporter un « avantage militaire ». Dans cette hypothèse, l'opérateur et le commandant de l'attaque doivent ne lancer une telle attaque, à l'aide d'un robot militaire totalement autonome,que si elle est nécessaire militairement.

2.4. L'obligation de précaution dans l'attaque

L'art 57 1. Pose en particulier une l'obligation pour les, commandantet opérateur de « constamment » vérifier que l'attaque respecte le principe de distinction. Le commentaire précise que le 1. énoncele principe général que les alinéas suivants précisent.

Or dans le déploiement d'un robot militaire autonome, les militaires ne peuvent plus s'acquitter de cette obligation, dès lors que le robot est lancé.

Leur obligation de veiller constamment au respect du principe de distinction, se porte ainsi sur une partie réduite de l'attaque.

Mais ce 1. n'exige pas expressémentqu'un militaire humain exerce ce contrôle en personneen permanence. En particulier un commandant ou opérateur pourrait remplir cette obligation lui-même lors du lancement du robot. Puis, le commandant pourrait décider d'utiliser un robot programmé de manière à examiner et à réactualiser constamment son respect techniquedu principe de distinction, tout au long de l'attaque. On pourrait ainsi licitement considérer, qu'indirectement, grâce à la programmation du robot, le commandant contrôle constamment le respect du principe de distinction.

Mais alors, à partir du moment où il est lancé, les militaires n'ont plus de contrôle sur le robot. Une telle interprétation tronque trop la règle. Une telle interprétation parait trop éloignée du but et de l'objet du protocole au sens du droit des traités. Donc elle n'est pas légale au regard du droit des traités.

Le 57 2. a) i), impose aux militaires de mettre en oeuvre les moyens « pratiquement possibles » pour vérifier la qualité de la cible. En outre, le commentaire de l'article précise que les militaires doivent à cette fin rechercher des informations sur la cible et le commentaire mentionne en particulier les informations collectées par les reconnaissances aériennes.

Selon le commentaire, il faut entendre cette terminologie comme l'obligation de « prendre en temps utile les mesures d'identification nécessaires, afin d'épargner, autant que possible, la population ».

Dans le cas de robots totalement autonomes, il faut que les militaires aient recherché des informations sur la cible avant de lancer l'attaque.

En outre l'obligation de précaution les oblige aussi au 2. ii) à choisir les méthodes d'attaque qui permettent le mieux d'éviter des dommages collatéraux sur les civils. Dès lors, si d'autres méthodes de guerre, permettant davantage d'épargner les civils sont disponibles, elles doivent être préférées aux robots totalement autonomes.

Le 57 2 b) oblige les commandants et opérateurs à annuler ou interrompre une attaque, « lorsqu'il apparait » qu'elle viole le DIH. Si on déploie un robot militaire totalement autonome, une fois le robot lancé, les militaires ne peuvent plus exercer ce contrôle. Cela limite drastiquement cette obligation. Cette obligation ne peut plus en pratique être exercée que pendant le lancement du robot. En réalité dans la pratique, la probabilité qu'une attaque soit ainsi annulée lors du lancement est totalement négligeable. On étudiera plus en détail cela au III.

2.5. Le principe d'humanité

D'après la clause de Martens, les combattants sont sous l'empire d'un régime qui résulte notamment des « principes de l'humanité ». Donc commandants et opérateurs de robots militaires totalement autonomessont indirectement soumis à ces principes. Cela les oblige à déployer les robots en conformité avec ces principes. Cela apparait problématique. Par hypothèse, il y a une contradiction entre les principes de l'humanité et le fait qu'un robot attaque un combattant de manière totalement autonome. En effet, on observe un combat qui oppose des combattants à des robots. Les robots ne sont pas humain par définition donc ils ne peuvent correctement respecter les principes d'humanité. Ils ne peuvent en aucun cas faire preuve d'humanité

En conclusion, la synthèse du droit applicable à l'utilisation de robots totalement autonomes révèle déjà, quede tels robots sont très peu adaptés à la pratique et que le DIH ne peut pas correctement s'y appliquer. En particulier l'utilisation de robots militaires totalement autonomes, ne permet pas aux militaires de s'acquitter d'obligations relatives à la distinction ou à la précaution dans l'attaque.

B) La responsabilité de l'utilisation d'un robot totalement autonome

Les Etats doivent respecter le DIH pertinent. Comme on l'a déjà montré, les membres des forces armées dont les commandants et opérateurs de robots militaires, sont des organes de l'Etat.

Or, d'après l'article 4 du projet de la CDI, le comportement des organes de l'Etat est imputable à l'Etat. Donc si les membres des forces armées violent le DIH, cette violation est imputée à l'Etat.

La violation d'une obligation internationale par l'Etat est un fait illicite. D'après l'article 1 du projet de la CDI :

« Tout fait internationalement illicite de l'Etat engage sa responsabilité internationale. »

Dès lors, l'Etat peut voir sa responsabilité engagée pour ces actes.

Dans notre cas, toutes les obligations que nous avons présentées comme applicables aux opérateurs de robots militaires ou bien aux commandants, doivent être respectées. Leur violation par les militaires est un fait illicite de l'Etat, susceptible d'engager sa responsabilité internationale. Cela vaut que le robot militaire soit semi ou totalement autonome.

Spécialement, l'art 91, PA 1, dispose que :

«La Partie au conflit qui violerait les dispositions des Conventions ou du présent Protocole sera tenue à indemnité, s'il y a lieu. Elle sera responsable de tous actes commis par les personnes faisant partie de ses forces armées. »

On envisage dans cette partie les utilisations normales des robots militaires et non pas les crimes de guerre commis à l'aide de ces derniers.

Une question qui est débattue par les auteurs et notamment Philip Alston11, est la responsabilitédisciplinaire, pour un fait illicite commis en utilisant un robot militaire totalement autonome.

En effet, certains auteurs mettent en évidence l'idée que les commandants pourraient commettre un tel acte illicite mais que la mise en oeuvre de leur responsabilité pose problème car ils n'ont aucun contrôle sur le robot, une fois celui-ci déployé.

D'après l'art 43 du PA 1, Le commandant est responsable de la conduite de ses subordonnés. En outre, ses subordonnés doivent respecter le DIH.

Ainsi, lecommandant est responsable, des violations du DIH commises par ses subordonnés dans certaines conditions. Les subordonnés sont soumis à un régime de discipline interne. Le DIH n'exige pas que leur responsabilité individuelle, soit prévue.

L'article est ainsi formulé :

« 1. Les forces armées d'une Partie à un conflit se composent de toutes les forces, tous les groupes et toutes les unités armés et organisés qui sont placés sous un commandement responsable de la conduite de ses subordonnés devant cette Partie, même si celle-ci est représentée par un gouvernement ou une autorité non reconnus par une Partie adverse. Ces forces armées doivent être soumises à un régime de discipline interne qui assure, notamment, le respect des règles du droit international applicable dans les conflits armés. »

Les commandants, non seulement ne doivent pas donner d'ordres à leurs subordonnés contraires au DIH mais en outre, d'après l'art 87 du PA 1, ils doivent empêcher que les subordonnés de leur propre initiative, violent le DIH. D'après le 3., ils ont une obligation de moyens pour empêcher ces infractions, dès lors qu'ils savent que leurs subordonnés sont impliqués dans une infraction  :

« 1. Les Hautes Parties contractantes et les Parties au conflit doivent charger les commandants militaires, en ce qui concerne les membres des forces armées placés sous leur commandement et les autres personnes sous leur autorité, d'empêcher que soient commises des infractions aux Conventions et au présent Protocole et, au besoin, de les réprimer et de les dénoncer aux autorités compétentes. [...] »

D'après l'article 86 1. Du PA 1, les infractions des commandants peuvent résulter, « d'une omission contraire à un devoir d'agir ».

Selon le commentaire de cet article (point 3537), le « devoir d'agir » auquel l'omission illicite s'applique, est un régime posé aux militaires par le droit interne des Etats.

La seule omission du supérieur est une infraction si le subordonné commet une infraction aux conventions de Genève dans certaines conditions.

L'infraction du supérieur pour omission d'agir est caractérisée sous conditions cumulatives :

_ Il est requis que le supérieur savait ou bien devait savoir qu'il y avait une infraction

_ D'autre part, il faut que le supérieur n'ait pas pris toutes les mesures pratiquement possibles en son pouvoir pour empêcher l'infraction.

« 2. Le fait qu'une infraction aux Conventions ou au présent Protocole a été commise par un subordonné n'exonère pas ses supérieurs de leur responsabilité pénale ou disciplinaire, selon le cas, s'ils savaient ou possédaient des informations leur permettant de conclure, dans les circonstances du moment, que ce subordonné commettait ou allait commettre une telle infraction, et s'ils n'ont pas pris toutes les mesures pratiquement possibles en leur pouvoir pour empêcher ou réprimer cette infraction. »

Donc la responsabilité du commandant ne peut être engagée que s'il a omis d'agir tel que son devoir l'imposait, ou bien s'il a lui-même violé le DIH.

Pour illustrer je propose un exemple pratique :

Soit l'hypothèse d'un opérateur qui, selon le droit national doit demander à chaque fois l'autorisation de son commandant avant de lancer un robot totalement autonome.

Ce droit national oblige alors, le commandant à vérifier à partir d'images recueillies par les capteurs du robot et par satellite, que l'attaque au moyen du robot n'est pas disproportionnée. Le commandant donne l'autorisation d'utiliser le robot sans vérifier les données satellites, lesquelles montrent la présence d'une école à proximité de la cible. Si le robot ainsi utilisé cause des dommages incidents disproportionnés,qui est responsable ? L'opérateur, n'a pas violé directement le DIH car il ne savait ni ne pouvait s'attendre à ce qu'une école soit située à proximité de la cible. Par contre, le commandant a violéle devoir d'agir qui lui imposait de vérifier les données vidéo et satellites. Alors, cette infraction viole par omission, l'art 86 PA 1, et engage la responsabilité du commandant.

II Application du DIH à l'utilisation d'un robot totalement autonome

On va appliquer le DIH applicable aux cas pertinents dans la pratique. Bien que les robots totalement autonomes ne soient pas utilisés actuellement, on tâchera, de relever certains cas qui apparaissent probables dans un futur proches ou pertinents, en ce qu'ils mettent en évidence des problèmes juridiques qui peuvent se poser aussi dans le cas des robots semi autonomes. On tâchera d'éviter d'étudier des cas imaginaires inutiles.

A) Application du régime relatif aux armes

1. application de l'interdiction des armes qui causent des maux superflus

On a montré que l'utilisation du robot peut, selon les cas rendre l'arme elle-même illégale (cf Chap. 1, III A) 1.) au regard de l'art 35§2, PA 1.

Il apparait possible dans la pratique, que le robot soit muni d'armes adaptées à son objectif militaire et à l'environnement de celui-ci, de manière à ne pas causer de maux superflus aux combattants touchés.

Mais, des robots équipés de missiles très puissants utilisés contre des combattants découverts sont dans ces cas des armes de nature à causer des maux superflus. En effet, les combattants ainsi touchés de manière analogue aux victimes de drones, pourraient par exemple perdre des membres ou mourir à cause de la nature même du robot. De tels maux sont superflus par rapport à l'avantage militaire apporté par l'attaque ou bien l'objectif de neutraliser le combattant pris pour cible.

Donc de telles utilisations des robots totalement autonomes les rendraient dans ces cas illégaux comme armes de nature à causer des maux superflus.

Dans l'ensemble, le robot peut être utilisé dans diverses situations et l'évaluation de sa légalité en tant qu'arme dépend de l'usage dont il fait l'objet. La légalité doit alors être examinée au cas par cas.

2. application de l'interdiction des armes qui rendent la mort inévitable

Cette règle n'interdit pas en toutes circonstances, les robots totalement autonomes. En effet, il est possible que le robot soit programmé de telle manière qu'il reconnaisse une personne hors de combat et ne l'attaque pas ou plus. Alors, un combattant touché par le robot, mis hors de combat, pourrait être secouru. Sa mort ne serait pas inévitable. Donc le robot ne rend pas la mort des combattants mis hors de combat, inévitable. Donc il n'est pas illégal.

Mais si, typiquement, ces robots sont équipés de missiles explosifs très puissants, la précision du robot étant très élevée, les combattants à découvert, seront très probablement tués par ces attaques.

Donc dans ces cas, l'arme pourrait être illégale comme arme rendant la mort des combattants mis hors de combat, inévitable.

3. application de l'interdiction des armes à effets indiscriminés

Une telle arme frappe « indistinctement » civils et objectifs militaires en ce qu'elle ne peut être dirigé contre un objectif militaire ou bien parce que même alors, elle frappe indistinctement civils et militaires (art 51 4. PA 1).

D'une part le robot militaire qu'on envisage est fiableà seulement 90%. Il frappe directement 10% de civils en moyenne que l'on a considérés plus haut comme victimes des dommages collatéraux de l'attaque.

Dans cette hypothèse, si le robot est équipé d'armes précises dans un environnement où ne se trouvent que peu de civils, par exemple, il ne frappe pas 50% de civils lors de l'attaque : Il frappe directement uniquement 10% d'entre eux, auxquels il faut ajouter les victimes incidentes à chaque fois qu'il est fait feu sur un objectif réellement militaire. Dans cette hypothèse et dans l'ensemble, Il y a nettement moins de 50% civils touchés. Donc l'arme n'est pas indiscriminée.

Mais, dans les cas où ces mêmes robots seraient équipés de missiles de type explosifs très puissants, et utilisés dans des zones où il y a forte concentration de civils. Les dommages sur les civils sont nettement plus importants : alors on a d'une part 10% de civils directement frappés à cause du défaut de fiabilité et d'autre part les civils frappés de manière incidente chaque fois qu'un objectif réellement militaire est touché alors qu'il se situe à proximité de civils. Dans ces cas, les pertes civiles peuvent être de l'ordre de 50% ou plus en rapport avec les pertes militaires. Dans ces cas, les effets de l'arme peuvent être indiscriminés. Cela rend l'arme elle-même illégale dans ces cas-là.

Donc, selon les cas, le robot totalement autonome peut être une arme à effets indiscriminés, illégale.

4. application de l'interdiction des armes non conventionnelles

Le robot totalement autonome ne peut être équipé d'armes non conventionnelles auquel cas, il devient en tant qu'ensemble une arme non conventionnelle.

Le robot ne figure pas non plus en tant qu'ensemble dans les conventions qui interdisent certaines armes, donc c'est une arme conventionnelle tant, qu'il n'est pas lui-même équipé d'armes non conventionnelles.

En conclusion, le robot comme arme serait illégal dans certaines hypothèses. En particulier, s'il est équipé d'armes explosives très puissantes, alors qu'il est utilisé contre des combattants à découvert ou bien dans un environnement à forte concentration de civils. Alors le robot serait illégal car il serait de nature à causer des maux superflus, ou à rendre la mort inévitable ou enfin, à produire des effets indiscriminés.

B) Application du régime relatif à l'utilisation

1. Application de l'obligation de distinction

? Cas général

Les art 48. et 51 4. a), imposent que le robot soit dirigé contre un objectif militaire et en particulier un objectif militaire déterminé.

Le problème est que le robot n'est pas totalement prévisible dans la pratique. Si un opérateur lance effectivement le robot contre un objectif militaire déterminé, le robot dans 10% des cas peut se tromper de cible.

En l'absence de pratique, on se limitera à relever que l'obligation pèse sur les militaires mais le déploiement d'un robot totalement pourrait permettre une attaque à grande distance, sur une période de temps étendue, réduisant d'autant l'efficacité d'une distinction opérée trop en amont. Le rapport Losinghumanity, souligne qu'un robot totalement autonome, du fait de son autonomie et de ses limites techniques ne pourrait permettre de considérer que les militaires s'acquittent de leur obligation de distintion en général.

?application du régime relatif au doute

Une autre difficulté est le problème du doute qui oblige les opérateurs à épargner la cible. Or dans le cas d'un robot totalement autonome, l'opérateur ne fait que lancer le robot. Dès qu'il est déployé, l'opérateur est dans la pratique privé de toute occasion de douter quant à une éventuelle cible. Même si le robot est programmé pour laisser le bénéfice du doute à la cible, cela ne remplit pas l'obligation. L'art 50 est ainsi formulé : « en cas de doute ». On peut alors considérer que s'il n'y a pas de circonstances dans lesquelles, l'opérateur peut douter, alors il n'y a pas d'obligation qui pèse sur lui. Il est seulement obligé de laisser le bénéfice du doute au civil, lorsqu'il lance le robot.

Mais une telle analyse vide cette règle de sa substance. En effet, dans la pratique, on voit mal dans quel cas l'opérateur douterait, lors même du lancement du robot. Cela équivaudrait à réduire les cas de doute à quasiment aucune hypothèse. On pourrait considérer qu'une telle interprétation est contraire à l'objet et au but du protocole ou même à l'esprit du DIH et que dès lors, le DIH, impose qu'un opérateur juge et le cas échéant doute de la qualité de la cible sur une partie significative de l'attaque.

Alors, si un opérateur déploie un robot totalement autonome, il ne distingue pas les objectifs, tel que le protocole le requiert et ainsi viole ce dernier. Donc cette utilisation est illégale.

?application de l'interdiction d'attaquer les personnes hors de combat

Une problématique analogue se pose concernant les cibles qui doivent être reconnues hors de combat.

Comme analysé plus haut au II, cet article, selon mon interprétation oblige qu'un opérateur reconnaisse en personne, en temps réel, un combattant comme hors de combat. Or s'il lance un robot totalement autonome, l'opérateur, dans la pratique n'a même pas l'occasion de reconnaitre ou non un combattant hors de combat. Il doit intégralement s'appuyer sur la programmation technique du robot.

Dès lors, la partie au conflit ne distingue pas les cibles, tel que le protocole le requiert. Donc il y a violation de l'obligation de distinction.

Ainsi, le DIH interdit qu'un robot totalement autonome soit déployé dans des situations où il pourrait attaquer des combattants hors de combat.

Cela réduit considérablement les cas dans lesquels il pourrait être utilisé.

?application de l'interdiction d'attaquer les personnes affectées à la protection

Ce cas ne soulève pas de problème particulier, il ne nécéssite pas de développement.

2. Application de l'obligation de proportionnalité

Cette règle oblige commandant et opérateur juger le caractère proportionné de l'attaque avant de lancer l'attaque en prenant en compte autres, le défaut de fiabilité du robot. Mais cette évaluation de la proportionnalité se fait très en amont en particulier au vu de la distance que le robot peut parcourir et du temps qu'il peut prendre pour mener l'attaque.

Il n'y a pas de pratique mais le rapport LosingHumanity, insiste sur le fait que lors, de l'attaque, l'évaluationde proportionalité effectuée par les militaires a perdu de son efficacité car elle est effectuée trop en amont.

L'analyse du rapport est quelque peu confuse, mais il énonce qu'à cause de cette distance entre les militaires et l'attaque réelle, les limites techniques intrinsèques à tout robot ne permettent pas aux militaires de correctement juger le caractère proportionné de l'attaque.

Dans ces conditions, il apparait probable que certaines utilisations de robots totalement autonomes seraient disproportionnées.

Dans ces cas, les attaques dont la proportionnalité ne peut être correctement jugée, ne doivent pas être ordonnées et les opérateurs ne doivent pas prendre l'initiative de telles attaques.

3. Application de la règle de la nécessité militaire

L'application de la règle de nécessité militaire ne soulève pas de difficulté particulière quant au travail des équipes de protection civile. Examinons, la protection des biens qu'elle impose :

Les attaques peuvent porter sur des biens normalement affectés à un usage civil s'il y a nécessité militaire. Cela oblige commandants et opérateur à ne pas utiliser un robot militaire totalement autonome contre de tels bien s'il n'y a pas de nécessité militaire. Le rapport « LosingHumanity » de HRW relève qu'il apparait impossible de techniquement programmer le robot de manière conforme à ce principe. Cette argumentation n'est pas pertinente et peu convaincante.

4. Application de l'obligation de précaution dans l'attaque

Comme on l'a vu, commandant et opérateur sont obligés de constamment veiller au respect du principe de distinction pendant l'attaque. Mais dès que le robot est déployé, le contrôle constant par les militaires n'est plus possible dans la pratique. Ainsi, l'utilisation de ces robots prive en pratique les militaires de la possibilité d'exercer un tel contrôle. Alors ces derniers ne peuvent s'acquitter de leurs obligations de précaution telles qu'elles sont requises par le protocole.

Cela rendl'utilisation des robots totalement autonomes illégale au regard de cette obligation de précaution.

Le 57 2. a) i), impose aux militaires de mettre en oeuvre les moyens « pratiquement possibles » pour vérifier la qualité de la cible. Et le commentaire de l'article précise qu'il faut « prendre en temps utile les mesures d'identification nécessaires, afin d'épargner, autant que possible, la population ».

Dans la pratique, on souligne là encore, que l'autonomie du robot implique un éloignement du contrôle des militaires. Ainsi les renseignements que les militaires prendraient avant de lancer le robot pourraient ne pas être considérés comme pris « en temps utile » à cause de l'éloignement temporel et en termes de contrôle sur le robot.

Dans ces cas on pourrait considérer qu'ils n'ont pas vérifié la qualité de la cible tel que cela est requis malgré l'éventuelle impossibilité technique d'en faire davantage.

En outre l'obligation de précaution les oblige aussi au 2. ii) à choisir les méthodes d'attaque qui permettent le mieux d'éviter des dommages collatéraux sur les civils. Dès lors, si d'autres méthodes de guerre, permettant davantage d'épargner les civils sont disponibles, elles doivent être préférées aux robots totalement autonomes. Cela doit être examiné dans la pratique au cas par cas.

Enfin cette obligation implique l'obligation pour l'opérateur d'adapter l'attaque s'il apparait qu'elle viole le principe de distinction ou bien est disproportionnée.

Mais dans l'utilisation d'un robot totalement autonome, l'opérateur est privé de cette possibilité d'adapter l'attaque à l'évolution des faits, car une fois lancé, le robot est autonome. Il ne peut plus être contrôlé en vue d'adapter l'attaque. Or cette obligation d'adapter l'attaque est indépendante des possibilités pratiques. Donc les commandants et en particuliers, les opérateurs, doivent adapter l'attaque. S'ils utilisent un robot totalement autonome, ils ne s'acquittent pas de cette obligation.

Donc l'utilisation d'un robot totalement autonome viole le DIH au regard de l'obligation de précaution dans l'attaque.

5. Application du principe d'humanité

On rappelle que commandants et opérateurs indirectement sont sous l'empire des principes de l'humanité.

Dans ce cas, un opérateur lance un robot totalement autonome, contre une cible, par exemple un combattant ennemi. Ce robot équipé d'armes, peut attaquer le combattant ennemi.

Dans ce cas, non seulement, l'opérateur ne courre aucun risque, mais en outre, la discrétion de l'attaque pouvant causer la mort du combattant est laissée à un robot.

Est-il conforme aux principes de l'humanité, qu'un robot militaire soit autorisé à prendre pour cible de manière autonome un combattant et l'attaquer ?

Le rapport Losinghumanity relève qu'un tel scénario est inacceptable pour de nombreux auteurs au regard de la clause de Martens.

De mon analyse, cela est contraire à l'esprit du DIH et aux principes de l'humanité.

IV Conclusion : les illégalités mises en évidences

Concernant l'utilisation des robots totalement autonomes, plusieurs règles du DIH rendent l'utilisation des robots totalement autonomes, illégales. D'abord quant à légalité du robot en tant qu'arme, il est illégal, qu'un robot soit utilisé, contre des combattants découverts ou à proximité de civils, alors qu'il est équipé de lanceurs de missiles explosifs puissants. Un tel robot est illégal en tant qu'arme causant des maux superflus ou en tant qu'arme rendant la mort inévitable ou en tant qu'arme à effets indiscriminés.

Concernant les utilisations du robot, il y a violation du principe de distinction et de l'obligation de précaution en ce que :

_les opérateurs sont privés de la possibilité pratique de laisser le bénéfice du doute aux cibles ;

_ils sont en outre privés de la possibilité de reconnaitre ou non les personnes hors de combat

_commandants ou militaires sont privés de la possibilité de veiller constamment au respect du DIH pendant l'attaque

_les opérateurs en particuliers sont privés de la possibilité d'adapter l'attaque si l'apparait la cible est protégée par le DIH.

_Enfin, Il y aurait violation des principes de l'humanité

Par ailleurs il y a des préoccupations quant à la légalité de leur utilisation au regard du principe de proportionnalité et de l'obligation de vérifier la qualité de la cible dans le cadre de l'obligation de distinction

Chapitre 3. Proposition de régime juridique spécial pour les robots militaires

Le Chapitre 3 a montré que l'utilisation des robots militaires viole le DIH de diverses manières. Certaines illégalités dépendent des cas et les autres sont dues de manière générale aux fonctions autonomes du robot, indépendamment de la pratique.

Il existe déjà quelques robots militaires qui disposent d'automatismes. Le X47-B est un drone, pas encore utilisé par les armées, mais il est techniquement capable d'une grande autonomie. Il peut décoller et atterrir de manière automatique, sans être piloté12. Donc même si les armées souhaitent développer des robots avec « human-on-the-loop » (les attaques sont contrôlées par un opérateur mais le robot estcapable d'une certaine autonomie). Les technologies vont tendre à rendre possible la conception de divers types d'autonomies, et la conception de robots de plus en plus autonomes. Peut-être sera-t-il envisagé certaines modalités d'autonomie lors de l'initiative d'une attaque ? Il faut que le droit pose des limites face au développement de ces robots semi autonomes. Il n'est pas satisfaisant de supposer que les armées ne veulent elles-mêmes pas utiliser de robots totalement autonomes.

Je vais me servir des hypothèses de violations que l'on a identifiées au Chapitre 3 pour mettre en évidence, comment les futurs robots semi autonomes avec « human-on-the-loop », seront limités par le DIH actuel et comment, dans certains cas, il est nécessaire que des règles spéciales dressent des interdictions fondamentales.

Dans ce chapitre, on étudie exclusivement les robots avec « human-on-the-loop », c'est-à-dire dont les fonctions d'attaque sont contrôlées par un opérateur mais disposants d'une autonomie non négligeable par ailleurs.

I Les lacunes du DIH

Comme la partie relative aux robots totalement autonomes l'a montré, le DIH actuel pose des interdictions de certaines fonctions autonomes des robots militaires. Identifions les violations nettes du DIH par les robots totalement autonomes.

Il ressort qu'au moins 2 règles sont violées par les robots totalement autonomes : l'obligation de distinction et l'obligation de précaution. Les principes de l'humanité en outre sont violés mais il n'y a pas de règle identifiable précisément.

Ainsi, un robot semi autonome ne peut être autonome dans certains ensembles de situations.On peut dresser une liste de 5 interdictions :

1. Il faut en application du principe de distinction, qu'il ne soit pas possible qu'une cible soit attaquée sans qu'un opérateur humain ne soit en mesure d'exercer une faculté de doute quant à la qualité militaire ou civile de la cible.

2. Il faut en outre en application de ce même principe que les opérateurs soient en mesure d'exercer un jugement de manière à reconnaitre une personne hors de combat, comme ne pouvant pas être prise pour cible.

3. En outre il faut que l'opérateur ou le commandant puissent veiller constamment au respect du DIH lors de l'attaque, au titre de l'obligation de précaution.

4. Il faut que les opérateurs puissent adapter l'attaque s'il apparait que la cible est protégée par le DIH en vertu de l'obligation de précaution.

5. Il faut que l'initiative d'une attaque ne soit pas laissée au robot d'après les principes de l'humanité. Mais pour cette interdiction insistons sur le fait qu'il n'y a pas de règle identifiable très clairement.

Dans les autres ensembles d'hypothèses hors de ces 5 hypothèses ici présentées, le robot semi autonome peut fonctionner de manière autonome.

Une solution que l'on peut envisager est un robot avec « human-on-the-loop » que l'on peut lancer contre une cible et qui fonctionne de manière semi autonome, se déplace de manière autonome, puis dès lors, qu'il identifie une cible, il faudrait par exemple qu'il alerte un opérateur, qui lui seul aurait la totale initiative de toute attaque contre une cible, qu'il identifie comme un objectif militaire, en pouvant de manière pratique exercer une faculté de doute quant à la qualité de la victime, il pourrait ainsi en outre reconnaitre que le combattant est hors de combat,veiller constamment au respect du DIH, car, si le robot n'attaque pas de manière autonome, il ne peut pas violer le DIH (s'il n'attaque pas, il ne peut pas violer le DIH). Il pourrait en outre adapter l'attaque et l'annuler s'il apparait que l'objectif militaire est civil ou que l'attaque serait disproportionnée.

Alors, pendant tout le déplacement du robot, l'autonomie peut être totale. L'ensemble des hypothèses qui doivent toujours être contrôlées par un opérateur est la phase d'attaque.

Mais, un problème qui demeure est l'hypothèse d'un robot qui, lorsqu'il identifie une cible alerte l'opérateur. Mais qui en l'absence d'action de l'opérateur, initie l'attaque de manière autonome. Par exemple le robot alerterait l'opérateur qui voit apparaitre un signal d'alerte sur l'un des écrans du cockpit. L'opérateur vérifie les informations que les capteurs transmettent. Il juge que la cible est bien un objectif militaire et laisse le robot initier l'attaque en mode automatique.

Ce cas est purement hypothétique mais remarquons que les 4 premières interdictions que l'on a synthétisées sont respectées : L'opérateur a pu exercer son doute, reconnaitre si oui ou non, la cible était un personne hors de combat, commandant et opérateur ont pu veiller constamment au respect du DIH, et enfin l'opérateur a eu la possibilité d'adapter l'attaque bien qu'il ne l'a pas fait.

La seule interdiction qui reste et qui est violée, est l'interdiction que l'initiative d'une attaque soit laissée à un robot en vertu des principes de l'humanité. Or cette interdiction est la plus faible car elle résulte d'un raisonnement déductif indirect, en l'absence d'une règle précisément délimitée.

Ainsi certains auteurs pourraient considérer que cet exemple hypothétique est légal. De tels auteurs considèreraient que les principes de l'humanité n'interdisent pas qu'un robot fasse feu de manière autonome sur un objectif militaire.

Cela est une lacune du DIP qui nourrit actuellement un débat.

II Proposition d'interdire l'initiative d'une attaque par un robot militaire

La société civile milite pour interdire les « robots tueurs ». Cette expression est provocatrice, mais les associations et ONG concernées ont mené une grande réflexion sur la nécessité de clairement interdire que l'initiative d'une attaque puisse être laissée à un robot. On peut citer le rapport « LoosingHumanity » de HumanRights Watch, le militantisme de l'association américaine ICRAC13 qui regroupe de nombreux universitaires et en particulier est menée par des robotistes. Et enfin l'association américaine« Campaign to stop killer robots ».

M Gubrud14 d'ICRAC a écrit notamment pour que soit clairement posée l'interdiction de laisser l'initiative d'une attaque à un robot militaire semi autonome.

Si le DIH posait clairement une telle limite aux fonctions autonomes des robots, cela permettrait, d'expliciter cette interdiction et d'empêcher l'exemple hypothétique que je viens de donner. Cette interdiction a été déjà déduite de la clause de Martens dans cette étude. Mais elle n'est pas acceptée par tous les auteurs (M N Schmitt entre autres). D'autre part, si elle était posée dans les textes du DIH, elle serait clairement diffusée parmi les Etats parties et au sein de leurs armées.

M Gubrud, soutient d'autre part, que laisser un robot initier une attaque contre un combattant est immoral.

Vu les débats de la doctrine américaine, il semble que les idées de ces associations et ONG ne soient pas partagées. Je pense qu'il faut garder en vue l'esprit du DIH et soutenir leur revendication. Il est nécessaire de tracer clairement cette interdiction que les robots militaires puissent « décider » d'attaquer un objectif militaire de manière autonome.

NOTES

1 http://www.roboticus.org/robotique/30-principe-de-fonctionnement-des-robots

2 http://www.courrierinternational.com/article/2013/01/03/un-ancien-pilote-americain-raconte

3 http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf

4 http://roboinfo.wordpress.com/2010/04/09/talon-specifications/

5 http://www.icrc.org/fre/resources/documents/publication/p0902.htm

6 http://www.dtic.mil/whs/directives/corres/pdf/500001p.pdf

7 http://harvardnsj.org/wp-content/uploads/2013/02/Schmitt-Autonomous-Weapon-Systems-and-IHL-Final.pdf

8 http://www.hrw.org/reports/2012/11/19/losing-humanity-0

9 http://www.theguardian.com/commentisfree/cifamerica/video/2011/jun/15/drone-attack-protocol

10 http://www.globalsecurity.org/military/world/rok/sgr-a1.htm

11 http://www2.ohchr.org/english/bodies/hrcouncil/docs/14session/A.HRC.14.24.Add6.pdf

12 http://www.futura-sciences.com/magazines/espace/infos/actu/d/aeronautique-video-x47b-drone-vraiment-automatique-27895/

13 http://icrac.net/
14 http://gubrud.net/?p=35

BIBLIOGRAPHIE

ALSTON P., Interim Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, UN Doc. A/65/321, 23/8/2010

ARKIN R. T., «People behaving badly, robots behaving better? Embedding ethics in autonomous combat robots» (conférence au Mobile robot laboratory, Georgia institute of technology), 11/7/2013, http://www.youtube.com/watch?v=zrD62oXUZkQ, consulté le 20/10/2013

DAVID E., « Principes de droit des conflits armés », Bruylant - Ulb (5e édition), 18 Décembre 2012

DOCHERTY B., «Losing humanity: the case against killer robots», HUMAN RIGHTS WATCH online reports, Novembre 2012

GUBRUD M., «Foust's case for killer robots engaged: Autonomous weapons are no phantom menace», ICRAC Analysis, 21/06/2013, http://icrac.net/2013/06/fousts-case-for-killer-robots-engaged-autonomous-weapons-are-no-phantom-menace/, consulté le 24/10/2013

HEYNS C., Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, UN general assembly, A/HRC/23/47, publié le 9/4/2013

KRISHNAN A., «Killer Robots: Legality and Ethicality of Autonomous Weapons, Surrey, UK :Ashgate Publishing Limited, 2009

SCHMITT M. N. et MARKHAM, C. J., «Precision air warfare and the law of armed conflict », International law studies/ U.S naval war college, 1/7/2013

SCHMITT M. N., «Autonomous Weapon Systems and International Humanitarian Law: A Reply to the Critics», Harvard law school national security journal, 1/2/2013

REMERCIEMENTS

Je tiens à remercier, mon directeur de mémoire pour toute sa participation à ce mémoire, mon professeur E David pour son aide précieuse et enfin mes camarades pour l'esprit de solidarité qui règne entre nous.

ANNEXE

Je présente à titre d'illustration une brève description technique du « SWORDS », version armée du « Talon » du fabricant Foster-Miller fondée sur Wikipedia :

Figure 3 : photo du « SWORDS » équipé par Qinetiq

Il est commandé par un opérateur qui peut se situer jusqu'à une distance de 1 km du tank,

Ila une autonomie énergétique de 8h30 extensible jusqu'à 13h

La version non armée a été très utilisée en Bosnie, en Irak et en Afghanistan.

3 SWORDS armés de mitraillettes M249 ont été déployés en Iraq mais ils n'ont pas été utilisés comme arme car l'armée américaine ne l'a pas autorisé

D'après le fabricant il aurait été utilisé pour neutraliser des explosifs lors de 20000 missions environ en Iraq et en Afghanistan

Le fabricant développe actuellement son successeur le MAARS (fabriqué par Qinetiq) qui a déjà fait l'objet d'essais






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Soit réservé sans ostentation pour éviter de t'attirer l'incompréhension haineuse des ignorants"   Pythagore