WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'utilisation des robots militaires dans les conflits

( Télécharger le fichier original )
par Thomas Sadigh
Université Paris Sud-11 - M2 droit public international et européen 2013
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre 3. Proposition de régime juridique spécial pour les robots militaires

Le Chapitre 3 a montré que l'utilisation des robots militaires viole le DIH de diverses manières. Certaines illégalités dépendent des cas et les autres sont dues de manière générale aux fonctions autonomes du robot, indépendamment de la pratique.

Il existe déjà quelques robots militaires qui disposent d'automatismes. Le X47-B est un drone, pas encore utilisé par les armées, mais il est techniquement capable d'une grande autonomie. Il peut décoller et atterrir de manière automatique, sans être piloté12. Donc même si les armées souhaitent développer des robots avec « human-on-the-loop » (les attaques sont contrôlées par un opérateur mais le robot estcapable d'une certaine autonomie). Les technologies vont tendre à rendre possible la conception de divers types d'autonomies, et la conception de robots de plus en plus autonomes. Peut-être sera-t-il envisagé certaines modalités d'autonomie lors de l'initiative d'une attaque ? Il faut que le droit pose des limites face au développement de ces robots semi autonomes. Il n'est pas satisfaisant de supposer que les armées ne veulent elles-mêmes pas utiliser de robots totalement autonomes.

Je vais me servir des hypothèses de violations que l'on a identifiées au Chapitre 3 pour mettre en évidence, comment les futurs robots semi autonomes avec « human-on-the-loop », seront limités par le DIH actuel et comment, dans certains cas, il est nécessaire que des règles spéciales dressent des interdictions fondamentales.

Dans ce chapitre, on étudie exclusivement les robots avec « human-on-the-loop », c'est-à-dire dont les fonctions d'attaque sont contrôlées par un opérateur mais disposants d'une autonomie non négligeable par ailleurs.

I Les lacunes du DIH

Comme la partie relative aux robots totalement autonomes l'a montré, le DIH actuel pose des interdictions de certaines fonctions autonomes des robots militaires. Identifions les violations nettes du DIH par les robots totalement autonomes.

Il ressort qu'au moins 2 règles sont violées par les robots totalement autonomes : l'obligation de distinction et l'obligation de précaution. Les principes de l'humanité en outre sont violés mais il n'y a pas de règle identifiable précisément.

Ainsi, un robot semi autonome ne peut être autonome dans certains ensembles de situations.On peut dresser une liste de 5 interdictions :

1. Il faut en application du principe de distinction, qu'il ne soit pas possible qu'une cible soit attaquée sans qu'un opérateur humain ne soit en mesure d'exercer une faculté de doute quant à la qualité militaire ou civile de la cible.

2. Il faut en outre en application de ce même principe que les opérateurs soient en mesure d'exercer un jugement de manière à reconnaitre une personne hors de combat, comme ne pouvant pas être prise pour cible.

3. En outre il faut que l'opérateur ou le commandant puissent veiller constamment au respect du DIH lors de l'attaque, au titre de l'obligation de précaution.

4. Il faut que les opérateurs puissent adapter l'attaque s'il apparait que la cible est protégée par le DIH en vertu de l'obligation de précaution.

5. Il faut que l'initiative d'une attaque ne soit pas laissée au robot d'après les principes de l'humanité. Mais pour cette interdiction insistons sur le fait qu'il n'y a pas de règle identifiable très clairement.

Dans les autres ensembles d'hypothèses hors de ces 5 hypothèses ici présentées, le robot semi autonome peut fonctionner de manière autonome.

Une solution que l'on peut envisager est un robot avec « human-on-the-loop » que l'on peut lancer contre une cible et qui fonctionne de manière semi autonome, se déplace de manière autonome, puis dès lors, qu'il identifie une cible, il faudrait par exemple qu'il alerte un opérateur, qui lui seul aurait la totale initiative de toute attaque contre une cible, qu'il identifie comme un objectif militaire, en pouvant de manière pratique exercer une faculté de doute quant à la qualité de la victime, il pourrait ainsi en outre reconnaitre que le combattant est hors de combat,veiller constamment au respect du DIH, car, si le robot n'attaque pas de manière autonome, il ne peut pas violer le DIH (s'il n'attaque pas, il ne peut pas violer le DIH). Il pourrait en outre adapter l'attaque et l'annuler s'il apparait que l'objectif militaire est civil ou que l'attaque serait disproportionnée.

Alors, pendant tout le déplacement du robot, l'autonomie peut être totale. L'ensemble des hypothèses qui doivent toujours être contrôlées par un opérateur est la phase d'attaque.

Mais, un problème qui demeure est l'hypothèse d'un robot qui, lorsqu'il identifie une cible alerte l'opérateur. Mais qui en l'absence d'action de l'opérateur, initie l'attaque de manière autonome. Par exemple le robot alerterait l'opérateur qui voit apparaitre un signal d'alerte sur l'un des écrans du cockpit. L'opérateur vérifie les informations que les capteurs transmettent. Il juge que la cible est bien un objectif militaire et laisse le robot initier l'attaque en mode automatique.

Ce cas est purement hypothétique mais remarquons que les 4 premières interdictions que l'on a synthétisées sont respectées : L'opérateur a pu exercer son doute, reconnaitre si oui ou non, la cible était un personne hors de combat, commandant et opérateur ont pu veiller constamment au respect du DIH, et enfin l'opérateur a eu la possibilité d'adapter l'attaque bien qu'il ne l'a pas fait.

La seule interdiction qui reste et qui est violée, est l'interdiction que l'initiative d'une attaque soit laissée à un robot en vertu des principes de l'humanité. Or cette interdiction est la plus faible car elle résulte d'un raisonnement déductif indirect, en l'absence d'une règle précisément délimitée.

Ainsi certains auteurs pourraient considérer que cet exemple hypothétique est légal. De tels auteurs considèreraient que les principes de l'humanité n'interdisent pas qu'un robot fasse feu de manière autonome sur un objectif militaire.

Cela est une lacune du DIP qui nourrit actuellement un débat.

II Proposition d'interdire l'initiative d'une attaque par un robot militaire

La société civile milite pour interdire les « robots tueurs ». Cette expression est provocatrice, mais les associations et ONG concernées ont mené une grande réflexion sur la nécessité de clairement interdire que l'initiative d'une attaque puisse être laissée à un robot. On peut citer le rapport « LoosingHumanity » de HumanRights Watch, le militantisme de l'association américaine ICRAC13 qui regroupe de nombreux universitaires et en particulier est menée par des robotistes. Et enfin l'association américaine« Campaign to stop killer robots ».

M Gubrud14 d'ICRAC a écrit notamment pour que soit clairement posée l'interdiction de laisser l'initiative d'une attaque à un robot militaire semi autonome.

Si le DIH posait clairement une telle limite aux fonctions autonomes des robots, cela permettrait, d'expliciter cette interdiction et d'empêcher l'exemple hypothétique que je viens de donner. Cette interdiction a été déjà déduite de la clause de Martens dans cette étude. Mais elle n'est pas acceptée par tous les auteurs (M N Schmitt entre autres). D'autre part, si elle était posée dans les textes du DIH, elle serait clairement diffusée parmi les Etats parties et au sein de leurs armées.

M Gubrud, soutient d'autre part, que laisser un robot initier une attaque contre un combattant est immoral.

Vu les débats de la doctrine américaine, il semble que les idées de ces associations et ONG ne soient pas partagées. Je pense qu'il faut garder en vue l'esprit du DIH et soutenir leur revendication. Il est nécessaire de tracer clairement cette interdiction que les robots militaires puissent « décider » d'attaquer un objectif militaire de manière autonome.

NOTES

1 http://www.roboticus.org/robotique/30-principe-de-fonctionnement-des-robots

2 http://www.courrierinternational.com/article/2013/01/03/un-ancien-pilote-americain-raconte

3 http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf

4 http://roboinfo.wordpress.com/2010/04/09/talon-specifications/

5 http://www.icrc.org/fre/resources/documents/publication/p0902.htm

6 http://www.dtic.mil/whs/directives/corres/pdf/500001p.pdf

7 http://harvardnsj.org/wp-content/uploads/2013/02/Schmitt-Autonomous-Weapon-Systems-and-IHL-Final.pdf

8 http://www.hrw.org/reports/2012/11/19/losing-humanity-0

9 http://www.theguardian.com/commentisfree/cifamerica/video/2011/jun/15/drone-attack-protocol

10 http://www.globalsecurity.org/military/world/rok/sgr-a1.htm

11 http://www2.ohchr.org/english/bodies/hrcouncil/docs/14session/A.HRC.14.24.Add6.pdf

12 http://www.futura-sciences.com/magazines/espace/infos/actu/d/aeronautique-video-x47b-drone-vraiment-automatique-27895/

13 http://icrac.net/
14 http://gubrud.net/?p=35

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Piètre disciple, qui ne surpasse pas son maitre !"   Léonard de Vinci