WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'utilisation des robots militaires dans les conflits

( Télécharger le fichier original )
par Thomas Sadigh
Université Paris Sud-11 - M2 droit public international et européen 2013
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

4. application de l'interdiction des armes non conventionnelles

Le robot totalement autonome ne peut être équipé d'armes non conventionnelles auquel cas, il devient en tant qu'ensemble une arme non conventionnelle.

Le robot ne figure pas non plus en tant qu'ensemble dans les conventions qui interdisent certaines armes, donc c'est une arme conventionnelle tant, qu'il n'est pas lui-même équipé d'armes non conventionnelles.

En conclusion, le robot comme arme serait illégal dans certaines hypothèses. En particulier, s'il est équipé d'armes explosives très puissantes, alors qu'il est utilisé contre des combattants à découvert ou bien dans un environnement à forte concentration de civils. Alors le robot serait illégal car il serait de nature à causer des maux superflus, ou à rendre la mort inévitable ou enfin, à produire des effets indiscriminés.

B) Application du régime relatif à l'utilisation

1. Application de l'obligation de distinction

? Cas général

Les art 48. et 51 4. a), imposent que le robot soit dirigé contre un objectif militaire et en particulier un objectif militaire déterminé.

Le problème est que le robot n'est pas totalement prévisible dans la pratique. Si un opérateur lance effectivement le robot contre un objectif militaire déterminé, le robot dans 10% des cas peut se tromper de cible.

En l'absence de pratique, on se limitera à relever que l'obligation pèse sur les militaires mais le déploiement d'un robot totalement pourrait permettre une attaque à grande distance, sur une période de temps étendue, réduisant d'autant l'efficacité d'une distinction opérée trop en amont. Le rapport Losinghumanity, souligne qu'un robot totalement autonome, du fait de son autonomie et de ses limites techniques ne pourrait permettre de considérer que les militaires s'acquittent de leur obligation de distintion en général.

?application du régime relatif au doute

Une autre difficulté est le problème du doute qui oblige les opérateurs à épargner la cible. Or dans le cas d'un robot totalement autonome, l'opérateur ne fait que lancer le robot. Dès qu'il est déployé, l'opérateur est dans la pratique privé de toute occasion de douter quant à une éventuelle cible. Même si le robot est programmé pour laisser le bénéfice du doute à la cible, cela ne remplit pas l'obligation. L'art 50 est ainsi formulé : « en cas de doute ». On peut alors considérer que s'il n'y a pas de circonstances dans lesquelles, l'opérateur peut douter, alors il n'y a pas d'obligation qui pèse sur lui. Il est seulement obligé de laisser le bénéfice du doute au civil, lorsqu'il lance le robot.

Mais une telle analyse vide cette règle de sa substance. En effet, dans la pratique, on voit mal dans quel cas l'opérateur douterait, lors même du lancement du robot. Cela équivaudrait à réduire les cas de doute à quasiment aucune hypothèse. On pourrait considérer qu'une telle interprétation est contraire à l'objet et au but du protocole ou même à l'esprit du DIH et que dès lors, le DIH, impose qu'un opérateur juge et le cas échéant doute de la qualité de la cible sur une partie significative de l'attaque.

Alors, si un opérateur déploie un robot totalement autonome, il ne distingue pas les objectifs, tel que le protocole le requiert et ainsi viole ce dernier. Donc cette utilisation est illégale.

?application de l'interdiction d'attaquer les personnes hors de combat

Une problématique analogue se pose concernant les cibles qui doivent être reconnues hors de combat.

Comme analysé plus haut au II, cet article, selon mon interprétation oblige qu'un opérateur reconnaisse en personne, en temps réel, un combattant comme hors de combat. Or s'il lance un robot totalement autonome, l'opérateur, dans la pratique n'a même pas l'occasion de reconnaitre ou non un combattant hors de combat. Il doit intégralement s'appuyer sur la programmation technique du robot.

Dès lors, la partie au conflit ne distingue pas les cibles, tel que le protocole le requiert. Donc il y a violation de l'obligation de distinction.

Ainsi, le DIH interdit qu'un robot totalement autonome soit déployé dans des situations où il pourrait attaquer des combattants hors de combat.

Cela réduit considérablement les cas dans lesquels il pourrait être utilisé.

?application de l'interdiction d'attaquer les personnes affectées à la protection

Ce cas ne soulève pas de problème particulier, il ne nécéssite pas de développement.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Tu supportes des injustices; Consoles-toi, le vrai malheur est d'en faire"   Démocrite