WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'utilisation des robots militaires dans les conflits

( Télécharger le fichier original )
par Thomas Sadigh
Université Paris Sud-11 - M2 droit public international et européen 2013
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2. Application de l'obligation de proportionnalité

Cette règle oblige commandant et opérateur juger le caractère proportionné de l'attaque avant de lancer l'attaque en prenant en compte autres, le défaut de fiabilité du robot. Mais cette évaluation de la proportionnalité se fait très en amont en particulier au vu de la distance que le robot peut parcourir et du temps qu'il peut prendre pour mener l'attaque.

Il n'y a pas de pratique mais le rapport LosingHumanity, insiste sur le fait que lors, de l'attaque, l'évaluationde proportionalité effectuée par les militaires a perdu de son efficacité car elle est effectuée trop en amont.

L'analyse du rapport est quelque peu confuse, mais il énonce qu'à cause de cette distance entre les militaires et l'attaque réelle, les limites techniques intrinsèques à tout robot ne permettent pas aux militaires de correctement juger le caractère proportionné de l'attaque.

Dans ces conditions, il apparait probable que certaines utilisations de robots totalement autonomes seraient disproportionnées.

Dans ces cas, les attaques dont la proportionnalité ne peut être correctement jugée, ne doivent pas être ordonnées et les opérateurs ne doivent pas prendre l'initiative de telles attaques.

3. Application de la règle de la nécessité militaire

L'application de la règle de nécessité militaire ne soulève pas de difficulté particulière quant au travail des équipes de protection civile. Examinons, la protection des biens qu'elle impose :

Les attaques peuvent porter sur des biens normalement affectés à un usage civil s'il y a nécessité militaire. Cela oblige commandants et opérateur à ne pas utiliser un robot militaire totalement autonome contre de tels bien s'il n'y a pas de nécessité militaire. Le rapport « LosingHumanity » de HRW relève qu'il apparait impossible de techniquement programmer le robot de manière conforme à ce principe. Cette argumentation n'est pas pertinente et peu convaincante.

4. Application de l'obligation de précaution dans l'attaque

Comme on l'a vu, commandant et opérateur sont obligés de constamment veiller au respect du principe de distinction pendant l'attaque. Mais dès que le robot est déployé, le contrôle constant par les militaires n'est plus possible dans la pratique. Ainsi, l'utilisation de ces robots prive en pratique les militaires de la possibilité d'exercer un tel contrôle. Alors ces derniers ne peuvent s'acquitter de leurs obligations de précaution telles qu'elles sont requises par le protocole.

Cela rendl'utilisation des robots totalement autonomes illégale au regard de cette obligation de précaution.

Le 57 2. a) i), impose aux militaires de mettre en oeuvre les moyens « pratiquement possibles » pour vérifier la qualité de la cible. Et le commentaire de l'article précise qu'il faut « prendre en temps utile les mesures d'identification nécessaires, afin d'épargner, autant que possible, la population ».

Dans la pratique, on souligne là encore, que l'autonomie du robot implique un éloignement du contrôle des militaires. Ainsi les renseignements que les militaires prendraient avant de lancer le robot pourraient ne pas être considérés comme pris « en temps utile » à cause de l'éloignement temporel et en termes de contrôle sur le robot.

Dans ces cas on pourrait considérer qu'ils n'ont pas vérifié la qualité de la cible tel que cela est requis malgré l'éventuelle impossibilité technique d'en faire davantage.

En outre l'obligation de précaution les oblige aussi au 2. ii) à choisir les méthodes d'attaque qui permettent le mieux d'éviter des dommages collatéraux sur les civils. Dès lors, si d'autres méthodes de guerre, permettant davantage d'épargner les civils sont disponibles, elles doivent être préférées aux robots totalement autonomes. Cela doit être examiné dans la pratique au cas par cas.

Enfin cette obligation implique l'obligation pour l'opérateur d'adapter l'attaque s'il apparait qu'elle viole le principe de distinction ou bien est disproportionnée.

Mais dans l'utilisation d'un robot totalement autonome, l'opérateur est privé de cette possibilité d'adapter l'attaque à l'évolution des faits, car une fois lancé, le robot est autonome. Il ne peut plus être contrôlé en vue d'adapter l'attaque. Or cette obligation d'adapter l'attaque est indépendante des possibilités pratiques. Donc les commandants et en particuliers, les opérateurs, doivent adapter l'attaque. S'ils utilisent un robot totalement autonome, ils ne s'acquittent pas de cette obligation.

Donc l'utilisation d'un robot totalement autonome viole le DIH au regard de l'obligation de précaution dans l'attaque.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Tu supportes des injustices; Consoles-toi, le vrai malheur est d'en faire"   Démocrite