Tuer ou ne pas tuer : le dilemme moral ignoré par les robots tueurs …

Un article d’Eric Martel pour The Conversation qui m’a intéressée au plus au point. Je n’aime pas les robots, ce n’est plus un secret, ces ersatz d’humains de plus en plus sophistiqués et bientôt autonomes ? Capables de réflexion ? D’analyses ? De décisions ? Quand est-il de leur pouvoir de décider ce qui est bien ou dangereux et de l’éradication de la “menace” ? Il n’y a pas de dilemme d’après Mr Martel, cette option est carrément ignorée par les robots. Mais alors quand est-il de des lois d’Azimov ?

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Partagez ! Volti

******

Auteur Éric Martel pour The Conversation

Tuer ou ne pas tuer : le dilemme moral ignoré par les robots tueurs

File 20181016 165905 1u79lio.jpg?ixlib=rb 1.1
Dépourvus de conscience, les robots tueurs pourraient, demain, ne pas être jugés pour leurs actes.
Shutterstock

Eric Martel, Conservatoire national des arts et métiers (CNAM)

« Si des humains peuvent parfois se montrer inhumains, pourquoi des non-humains ne pourraient-ils pas se faire plus humains qu’eux, c’est-à-dire mieux se conformer aux principes normatifs définissant le fait de se conduire “humainement” ? » (Grégoire Chamayou)

Les robots létaux autonomes suscitent une forte inquiétude auprès du grand public. Cette dernière est alimentée par des mouvements qui militent pour l’interdiction de tels systèmes d’armements.

Récemment, le Future of Life Institute a ainsi diffusé un petit film, très inquiétant, où l’on voit des mini drones équipés de systèmes de reconnaissance faciale se poser sur des têtes humaines afin d’y faire exploser leur charge creuse. Heureusement, il ne s’agit là que d’une fiction.

Le robot tueur est par essence beaucoup plus qu’une arme, puisqu’il est apte à choisir et décider de lui même de tirer sur une cible ennemie. Étant dépourvus de conscience, les robots tueurs ne peuvent être tenus pour responsables de leurs actes. Ils ne peuvent donc être jugés, ils doivent répondre à d’autres modes de régulation. L’autonomie des robots tueurs permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Les conséquences sociales, voire morales de l’usage des robots tueurs sont donc loin d’être négligeables.

Ces questions doivent être mises en perspective dans le cadre d’un processus global d’automatisation de la guerre. Nous allons nous intéresser ici à un aspect crucial de l’arrivée des robots létaux autonomes : leur capacité à décider de leur propre chef de tirer et donc tuer des combattants ennemis.

La guerre : une activité très humaine

La guerre est essentiellement une activité régie par des règles et des conventions humaines résultant de normes culturelles et religieuses. Mais elle a également sa propre logique qui défie les conventions. Pour le grand théoricien militaire Clausewitz, elle est « un acte de violence […] qui théoriquement n’a pas de limite ». Ce que les propos d’Eisenhower tendraient à confirmer :

« En ayant recours à la force, on ne savait pas où on allait […] Plus on s’enfonçait profondément dans le conflit, moins il y avait de limites […] sauf celles de la force elle-même. »

Pour résumer, l’on pourrait affirmer comme le général Sherman durant la Guerre de Sécession, avant de faire évacuer puis brûler la ville d’Atlanta, que « la guerre est l’enfer ».

Néanmoins, ces tendances sont contenues, et de façon paradoxale, par les militaires eux-mêmes qui, selon le philosophe Michael Walzer, sont désireux de distinguer « la tâche à laquelle ils consacrent leur vie d’une boucherie pure et simple » par le respect des conventions de la guerre.

Les conventions de la guerre

Les conventions de Genève couvrent deux aspects : le jus ad bellum, droit de déclencher et faire la guerre, et le jus in bello, droit dans la guerre, qui nous concerne particulièrement.

Ce dernier part d’un axiome fondateur : la distinction entre les combattants et les civils. Les premiers ont le droit de tuer en vertu du fait qu’ils peuvent eux-mêmes être tués ; les seconds doivent en être préservés. De cette distinction fondamentale découle quatre grands principes :

  • humanité ;
  • nécessité militaire ;
  • proportionnalité ;
  • discrimination.

Deux principes nous intéressent particulièrement. Le premier, le principe de proportionnalité prescrit que s’il est admissible que des civils soient tués afin de détruire des objectifs ennemis d’importance, cela doit être fait dans une juste mesure.

Selon le journaliste Andrew Cockburn, l’armée américaine considérerait aujourd’hui en Afghanistan qu’un ratio de 30 civils tués pour chaque chef taliban abattu serait acceptable.

Le second, le principe de discrimination stipule qu’il faut veiller à clairement différencier les civils des combattants militaires.

Le respect de ces deux principes dépend fortement de l’intensité du conflit en cours. Ainsi au Vietnam, les commandants, déstabilisés par un ennemi fuyant, ordonnaient systématiquement le bombardement des villages d’où quelques coups de feu étaient tirés.

L’opposition aux robots tueurs

Elle se joue principalement sur les deux critères vus précédemment. En ce qui concerne le facteur de discrimination, l’on ne peut nier qu’il représente un point faible de ces machines : comment différencier, en effet, un soldat qui se rend d’un soldat en armes, ou d’un soldat blessé ?

Si, actuellement, les techniques de reconnaissance de forme sont aptes à distinguer des uniformes, elles font néanmoins, comme l’affirme le roboticien Noel Sharkey, des confusions grossières. Par contre, il est très difficile pour un robot d’identifier un soldat blessé, voire un soldat déposant les armes.

À cela s’ajoute le critère de proportionnalité : une machine peut-elle décider d’elle-même combien de civils pourraient être tués afin de détruire sa cible ?

Pour renforcer ces deux grands arguments, les opposants aux robots tueurs posent un principe d’humanité. Ils partent du principe que les humains ne sont pas rationnels puisqu’ils ont des émotions et se fient à leur intuition. Dans leur majorité, ils manifestent une certaine répulsion à l’idée de tuer leur prochain. C’est ainsi que des études effectuées après la Seconde Guerre mondiale ont montré qu’en moyenne seuls 18,75 % des soldats américains placés en situation d’engagement avaient usé de leur arme.

Cette très vive opposition embarrasse les militaires et explique leurs hésitations quant à l’usage de ces armes. Mais nombreux sont ceux qui, au sein de l’institution, pensent que des puissances comme la Chine ou la Russie n’auront certainement pas ces appréhensions morales et n’hésiteront pas à développer à l’avenir ce type d’armements.

L’arrivée des robots tueurs serait donc inéluctable et mériterait d’être anticipée.

Qui est responsable ?

En vertu de ce principe Ronald C. Arkin, un roboticien, propose de concevoir des machines agissant de façon plus éthique que ces sujets imparfaits que sont les combattants humains. Il considère que « confrontés à l’horreur du champ de bataille », les soldats voient leur capacité de jugement brouillée par les émotions et le stress du combat. Ils auraient donc tendance à commettre des atrocités. Les robots létaux autonomes seraient donc la solution permettant de garantir le respect des lois de la guerre.

Pour Grégoire Chamayou, le problème se situe à un autre niveau. Jusqu’à présent l’arme qui est une chose et le combattant qui est une personne, donc juridiquement responsable, ont toujours été séparés. Le robot létal autonome est lui un ensemble dans lequel l’arme et le combattant sont confondus : agent et instruments sont liés écartant toute possibilité de responsabilité juridique. Comment juger une machine ? Il voit ainsi une chose qui se met à faire usage d’elle-même.

La possibilité d’accorder le droit de tuer à des machines ne serait pas sans conséquence. Si l’on prend en compte qu’à la guerre, le droit de tuer est habituellement réservé aux combattants en vertu du fait qu’ils peuvent eux-mêmes être tués, considérer qu’ils peuvent être éliminés par une machine « équivaudrait à mettre l’homicide sur le même plan que la destruction d’une pure chose matérielle ».

Cette question n’est pas que militaire. Elle aura forcément des répercussions dans l’usage d’autres systèmes automatiques tels que les voitures autonomes. On le voit déjà avec les répercussions d’accidents mortels ayant impliqué ce type de véhicules : qui est responsable ?


L’auteur publie le 18 octobre « Robots tueurs. La guerre déshumanisée, les robots et drones autonomes visent zéro mort ».The Conversation

Eric Martel, Docteur en Sciences de Gestion/Chercheur associé au LIRSA, Conservatoire national des arts et métiers (CNAM)

La version originale de cet article a été publiée sur The Conversation.

Sur le sujet:

Ethique du robot et de la robotisation

Robots armés autonomes : l’art de la guerre en mutation

Pourquoi les robots doivent être capables de dire « non »

Robots tueurs et kamikazes : notre humanité en question

Source:

The Conversation

Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Encore plus, nous sommes en plein dan “Person of Interest”

Facial recognition | Reconnaissance faciale : souriez, vous êtes filmés ! [Vidéo]

Volti

9 Commentaires

  1. Volti, personne n’avait encore osé te le dire, mais les lois d’Asimov, c’est….. du roman ! https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_scratch.gif

    • Peut être… Mais cela n’empêche que c’était un visionnaire aussi doué qu’un Aldous Huxley ! Surtout que contrairement à Huxley, il n’avait pas accès à certains secrets dû au fait de son appartenance à certaines sociétés secrètes comme la Lucis Trust de madame Blavatsky et Alice Bailey !

      Akasha.

    • J’espère que tu ne me fais pas offense à ma culture, et croire que je l’ignore? 😉 Je suis “fan” de SF et ce depuis bien longtemps, ce que j’ai lu et ce qu’il se passe actuellement est largement dépassé.. 🙂

  2. Gueuler.contre les robots tueurs c’est bien, mais se taire au niveau des terroristes de l’UE.US/UK c’est mieux.
    Ils coupent les tètes et torturent sans aucuns remords, mieux que les robots.

    • Sauf que ces mercenaires ne tuent pas et ne torturent pas n importe qui, les robots pourraient ils bien faire cette différence et juger qui doit être torturé ou non ?

      D’autre part, des robots UE.UE/UK en Syrie, Libye, etc… cela se verrait trop alors que des mercenaires humain sous couvert de religion, ca passe plutôt bien… car il faut bien designer un ennemi !

      C’est bien la le sujet, jusqu’a QUEL DEGRE confierons nous ce jugement aux robots ?

  3. C’est vrai qu’avec les robots humains tueurs décervelés par la religion et les jeux vidéo guerriers pour gamins sur tablettes et smartphones, on est déjà bien servi .
    Des robots tueurs qui se retourneraient contre ceux qui les commandent et contre leurs commanditaires ? Le rêve du hacker humaniste . Au secours ! Où sont les hackers humanistes ?https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_cry.gif

  4. La guerre ne devrait pas exister.
    Donc, des robots peut-être, mais pas tueurs.
    Cherchons plutôt la cause au lieu de ne voir que les effets.
    Sinon on peut toujours se battre contre la guerre. Y parraît que cela amène la paix?

  5. Il veulent nous pondre un robot “responsable” de ses actes.

    https://www.lesechos.fr/17/04/2018/lesechos.fr/0301576925662_une-lettre-ouverte-pour-refuser-la—responsabilite-juridique—des-robots.htm

    Quant à la guerre, aura-t-elle un sens quand une armada de robots fera face à une autre armada de robot ?

Les commentaires sont clos.