Systèmes d’armes létales autonomes : y aura-t-il un Terminator tricolore ?

Ils sont sérieux dans leurs délires guerriers ! Effrayants ou protecteurs ? Qui programmera ces “machines à tuer” ? S’ils utilisaient leur intelligence à fabriquer les mêmes machines pour sauver, ça changerait de la vision de “Terminator”. Ils en ont les moyens, tout est question de programmation et d’humanité, de désir de paix et de partage, d’entraide et de respect. Malheureusement, nous n’en sommes pas encore à considérer “l’autre” comme un frère, c’est plutôt un ‘adversaire ou pire, l’ennemi qu’il faut vaincre.. La concurrence, la course pour être le premier à “inventer” ce qui détruit, n’est plus à prouver. Rien que la bombe nucléaire nous en a donné le triste exemple. Partagez ! Volti

******

Par Laure de Rochegonde* pour The Conversation

« Terminator ne défilera pas au 14 juillet », promettait Florence Parly le 5 avril 2019, alors qu’elle présentait la stratégie du ministère des Armées en matière d’intelligence artificielle. Ainsi signifiait-elle la décision française de ne pas développer de systèmes d’armes létales autonomes (SALA).

Ces technologies, que les médias appellent volontiers « robots tueurs », ont été définies en 2012 par le Département de la Défense américain comme « des systèmes d’armes qui, une fois activés, peuvent sélectionner et attaquer des cibles sans autre intervention d’un opérateur humain ».

Des robots sur le champ de bataille

De fait, l’autonomisation des systèmes d’armes se développe à la faveur des progrès en intelligence artificielle (IA) et en robotique permis par la « quatrième révolution industrielle ».

Si les SALA n’existent pas encore, des prototypes sont développés par un certain nombre d’États – au premier rang desquels la Chine, la Corée du Sud, les États-Unis, Israël, le Royaume-Uni et la Russie – et devraient être de plus en plus répandus dans la décennie à venir. Pourraient alors apparaître sur le champ de bataille des armes capables de déterminer si et quand ouvrir le feu, dans un environnement changeant et imprévisible, sans qu’un opérateur doive indiquer et valider chaque action. Déjà, la Corée du Sud a déployé le long de la frontière intercoréenne un robot sentinelle qui peut repérer des cibles et décider seul de tirer – bien qu’il n’ait encore jamais été utilisé de la sorte.

S’il n’est bien sûr pas question que les robots se régissent par leurs propres lois, comme l’indiquerait l’étymologie du mot grec « αυτονόμος » (autonomos), plusieurs degrés d’autonomie se font jour. Le premier degré conserve un humain dans la boucle décisionnelle, pour conduire le système. L’homme peut aussi être sur la boucle : le système agit alors seul, mais sous la surveillance d’un opérateur qui peut reprendre le contrôle à tout moment. Enfin, le niveau d’autonomie le plus élevé, où l’humain demeure hors de la boucle, signifierait que plus aucun contrôle ne serait maintenu.

Le développement des SALA suscite un intérêt militaire soutenu, au point que certains estiment qu’ils pourraient donner lieu à une nouvelle révolution des techniques de la guerre. Ces systèmes s’annoncent en effet plus rapides, plus endurants et plus coordonnés que les soldats. Alors que la réduction du format des armées oblige à restreindre les effectifs, que la tolérance aux pertes humaines faiblit et que l’évolution accélérée des technologies se prête à l’élaboration de systèmes pouvant suppléer voire remplacer l’homme, les « robots tueurs » s’annoncent particulièrement attractifs pour les armées.

Une opposition de principe

Dans cette perspective, les États écartant la possibilité de développer des armes autonomes risqueraient non seulement d’accuser un retard technologique mais aussi de subir un déclassement stratégique qui serait difficile à combler. Pourtant, la France indique depuis 2013 qu’elle ne compte pas se doter de telles technologies, tant elle prend au sérieux les enjeux éthiques, juridiques, opérationnels et technologiques qu’elles soulèvent.

En effet, l’émergence des armes autonomes donne lieu à un vif débat, initié par des dizaines d’organisations non gouvernementales, alliées en 2012 sous la bannière de la Campaign to Stop Killer Robots pour revendiquer la mise en œuvre d’un traité les interdisant de façon préventive.

Ce mouvement craint que les SALA soient incapables de se conformer au droit international humanitaire – notamment à ses principes de précaution, de distinction, et de proportionnalité ; qu’ils se révèlent incompatibles avec le droit à la vie et le respect de la dignité humaine ; et que leur utilisation engendre un abaissement du seuil d’entrée en conflit et une dilution des responsabilités en cas d’exaction.

Consciente de ces enjeux, la France a initié en novembre 2013 les premières discussions multilatérales sur les SALA à l’ONU, et présidé la première réunion sur le sujet à la Convention sur certaines armes classiques en mai 2014. Depuis 2016, elle a participé à toutes les réunions du groupe d’experts gouvernementaux sur la question, dont l’objectif est d’« explorer et de se mettre d’accord sur les recommandations possibles et sur les options liées aux technologies émergentes dans le domaine des SALA ». En mars 2018, le président Macron révélait au magazine américain Wired qu’il était « catégoriquement opposé » à ce qu’un robot dispose de l’initiative d’ouvrir le feu.

En novembre 2018, lors du premier Forum de Paris sur la Paix, initié et porté par la France, le Secrétaire général des Nations unies Antonio Guterres a appelé les États à interdire ces armes « politiquement inacceptables et moralement révoltantes ».

Des ambitions ambivalentes

Pourtant, dans les enceintes de négociations internationales, la France ne défend pas l’élaboration d’un traité d’interdiction préventive des SALA. En avril 2019, dans le discours cité au début de cet article, Florence Parly balayait même les appels à les prohiber, tout en assurant que « la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain ». Là réside l’ambivalence de la position française, qui s’oppose à l’emploi éventuel d’armes entièrement autonomes, sans pour autant défendre un moratoire sur leur développement.

La France, comme l’Allemagne et le Royaume-Uni, semble vouloir mettre en œuvre un « endiguement contrôlé ». Elle estime en effet que le droit de la guerre suffit à encadrer les SALA, et appelle de ses vœux des négociations ; mais elle envisage davantage un code de conduite qu’un traité d’interdiction.

Lors de la dernière réunion du groupe d’experts gouvernementaux sur les SALA à l’ONU, la délégation française a en effet rappelé que la signature d’un accord juridiquement contraignant, déconnecté de la réalité industrielle et capacitaire, des États serait contre-productive, puisqu’un tel texte risquerait d’une part de ne pas être respecté, et d’autre part de freiner les progrès technologiques dans les domaines civils de l’IA et de la robotique – dans lesquels la France s’efforce de compter, en témoigne sa stratégie d’« intelligence artificielle au service de la défense ».

D’ailleurs, si le rapport Villani sur l’IA, remis en mars 2018, proposait la création d’un observatoire de non-prolifération des armes autonomes, il ne se prononçait pas sur l’éventualité d’un traité international juridiquement contraignant à leur sujet.

Cet été, les députés Claude de Ganay et Fabien Gouttefarde ont présenté à la Commission de la défense nationale et des forces armées de l’Assemblée nationale un rapport d’information sur les SALA. Ils y incitent la France à appuyer l’adoption d’une réglementation internationale contraignante, tout en prônant un accroissement de la recherche dans le domaine de l’autonomie des systèmes « dans le respect des valeurs et de l’encadrement juridique, en continuité des discussions dans le cadre de l’ONU ».

Pour un leadership français en la matière

En 2017, la France a proposé avec l’Allemagne une déclaration politique juridiquement non contraignante, qui affirme l’applicabilité du droit de la guerre aux SALA, la nécessité d’un contrôle humain significatif et l’impossibilité de déléguer la décision létale à un système. Elle rappelle en outre que les États sont tenus d’examiner au stade de leur conception la licéité des armes nouvelles qu’ils développent ou acquièrent.

L’encadrement des armes létales autonomes était à l’ordre du jour lors d’une réunion publique du Conseil de sécurité de l’ONU, le 27 mai 2020. Nicolas de Rivière, le représentant permanent de la France, a clos cette rencontre en rappelant l’enjeu constitué par les SALA et en saluant les « progrès » permis par les discussions à la Convention sur certaines armes classiques, qui ont produit des « principes directeurs ». En effet, les réunions du groupe d’experts gouvernementaux ont abouti à l’adoption de onze principes devant présider au développement des SALA.

Mary Wareham, la coordinatrice de la « Campaign to stop killer robots », a immédiatement rétorqué sur Twitter que si les principes peuvent aider à faire progresser la compréhension collective de ces armes, seul un nouveau traité international est en mesure de protéger les civils de la menace que représentent les SALA.

Image

Le récent rapport du Sénat sur le système de combat aérien du futur (SCAF) présente l’IA comme un « pilier transversal » du programme. Il insiste toutefois sur les enjeux éthiques et juridiques que soulèvent les usages militaires de l’IA, et appelle à relancer les discussions internationales sur l’autonomie des systèmes d’armes pour « faire aboutir un cadre juridique clair, conforme à l’éthique et aux principes du droit international humanitaire ». Dans la même veine, le récent rapport de l’Assemblée nationale sur les SALA souligne qu’un engagement international est « à portée de main » et qu’il appartient à la France d’être moteur sur la question.

Dans un entretien au Monde, le roboticien Noel Sharkey, pionnier du mouvement Stop Killer Robots, a ainsi résumé la situation :

« La France nous a apporté une aide très utile, les progrès sont là mais il reste encore un long chemin à parcourir. »

Il reste que si la France consent à se soumettre seule à un moratoire sur les SALA, comme le Parlement européen y a enjoint les États de l’UE, elle s’exposerait à un retard capacitaire irrattrapable, et prendrait le risque d’être défaite sur le champ de bataille de demain.

Source The Conversation

* Laure de Rochegonde Chercheuse au Centre des études de sécurité de l’Institut français des relations internationales, Doctorante au Centre de Recherches Internationales de Sciences Po, Sciences Po – USPC

Voir sur le sujet :

Volti

2 Commentaires

  1. Foutaises que toutes ces discussions et ces accords “non contraignants”. On autorise ou on interdit, point. Et même là, ça ne servirait à rien. Qui condamnerait les utilisateurs, quand bien même on saurait d’où vient le tas de ferraille qui aura massacré ? Un tribunal international ? Composé de qui ? De membres du NOM ?
    C’est le même problème, à moindre échelle bien sûr, avec les voitures autonomes: qui paie les pots cassés ?
    Et ça ne fera jamais revenir les morts….

    Le comble des arguments, qu’on nous sert à toutes les sauces: oui mais… si la France ne participe pas, elle va prendre du retard… et patati et patata !
    Du retard dans l’art de la tuerie ? Ah bin non, du retard dans la recherche en IA. Ce pays n’est rien de plus qu’une entreprise parmi d’autres entreprises, devant générer des bénéfices (au profit des patrons et actionnaires) et en proie à une rude concurrence !
    Alors, s’il faut expérimenter des armes létales pour cela… bagatelle ! Il y aura bien assez de cobayes pour cela..

  2. ” Du retard dans l’art de la tuerie ? Ah bin non, du retard dans la recherche en IA. ”

    A force de faire des recherches sur l’IA,
    ils en oublient dde se cultiver eux-mémes,
    et finiront idiots et incapables de prévoir que ces projets vont couler en méme temps que
    la fin des ressources miniéres en Terre rares.

    Ils ont qu’a les faire en Bois , ficelles, pailles et cartons,
    là au moins c’est des matiéres renouvellables.

Les commentaires sont clos.