«Les robots se sont multipliés depuis ces dernières années, d'abord pour le déminage, puis la surveillance, de manière offensive ensuite avec des drones télécommandés, et maintenant avec des programmes de machines autonomes et des "SALA": système d'armes létales autonomes. Comme leur acronyme l'indique, ces systèmes sont faits pour tuer. Mais il s'agit également de démultiplier les facultés des combattants humains, qui seront munis d'exosquelettes pour en faire des soldats augmentés» dévoile à Sputnik Thierry Vallat, avocat au Barreau de Paris et spécialiste du droit numérique et des robots.
Le Royaume-Uni effectue en ce moment des essais militaires inédits. Malencontreux hasard (?) du calendrier, ces exercices ont débuté le 12 novembre, au lendemain du Centenaire de l'armistice de 1918 célébré en grande pompe à Paris par environ 70 chefs d'État et de gouvernement (mais en l'absence de Theresa May).
Ces essais militaires sont le «plus grand exercice de robots militaires de l'histoire britannique», selon les termes de Gavin Williamson, secrétaire d'État à la Défense du Royaume-Uni. Ces exercices, qui vont durer un mois, visent à tester plus de 70 outils technologiques, allant des drones de surveillance aux véhicules sans pilote.
«Cet équipement pourrait révolutionner nos forces armées, les maintenir en sécurité et leur donner l'avantage dans un monde de plus en plus instable», se réjouit Gavin Williamson.
Ces exercices mobilisent plus de 200 personnes, qui seront coordonnées par le Groupe de combat du régiment royal de chars d'assaut («Royal Tank Regiment Battle Group», en anglais).
Cependant, les exercices lancés par le Royaume-Uni mi-novembre ne sont pas exceptionnels. Ils s'inscrivent dans un développement important de technologies issues de la robotique et de l'intelligence artificielle à destination militaire. Pourquoi un tel engouement? Thierry Vallat détaille les usages de ces machines:
«Ils sont d'abord développés pour limiter les pertes humaines: on cherche à minimiser l'impact des combats sur les humains. On va les utiliser aussi pour aider les combattants humains, comme "robot-mule" pour évacuer des blessés ou porter des équipements. Les machines n'ont par ailleurs pas de problèmes de fatigue ou de douleur, peuvent opérer en milieu hostile sans craindre la radioactivité, la chaleur ou la soif. Enfin, et c'est l'un des sujets éthiques qui se pose: les robots neutralisent leur objectif sans état d'âme.»
Jean-Jacques Bridey, président de la commission de la Défense et des Forces armées à l'Assemblée nationale, contacté par Sputnik, décrit pour sa part les différents dispositifs technologiques qui sont aujourd'hui à la disposition des militaires:
«Il ne faut pas confondre robot et drone, IA et SALA. Comme son étymologie russe le suggère, le robot est une machine automatique destinée à aider l'être humain dans son travail ou à s'y substituer. Il est utilisé en priorité pour les travaux sales, répétitifs ou dangereux. Le drone […] est à l'origine un aéronef non habité piloté à distance; par extension, le terme de drone s'applique aussi de nos jours à tout véhicule terrestre, sous-marin ou de surface télécommandé. On parle d'intelligence artificielle (IA) à propos de logiciels auto-apprenant de ses propres erreurs. Les robots, drones et IA sont de simples évolutions technologiques destinées à faciliter l'activité humaine en général (et celle des combattants en particulier) et qui s'inscrivent dans un cadre éthico-juridique bien établi, sans le bouleverser.»
Pour Jean-Jacques Bridey, la rupture se situe entre les machines non létales et les robots destinés à «neutraliser des cibles» (c'est-à-dire à tuer des humains). Si des robots démineurs et autres dispositifs télécommandés ne viennent pas bouleverser les fondements du droit de la guerre, ce n'est pas le cas des robots-tueurs:
«Les systèmes d'armes létales autonomes (SALA) sont la dénomination officielle des "robots tueurs" chers à la science-fiction. Ils n'existent pas (encore), sinon à l'état de prototypes chez certains industriels comme Kalashnikov. Un drone armé n'est pas un SALA, car il est contrôlé à distance et le ciblage comme l'ordre de tir résultent d'une intervention humaine. […] La véritable révolution serait l'autonomie et l'apparition de SALA sur le champ de bataille, ce qui n'est pas encore le cas. Les seuls SALA déployés aujourd'hui sont dans des zones interdites d'accès entre deux frontières et jouent un rôle comparable aux champs de mines; leur intervention est en effet activée par la présence de la victime dans la zone interdite; le déclenchement de l'effet militaire n'est donc pas à proprement parler autonome», détaille-t-il.
Le développement des robots a fait un véritable bond ces dernières années, à l'initiative d'entreprises comme Boston Dynamics (issue d'un projet du Massachusetts Institute of Technology, ou MIT) qui collabore avec l'armée étatsunienne.
Après plusieurs années d'amélioration, les chiens-robots de Boston Dynamics peuvent désormais ouvrir des portes et faire preuve de galanterie, descendre les escaliers, et même danser le Moonwalk:
Si ce toutou futuriste peut sembler sympathique, ne vous y trompez pas, les applications de ce type de recherches sont avant tout sur le champ de bataille. La preuve avec AlphaDog, son pendant militaire, développé par Boston Dynamics pour la DARPA (l'agence responsable du développement des nouvelles technologies au département de la Défense des États-Unis). AlphaDog est nettement plus belliqueux, même s'il n'est pour l'instant destiné qu'à transporter du matériel militaire:
Surmonté d'une mitrailleuse, on imagine quels dégâts pourraient causer ce BigDog, dont le développement a été financé par la DARPA:
Même chose avec Atlas, un robot humanoïde capable de faire des sauts périlleux arrière, de marcher dans la neige et de porter des charges, et de rivaliser avec les Yamakasi sur un terrain de parkour:
La Russie n'est pas en reste en termes de robotique militaire, elle qui ambitionne d'employer plus de 30% de systèmes d'armes autonomes et semi-autonomes à l'horizon 2025.
Quant à la Corée du Sud, elle utilise déjà un robot tueur développé par Samsung pour surveiller sa frontière avec la Corée du Nord.
Selon Amnesty International, qui milite pour l'interdiction des «robots tueurs», ces systèmes d'armes seraient déployés pour surveiller la zone démilitarisée qui sépare les deux Corée depuis 2010.
Et dans l'armée française? Les robots militaires sont prévus pour 2021, en vue d'intégrer l'armée de Terre dans le cadre du programme terrestre Scorpion. Il s'agirait de «grands robots, de l'ordre d'une tonne, qui puissent être employés en opération» a révélé le général Charles Beaudouin, sous-chef d'État-major chargé des plans et des programmes de l'État-major de l'armée de Terre.
La ministre des Armées française Florence Parly a concédé le 4 avril dernier que l'intelligence artificielle était déjà «intégrée dans la vie quotidienne et dans nos armées» et qu'elle prenait une place de plus en plus importante sur le terrain. Cependant, elle s'est défendue de vouloir fabriquer des robots tueurs.
«Il existe de nombreux domaines dans lesquels l'intelligence artificielle pourrait avoir toute sa place au sein d'un environnement de défense. […] L'homme restera dans la boucle pour décider ou pas d'enclencher le système d'arme. Ce n'est pas l'intelligence artificielle qui va appuyer sur le bouton pour enclencher un tir», affirme-t-elle.
Mais face à cet engouement général, des voix s'élèvent pour contester le développement des armes autonomes. Et les critiques fusent même depuis l'intérieur de la sphère technophile, puisque l'entrepreneur multimilliardaire Elon Musk a prédit que «la compétition internationale pour la suprématie en termes d'intelligence artificielle sera sans doute la cause de la 3e Guerre mondiale».
China, Russia, soon all countries w strong computer science. Competition for AI superiority at national level most likely cause of WW3 imo.
— Elon Musk (@elonmusk) 4 septembre 2017
Dans une lettre ouverte adressée aux Nations unies en août 2017, 116 experts en intelligence artificielle et en robotique parmi lesquels Elon Musk, le physicien Stephen Hawking, le philosophe Noam Chomsky, ou encore le cofondateur d'Apple Steve Wozniak, ont alerté les dirigeants nationaux sur les dangers des armes létales autonomes et les ont enjoints d'en réglementer au plus vite l'utilisation sur le champ de bataille.
Il semblerait que cet appel ait porté ses fruits, car l'Onu a lancé en avril dernier une série de discussions officielles sur les Systèmes d'Armes Létales Autonomes (SALA). Ces systèmes, pouvant identifier et éliminer des cibles sans intervention humaine, posent évidemment la question de la responsabilité légale et morale des morts qu'ils engendrent. Pourtant, l'Onu a déclaré que la perspective d'un traité régulant leur utilisation n'était pas à l'ordre du jour.
Jean-Jacques Bridey, président de la commission de la défense et des forces armées à l'Assemblée nationale, a confié à Sputnik que la diplomatie française militait activement à l'Onu pour une réglementation des SALA.
«Les SALA étant incapables de discriminer entre civils et combattants, ils sont par nature contraires au droit des conflits armés et au droit humanitaire; les armées françaises n'ont donc pas vocation à s'en doter. La doctrine française prévoit toujours la présence d'un "homme dans la boucle" dès lors qu'il existe un risque de dommages collatéraux. La France est très active à l'Onu en vue d'interdire les SALA. Le Parlement français, toutes tendances confondues, soutient bien évidemment notre diplomatie sur ce sujet.»
Robots-tueurs ou non, leur emploi soulève des questions pratiques fondamentales: que se passerait-il si ces machines tombaient entre de «mauvaises mains», terroristes par exemple?
«On l'a vu avec l'utilisation de drones par Isis [acronyme anglo-saxon de l'État islamique* ndlr], à des fins terroristes. Mais c'est malheureusement les cas de toutes les armes, pas seulement des robots. Sauf que ceux-ci sont particulièrement performants», détaille Thierry Vallat.
«C'est l'une des sources d'inquiétude les plus grandes. La sécurité des systèmes d'information en général. La cyberguerre sera d'ailleurs certainement l'une des clés des prochains conflits. Et les robots font partie intégrante de ces préoccupations», poursuit l'avocat spécialiste du droit numérique et des robots.
Me Vallat rappelle que «les humains constitueront toujours une cible», et il insiste sur la question de responsabilité liée à ces robots autonomes:
«Qui va-t-on décider de neutraliser et en fonction de quels critères nourrira-t-on la machine? […] En arrivera-t-on à une machine qui décidera seule quelle est sa cible en fonction des paramètres qu'elle aura intégrés, ou y aura-t-il encore un humain qui appuiera sur le bouton?»
Bref, un robot pourrait-il un jour être reconnu coupable de crimes de guerre ou de crime contre l'Humanité? Assistera-t-on à la création d'un tribunal spécial pour juger ces robots-tueurs?
Ces questions sont encore un précoces, mais présagent d'une réalité sans doute plus proche qu'on ne le croit, comme le rappelle l'avocat:
«La non-prolifération des SALA demeure un enjeu majeur qui est loin de faire consensus. Le Parlement européen a pris une résolution en septembre 2018 pour les interdire. Mais jamais on ne les a autant financés et développés!»