Comment imaginer le futur des conflits armés? Alors que les drones sont de plus en plus utilisés par les militaires, l'ancien président américain Barack Obama en avait d'ailleurs fait sa marque de fabrique, quels sont les enjeux de l'évolution robotique des conflits? Faut-il créer un droit international à l'attention des robots?
Retrouvez l'intégralité de l'émission en vidéo sur notre chaîne YouTube Radio Sputnik
Quels sont les intérêts pour les forces armées de développer les robots? Pour Emmanuel Goffi, expert en éthique militaire et en études de sécurité à l'université de Manitoba, les avantages sont nombreux: «les drones ont une certaine permanence, ils peuvent rester sur le théâtre très longtemps, recueillir énormément d'informations de manière à ce qu'une fois qu'on décide d'une frappe, cette décision soit prise en connaissance de cause, il y a aussi l'aspect fatigue, il n'y a pas de fatigue chez un robot […] il y a aussi une réactivité qui est beaucoup plus importante que chez l'être humain […] il y a l'autre intérêt évidemment, qui est d'épargner des vies humaines».
Le cas des drones est plus spécifique, ajoute l'universitaire: «l'avantage des drones, c'est de pouvoir traverser une frontière, violer la souveraineté d'un État sans que cet État le sache et de le faire hors du droit des conflits armés. L'idée des drones, c'est essentiellement de recueillir la reconnaissance, surveiller des individus, et éventuellement faire des frappes ciblées.»
Les robots utilisés dans les conflits actuels sont essentiellement des robots démineurs, selon Emmanuel Goffi, qui a servi également vingt-deux ans dans l'armée de l'air française. Il existe en outre «des petits robots chenillés sur lesquels on a des armes automatiques, on a des robots sous-marins qui sont l'équivalent du drone pour la mer. Il y a aussi le développement […] de robots de logistique, donc qui permettent de transporter du matériel.»
Maintenant, quels enjeux éthiques, juridiques et philosophiques posent ces robots? Emmanuel Goffi résume l'ensemble de ces défis: «ça me pose un problème, parce que ça se fait hors de tout cadre juridique, c'est le questionnement qui dure depuis un certain temps, qu'on voit par exemple aux Nations unies, c'est de savoir quel type de cadre juridique on doit mettre en place pour éviter qu'il y ait des dérives sur l'utilisation de ces armes. Mon inquiétude est légale, elle est aussi éthique, parce qu'on en est pour l'instant à des systèmes d'armes qui sont autonomes, mais on n'a toujours pas défini ce qu'était l'autonomie. Mais quand on va vraiment avoir une intelligence artificielle extrêmement développée, la question se pose de savoir, est-ce que cette intelligence ne va pas arriver en compétition avec l'intelligence humaine et puis quelle va être la relation entre l'homme et ces nouvelles machines?»