En Libye, des humains ont été «pourchassés» par des drones de combat létaux autonomes, selon un rapport de l’Onu

Pour la première fois, un drone militaire entièrement autonome s’en est pris à des humains, d’après un rapport des Nations unies sur la Libye. Human Rights Watch réclame une législation internationale contre les «robots tueurs».
Sputnik

La guerre contre les machines vue dans Terminator devient-elle une réalité? C’est ce que laisse croire un passage du rapport de 500 pages de l’Onu sur la situation en Libye, publié en mars dernier. Tout juste un an plus tôt, des drones Kargu-2, fabriqués par la société turque STM, auraient ciblé des humains sans qu’aucun ordre ne soit donné derrière.

«Les convois de logistique et les unités des forces affiliées à Haftar qui battaient en retraite ont été pourchassés et pris à partie à distance par des drones de combat ou des systèmes d’armes létaux autonomes», indique le rapport.

Ces systèmes «avaient été programmés pour attaquer des cibles, sans qu’il soit besoin d’établir une connexion des données entre l’opérateur et la munition, et étaient donc réellement en mode d’autoguidage automatique», précise-t-il.

Le texte n’indique toutefois pas si cette attaque a fait des victimes ou des blessés, mais les experts de l’Onu affirment que le «harcèlement constant de la part des drones de combat, conjugués aux systèmes d’armes létaux autonomes», a «entraîné la défaite des forces affiliées à Haftar dans l’ouest libyen».

«Kargu peut être utilisé efficacement contre des cibles statiques ou mobiles grâce à ses capacités de traitement d'images en temps réel et à ses algorithmes d'apprentissage automatique intégrés à la plateforme», décrit le concepteur du drone.

Vers leur interdiction?

La question des armes de guerre autonomes inquiète l’organisation depuis des années. En 2017, l’Onu s’est associée à Human Rights Watch (HRW) pour ouvrir les discussions en vue de leur interdiction. Cette ONG avait déjà lancé en 2013 une campagne «Stopper les robots tueurs» pour exprimer sa préoccupation sur ces avancées technologiques sans cadre législatif.

En 2018, le secrétaire général des Nations unies, Antonio Guterres, avait qualifié ces armes de «politiquement inacceptables et moralement répugnantes» et avait appelé les États-membres à les interdire. En août 2020, HWR a publié un rapport sur les points de vue de 97 pays, affirmant qu’une majorité d’entre eux reconnaît la nécessité de la décision, du contrôle et du jugement humain pour la manipulation d’armes.

Toutefois, aucun instrument juridique contraignant n’est encore mis en place, puisque les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie s’y sont opposés. Quant à la Chine, elle souhaite interdire leur utilisation, mais pas leur développement et production. Autant de pays qui continuent de développer ou d’investir massivement dans l’intelligence artificielle et les systèmes d’armes autonomes.

Discuter