L'organisation néerlandaise PAX a sondé les principaux acteurs de ce secteur hautement stratégique et a classé 50 entreprises selon trois critères: développent-elles des technologies permettant de créer des «robots tueurs»? Travaillent-elles sur des projets militaires liés à ces technologies? Ont-elles promis de s'abstenir d'y contribuer dans le futur?
L'usage de l'intelligence artificielle pour permettre à des systèmes d'armement de choisir automatiquement et d'attaquer des cibles a provoqué d'importants débats éthiques au cours des dernières années.
Pour certains critiques, on pourrait même assister à la troisième révolution de l'art de la guerre après les inventions de la poudre et de la bombe nucléaire.
«Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu'elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d'elles-mêmes de tuer, sans implication humaine?», demande Frank Slijper, principal auteur du rapport publié lundi.
Vingt-deux entreprises représentent une «inquiétude moyenne» pour les auteurs du rapport, dont l'analyse se porte sur 12 pays à travers le monde. Parmi elles, le japonais SoftBank, notamment connu pour son robot humanoïde Pepper.
La catégorie «haute inquiétude» compte 21 entreprises, dont Amazon et Microsoft, qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l'armée américaine l'infrastructure de son «cloud» (service de stockage de données en ligne).
«Les armes autonomes deviendront inévitablement des armes de destruction massive», prédit à l'AFP Stuart Russell, professeur de sciences informatiques à l'université californienne de Berkeley.
«Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme - chars, avions de chasse, sous-marins - ait sa version autonome», ajoute-t-il.
Google et six autres entreprises sont dans la catégorie «bonne pratique».
L'année dernière, Google a renoncé à candidater pour le contrat du Pentagone sur le «cloud», car il pourrait être en contradiction avec ses «principes» en matière d'intelligence artificielle.
Le géant californien avait expliqué ne pas vouloir s'impliquer dans des «technologies qui sont ou pourraient être nocives» et «des armes ou d'autres technologies dont le but principal ou la mise en oeuvre causeraient ou faciliteraient l'atteinte physique aux personnes».
Mardi, aux Nations unies à Genève, un panel d'experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s'il s'est avéré jusqu'ici très difficile de parvenir à un consensus autour de cette question.
Selon le rapport de l'ONG PAX, des employés de Microsoft ont également signalé leur opposition à un contrat avec l'armée américaine concernant des lunettes de réalité augmentée HoloLens destinées à l'entraînement et au combat.
Beaucoup d'inquiétudes entourent également le futur de l'armement autonome, des armes qui n'ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones.
«Avec ce genre d'armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d'une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles», notamment grâce à la reconnaissance faciale, explique Stuart Russell.
En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l'intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer «l'humain» au coeur des technologies liées à l'IA et la nécessité de favoriser la «non-discrimination», ainsi que le «bien-être de la société et l'environnement».
Pour Stuart Russell, le prochaine étape est une interdiction internationale des intelligences artificielles tueuses. «Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées», résume-t-il.