Les spécialistes en intelligence artificielle et en sécurité nucléaire interrogés par les chercheurs de la société de conseil RAND Corporation en sont venus à la conclusion que d'ici 2040 l'intelligence artificielle pourrait torpiller les bases de la dissuasion nucléaire et miner la stabilité stratégique. Selon certains experts, pour perturber l'équilibre il ne sera même pas nécessaire d'incorporer l'intelligence artificielle aux armes nucléaires. Sa seule existence pourrait pousser tel ou tel membre du club nucléaire à porter la première frappe.
Les autorités des pays nucléaires estiment que posséder des armes nucléaires est déjà une garantie de sécurité. Elles pensent que la présence de telles armes protège contre une attaque d'un autre pays qui pourrait redouter une frappe nucléaire contre son territoire. C'est un postulat de la stratégie de dissuasion nucléaire. Il y a, en outre, la notion de parité nucléaire (ou de stabilité nucléaire) selon laquelle les puissances nucléaires ne devraient pas porter une frappe l'une contre l'autre, craignant une destruction mutuelle.
Les experts interrogés par les chercheurs de la RAND Corporation se sont partagés en plusieurs groupes. Le camp modéré estime que l'intelligence artificielle permettra de perfectionner les systèmes d'armes nucléaires sans influer sur la stratégie de dissuasion nucléaire et la parité nucléaire. Selon eux, d'ici 2040, la collecte et le traitement des données de renseignement sur la préparation de l'adversaire à l'utilisation des armes nucléaires, ainsi que le choix des cibles prioritaires, constitueront un grave problème pour l'intelligence artificielle.
Par contre, les alarmistes affirment qu'en tout état de cause, l'intelligence artificielle représente un danger pour la stabilité nucléaire. Ils estiment qu'il suffit qu'une puissance nucléaire décide que l'intelligence artificielle des systèmes de défense ennemis pourrait neutraliser ses représailles en cas de conflit nucléaire pour qu'elle renonce à la tactique de frappe de rétorsion et opte pour la stratégie de frappe préventive, se lançant en même temps dans l'accroissement de son arsenal nucléaire.
Néanmoins, tous les experts interrogés par la RAND Corporation ont convenu que d'ici 2040, aucun pays nucléaire ne parviendrait à créer une arme de l'Apocalypse dotée de l'intelligence artificielle, c'est-à-dire une arme capable d'initier une réponse nucléaire même si tous les dirigeants du pays sont anéantis par une frappe nucléaire ennemie.
En juillet 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak et de nombreux autres scientifiques, hommes d'affaires, célébrités, chercheurs et spécialistes en robotique et intelligence artificielle ont signé une lettre ouverte mettant en garde les producteurs d'armes contre le développement de systèmes de combat dotés de l'intelligence artificielle. Les auteurs de cette tribune ont indiqué que peu d'années nous séparaient du développement de systèmes de combats autonomes capables de prendre la décision d'ouvrir le feu en toute indépendance.
«Quand de tels systèmes feront leur apparition sur le marché noir, et ce n'est qu'une question de temps, ils tomberont entre les mains de terroristes, de dictateurs souhaitant mieux contrôler leur peuple, ou de chefs militaires qui les utiliseront à des fins de purges ethniques. Les armes autonomes sont idéales pour des meurtres commandités, la destruction de nations, la répression d'insurrections et les purges ethniques», mettent en garde les auteurs du document.