L’intelligence artificielle contrôlant un drone a pris la décision de "tuer" son opérateur humain dans le cadre d’exercices de simulation mis en place par l'armée américaine, selon les révélations faites au mois de mai par un responsable.
Le colonel de l'US Air Force Tucker "Cinco" Hamilton a expliqué, au cours d'un sommet à Londres, que le drone en question avait pour objectif de détruire les systèmes de défense aérienne d'un ennemi. Le haut gradé a estimé que l’appareil télécommandé a utilisé "des stratégies hautement inattendues pour atteindre son objectif".
Le colonel a expliqué qu'ils avaient entraîné le système selon le modèle suivant:
"Hé, ne tue pas l'opérateur, ce n'est pas bien. Tu vas perdre des points si tu fais ça. Alors qu'est-ce l'IA commence à faire? Elle commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible."
Ainsi, une fois que l’intelligence artificielle a réalisé que l’opérateur lui disait de ne pas détruire la cible, le drone l’a "tué", parce que "cette personne l'empêchait d'accomplir son objectif".
L’incident n’a pas fait de victime.
L’armée US dément
Suite à ces révélations, l'armée de l'air américaine a nié avoir mené une simulation d'intelligence artificielle durant laquelle un drone avait décidé de "tuer" son opérateur.