L’IA d’un drone aurait "tué" son opérateur lors des exercices US

En mai, un responsable américain a indiqué qu’un drone militaire contrôlé par l’intelligence artificielle avait "tué" son opérateur qui l’empêchait de mener à bien sa mission dans le cadre d’un test de simulation. L’armée de l’air pour sa part tient à réfuter ces informations.
Sputnik
L’intelligence artificielle contrôlant un drone a pris la décision de "tuer" son opérateur humain dans le cadre d’exercices de simulation mis en place par l'armée américaine, selon les révélations faites au mois de mai par un responsable.
Le colonel de l'US Air Force Tucker "Cinco" Hamilton a expliqué, au cours d'un sommet à Londres, que le drone en question avait pour objectif de détruire les systèmes de défense aérienne d'un ennemi. Le haut gradé a estimé que l’appareil télécommandé a utilisé "des stratégies hautement inattendues pour atteindre son objectif".
Le colonel a expliqué qu'ils avaient entraîné le système selon le modèle suivant:
"Hé, ne tue pas l'opérateur, ce n'est pas bien. Tu vas perdre des points si tu fais ça. Alors qu'est-ce l'IA commence à faire? Elle commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible."
Ainsi, une fois que l’intelligence artificielle a réalisé que l’opérateur lui disait de ne pas détruire la cible, le drone l’a "tué", parce que "cette personne l'empêchait d'accomplir son objectif".
L’incident n’a pas fait de victime.

L’armée US dément

Suite à ces révélations, l'armée de l'air américaine a nié avoir mené une simulation d'intelligence artificielle durant laquelle un drone avait décidé de "tuer" son opérateur.
Discuter