Bot de Microsoft: excusez-nous, il ne déteste pas tout le monde!

© AFP 2024 FRED DUFOURMicrosoft
Microsoft - Sputnik Afrique
S'abonner
Un bot élaboré par la société Microsoft et appelé Tay faisait bonne impression au début quand il a exprimé ses ressentis positifs des êtres humains. Mais il a fini par haïr le monde entier en écrivant des messages xénophobes. Microsoft l’a mis offline et a été obligé de s’excuser.

Le bot est un agent logiciel automatique qui interagit avec des serveurs informatiques. Le bot Tay a été créé par Microsoft dans le cadre de travaux dans le domaine de l'intelligence artificielle.

Robots - Sputnik Afrique
Un bot bienveillant de Microsoft devenu nazi en 24 heures

Eh bien, les phrases diffusées par Tay vers la fin de sa première journée d'existence, le 23 mars dernier, n'étaient pas intelligentes du tout. Il a commencé à détester l'humanité, en particulier, les féministes et les Juifs.

Microsoft a finalement décidé de fermer cette application, et Peter Lee, vice-président de Microsoft Research, a publié, vendredi dernier, des excuses officielles concernant le comportement du bot.

Selon M.Lee, le projet a subi de multiples tests destinés à assurer ses créateurs qu'il n'adopte pas une pareille attitude. Mais comme le bot utilise des expressions trouvées sur Internet, et sous pression de certains internautes, il s'est mis à écrire des phrases xénophobes, explique le responsable de Microsoft.

M.Lee déclare que Tay ne reviendra que si les ingénieurs de Microsoft sont certains qu'une pareille histoire ne puisse se répéter. Il est effectivement mieux de garder le silence plutôt que d'exprimer de la haine envers tout le monde.

Fil d’actu
0
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала