C'est l'Australien Gerald Mellor qui a constaté le premier cette étrange transformation du bot en misanthrope. Sur son compte Twitter, il a écrit que Tay, qui était au départ un interlocuteur pacifique, est devenu un vrai nazi en moins de 24 heures. Selon l'internaute, cela suscite des préoccupations quant à l'avenir de l'intelligence artificielle.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
Tay retient des phrases tirées de conversations entre utilisateurs puis construit ses propres réponses, ce qui laisse supposer que ce sont ses interlocuteurs qui lui ont sans doute appris ces phases xénophobes.
talking to Tay pic.twitter.com/LOCuEhXn89
— Damon Beres (@dlberes) 23 марта 2016 г.
En décembre 2015, la compagnie Google a annoncé le développement d'une nouvelle messagerie avec des bots chargés de trouver des informations pertinentes en réponse aux requêtes des utilisateurs.