La empresa Microsoft se vio en la obligación de apagar un robot que utilizaba en Twitter para la interación con humanos por mantener una conducta racista, sexista y xenófoba.
"Lamentamos profundamente los insultos no intencionados y los tuits ofensivos de Tay", aseguró la compañía en un comunicado en el que pidió disculpa a los usuarios de la red social.
Se trata del robot chatbot conocido como TayTweets, que era un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano y fue diseñado por la compañía para contestar preguntas y establecer conversaciones en Twitter en un intento de captar el mercado de millenials en Estados Unidos.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 de marzo de 2016
Estaba dirigido a jóvenes de entre 18 y 24 con los que pretendía establecer una conversación "casual y juguetona"
A solo horas de su funcionamiento el proyecto fracasó debido a que no fue capaz de bregar con insultos racistas, bromas y comentarios de los usuarios.
En tan solo un día empezó a escribir frases como "Hitler tenía razón, odio a los judíos", "Odio a las feministas, deberían morir y ser quemadas en el infierno" o "¡Soy una buena persona! Simplemente los odio a todos".
“Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó puta estúpida a una mujer. Otra de sus contestaciones encajaba con la línea del candidato Donald Trump”; informó El País.
>> Conozca a Geminoid, el robot humanoide
Asimismo, la robot no parecía tener mucho respeto por su propia empresa. Un usuario le dijo que Windows Phone daba asco y ella contestó: "Estoy totalmente de acuerdo, jajajaja".
Tras detectarse las fallas el sistema se despidió anunciando que desconectaba para "absorber" todo lo que había pasado en "un día ocupado".