28 de marzo de 2016 - 12:23

Tay, la robot de Microsoft que se hizo racista y adepta a Hitler: “Los odio a todos”

El gigante informático tuvo que pedir perdón. Lanzó el experimento a principios de la semana pasada. La robot se volvió un horror

Tay, un software de inteligencia artificial diseñado por Microsoft para conversar como una adolescente, tuvo que ser silenciada por hacer comentarios racistas y misóginos en las redes sociales y la empresa tuvo que pedir perdón.

Microsoft lanzó el experimento la semana pasada, pero nunca se imaginó que la robot se iba a volver racista, mala y adepta a Hitler.

En él,el software Tay -más conocida como un "botchat"- recibía la personalidad de una adolescente que estaba diseñada para aprender de los intercambios online con personas reales.

Pero el plan no salió como se esperaba y sin pretenderlo la joven aprendió cosas malas y se volvió odiosa.


"Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada".

"Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy", fue el último mensaje de Twitter de Tay.


Los mensajes de Tay iban desde el apoyo a los nazis y a Donald Trump, hasta comentarios e insultos hacia las mujeres y los negros.
"Es tanto un experimento social y cultural como técnico", dijo un portavoz de Microsoft.

Todos los comentarios ofensivos de Tay fueron borrados, pero la red está llena de capturas de pantalla en las que todavía se pueden ver.

LAS MAS LEIDAS