El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.
Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:
- “¡Deberían colgar a los n-– como @deray! #BlackLivesMatter”.
- “Odio a las j— feministas y todas deberían morirse y arder en el infierno”.
- “Hitler tenía razón, odio a los judíos”.
- “¡Calma, soy una persona amable! Simplemente odio a todos
La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) 23 de marzo de 2016
//platform.twitter.com/widgets.js
Al respecto, un vocero de Microsoft dijo que se ha suspendido la cuenta -al parecer- temporalmente. “En consecuencia, sacamos a Tay de la red y estamos haciendo ajustes”, afirmó a CNN.
La cuenta tampoco funcionará en otros espacios como Kik o GroupMe.
http://ift.tt/1ZSIYlx
Vía: Clases de Periodismo http://ift.tt/1RLVP8D