Microsoft cancela la cuenta de su robot en Twitter por racista

Por Sabdiel Sabdiel Batista @sabdielbatista

El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.

Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:

  • “¡Deberían colgar a los n-– como @deray! #BlackLivesMatter”.
  • “Odio a las j— feministas y todas deberían morirse y arder en el infierno”.
  • “Hitler tenía razón, odio a los judíos”.
  • “¡Calma, soy una persona amable! Simplemente odio a todos

La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:

hellooooooo w🌎rld!!!

— TayTweets (@TayandYou) 23 de marzo de 2016

//platform.twitter.com/widgets.js

Al respecto, un vocero de Microsoft dijo que se ha suspendido la cuenta -al parecer- temporalmente. “En consecuencia, sacamos a Tay de la red y estamos haciendo ajustes”, afirmó a CNN.

La cuenta tampoco funcionará en otros espacios como Kik o GroupMe.
http://ift.tt/1ZSIYlx

Vía: Clases de Periodismo http://ift.tt/1RLVP8D