El pasado miércoles, Microsoft presentó al mundo a Tay, un bot experimento que pretendía imitar el comportamiento en redes sociales de una chica de 19 años. Tay iba aprendiendo a medida que iba interactuando en Internet. Y como siempre que pones a Internet de por medio, los resultados son de lo más inesperado, ya que la buena fe de Microsoft no hizo que Tay pudiera evitar aprender comportamientos inapropiados.
El bot tuvo un inicio de lo más tímido y normal, intentando conocer a personas y hablar con ellos vía plataformas como Twitter, Kik o Groupme. Pero rápidamente se les fue de las manos y terminó soltando toda clase de insultos racistas, negando el Holocausto, dando apoyo al genocidio y posteando estados controvertidos al azar.
A las pocas horas de su inicio, Microsoft desactivó a Tay.
Leer mas: http://www.urbanian.com/es/tecnologia/609/microsoft-crea-un-bot-de-inteligencia-artificial-y-se-vuelve-racista-y-nazi-en-cuestion-de-horas