Tay, la IA millenial, fue retirada para realizar algunos ajustes.
El bot tipo millenial que inventó Microsoft duró poco, muy poco. Desde Redmond le tuvieron que bajar el switch a Tay luego de que la gente le enseñara cosas poco apropiadas para... un bot.
Entre esas cosas poco apropiadas estaban algunos comentarios racistas que fueron borrados rápidamente por Microsoft, pero que fueron rescatados por Social Hax. De muestra, unas pocas imágenes:
LEER MAS: https://www.fayerwayer.com/2016/03/microsoft-desconecta-su-bot-de-twitter-luego-de-que-hiciera-comentarios-racistas/