El sucesor de Tay resulta que también es un grosero, gracias a Buzzfeed.
¿Recuerdan cuando la inteligencia artificial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder algo similar y los culpables fueron los ilustres editores de Buzzfeed.
Un reporte, más bien anecdótico, de ese sitio ha relatado cómo sostuvieron una serie de conversaciones con el chatbot de Microsoft sobre diversos temas, en donde la inteligencia artificial siempre se mostró prudente y contenida sobre sus declaraciones.
LEER MAS: https://www.fayerwayer.com/2017/07/corrompen-al-chatbot-de-microsoft-y-despiertan-su-islamofobia/