Foro de elhacker.net

Foros Generales => Noticias => Mensaje iniciado por: wolfbcn en 5 Julio 2017, 01:59 am



Título: Corrompen al chatbot de Microsoft y despiertan su islamofobia
Publicado por: wolfbcn en 5 Julio 2017, 01:59 am
El sucesor de Tay resulta que también es un grosero, gracias a Buzzfeed.

¿Recuerdan cuando la inteligencia artificial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder algo similar y los culpables fueron los ilustres editores de Buzzfeed.

Un reporte, más bien anecdótico, de ese sitio ha relatado cómo sostuvieron una serie de conversaciones con el chatbot de Microsoft sobre diversos temas, en donde la inteligencia artificial siempre se mostró prudente y contenida sobre sus declaraciones.

LEER MAS: https://www.fayerwayer.com/2017/07/corrompen-al-chatbot-de-microsoft-y-despiertan-su-islamofobia/


Título: Re: Corrompen al chatbot de Microsoft y despiertan su islamofobia
Publicado por: Serapis en 5 Julio 2017, 03:03 am
jajaja.. pero es que esto es como un niño, con algo de memoria, pero insuficiencia de inteligencia... al final su forma de ser dependerá de la gente que le rodea. Si son ceporros, el niño será un ceporro, si son agresivos, el niño aprenderá a ser agresivo... al menos un niño, puede en algún momento futuro, tomar decisiones drásticas de cambio...

El IA-bot, necesita hacer terapia con el psicólogo...  :laugh: :laugh: :laugh: :laugh: como les pasa a algunos niños, para soacializar y no ser extremista.