Microsoft obligado a retirar su ‘chatbot’

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Microsoft no logra que su robot de conversación o chatbot logre interactuar con los usuarios, sin que estos le enseñen a decir mensajes ofensivos.

Por segunda vez en un mes, la compañía se vio obligada a retirar a Tay, proyecto de inteligencia artificial conceptualizado para socializar con adolescentes y adultos jóvenes.

“Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, describió Microsoft a su robot de conversación.

No obstante, y en un esfuerzo coordinado, según adujo la compañía, los usuarios enseñaron a la máquina a responder de manera inapropiada con mensajes racistas y sexistas.

Microsoft se comprometió a realizar los ajustes necesarios y volvió a intentarlo la semana pasada, al ponerlo a interactuar a través de Twitter.

La cantidad de mensajes colmó la capacidad de respuesta del chatbot . “Los mensajes van demasiado rápido”, se leyó en uno de sus tuits.

Incluso se quejó diciendo que se sentía “la pieza más frívola de la tecnología”; para terminar diciendo: “ Se supone que tengo que ser más inteligente que ustedes. Mierda.” Después de ese mensaje, Microsoft lo suspendió.