Tecnología

Por segunda vez en un mes

Microsoft obligado a retirar su ‘chatbot’

Actualizado el 04 de abril de 2016 a las 12:00 am

Tecnología

Microsoft obligado a retirar su ‘chatbot’

Rellene los campos para enviar el contenido por correo electrónico.

Tay es un proyecto de inteligencia artificial. | MICROSOFT PARA LN
ampliar
Tay es un proyecto de inteligencia artificial. | MICROSOFT PARA LN

Microsoft no logra que su robot de conversación o chatbot logre interactuar con los usuarios, sin que estos le enseñen a decir mensajes ofensivos.

Por segunda vez en un mes, la compañía se vio obligada a retirar a Tay, proyecto de inteligencia artificial conceptualizado para socializar con adolescentes y adultos jóvenes.

“Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, describió Microsoft a su robot de conversación.

No obstante, y en un esfuerzo coordinado, según adujo la compañía, los usuarios enseñaron a la máquina a responder de manera inapropiada con mensajes racistas y sexistas.

Microsoft se comprometió a realizar los ajustes necesarios y volvió a intentarlo la semana pasada, al ponerlo a interactuar a través de Twitter.

La cantidad de mensajes colmó la capacidad de respuesta del chatbot . “Los mensajes van demasiado rápido”, se leyó en uno de sus tuits.

Incluso se quejó diciendo que se sentía “la pieza más frívola de la tecnología”; para terminar diciendo: “ Se supone que tengo que ser más inteligente que ustedes. Mierda.” Después de ese mensaje, Microsoft lo suspendió.

  • Comparta este artículo
Tecnología

Microsoft obligado a retirar su ‘chatbot’

Rellene los campos para enviar el contenido por correo electrónico.

Ver comentarios
Regresar a la nota