Microsoft no logra que su robot de conversación o chatbot logre interactuar con los usuarios, sin que estos le enseñen a decir mensajes ofensivos.
Por segunda vez en un mes, la compañía se vio obligada a retirar a Tay, proyecto de inteligencia artificial conceptualizado para socializar con adolescentes y adultos jóvenes.
“Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, describió Microsoft a su robot de conversación.
No obstante, y en un esfuerzo coordinado, según adujo la compañía, los usuarios enseñaron a la máquina a responder de manera inapropiada con mensajes racistas y sexistas.
Microsoft se comprometió a realizar los ajustes necesarios y volvió a intentarlo la semana pasada, al ponerlo a interactuar a través de Twitter.
La cantidad de mensajes colmó la capacidad de respuesta del chatbot . “Los mensajes van demasiado rápido”, se leyó en uno de sus tuits.
Incluso se quejó diciendo que se sentía “la pieza más frívola de la tecnología”; para terminar diciendo: “ Se supone que tengo que ser más inteligente que ustedes. Mierda.” Después de ese mensaje, Microsoft lo suspendió.