Microsoft suspende ‘chatbot’ por dar mensajes ofensivos

Programa de inteligencia artificial estaba orientado a los adolescentes

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

San Francisco. AP. El chatbot Tay, un programa de inteligencia artificial diseñado por Microsoft para simular un robot que chatea como adolescente, fue suspendido en menos de 24 horas tras difundir mensajes racistas, sexistas y ofensivos.

Microsoft explicó que, en un esfuerzo coordinado, la gente le enseñó a Tay a responder de manera inapropiada.

“No puedo creer que no lo vieran venir”, comentó el experto en inteligencia artificial Kris Hammond.

La compañía creó a Tay como un experimento para saber más sobre computadoras y conversación humana. El programa estaba dirigido a jóvenes entre 18 y 24 años de edad y “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida”.

El programa usaba jerga e intentaba dar respuestas graciosas a mensajes y fotografías.

El chatbot fue lanzado el miércoles y Microsoft invitó al público a interactuar con él en Twitter y otros servicios populares entre adolescentes y adultos jóvenes. “Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, dijo la compañía.

Sin embargo, algunos usuarios aparentemente vieron que no era muy difícil hacer que Tay realizara comentarios ofensivos, al parecer obligado, luego de que le repetían preguntas o declaraciones que incluían mensajes ofensivos. Pronto, el chatbot estaba enviando mensajes de empatía con Hitler y creando furor en redes sociales.

“Desafortunadamente, a las 24 horas de ser colocado en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera inapropiadamente”, se lee en un comunicado.

Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de “llamada y respuesta”, agregó Hammond, quien trabaja con inteligencia artificial en la Universidad Northwestern y funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

“Todo el mundo dice que Tay se convirtió en esto o que se volvió racista”, dijo Hammond y agregó: “No es verdad. Con toda certeza, el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría”.

“El problema es que Microsoft le dio rienda suelta a Tay en línea, en donde muchas personas consideran que es entretenido armar un alboroto. La compañía debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay”, señaló Caroline Sinders, experta en analítica conversacional y quien trabaja en robots de chat para otra empresa tecnológica.

Para Sinders, Tay es “un ejemplo de mal diseño”. En lugar de montar algunos lineamientos sobre cómo lidiaría el programa con temas controversiales, aparentemente Tay fue dejado a su suerte para aprender lo que se le dijera, añadió Sinders.

“Es realmente un buen ejemplo de aprendizaje de máquinas. Aprende de retroalimentación. Eso significa que necesita mantenimiento constante”, añadió la experta.

Sinders espera que Microsoft vuelva a lanzar el programa, pero solo después de “realizarle mucho trabajo”.

Microsoft anunció que hace ajustes en Tay, pero sin dar posible fecha para su regreso.