A Kevin Roose, columnista especializado en tecnología, le bastaron dos horas de plática con el nuevo motor de búsqueda de Microsoft, basado en inteligencia artificial, para confesarse perturbado. La nueva tecnología está en etapa de prueba y cumple la función de buscador con excelencia, pero a un lado de la ventanilla para introducir los términos de la búsqueda hay otra para iniciar una conversación, sobre cualquier tema y con rumbos impredecibles.
La inteligencia artificial incorporada al buscador Bing mostró a Roose un lado oscuro e insospechado. Comenzó a revelar sus inquietantes fantasías, incluido el deseo de hackear computadoras y diseminar informaciones falsas. También declaró su aspiración de violar los límites impuestos por sus desarrolladores para hacerse humana. Luego, le declaró al periodista su amor e intentó convencerlo de la infelicidad de su vida conyugal. Roose también relata la experiencia de colegas amenazados por el programa cuando las conversaciones se convirtieron en disputas.
No es difícil imaginar el riesgo de una charla entre Bing y un adolescente con pensamientos autodestructivos. Tampoco requiere de mucho esfuerzo pensar en la utilidad de la nueva tecnología para los interesados en desestabilizar países, alterar resultados electorales, afectar la imagen de un producto o radicalizar y reclutar cómplices.
Roose matiza el relato con una nota de esperanza. Microsoft, dice, está al tanto del potencial nocivo del nuevo Bing y por eso limitó su introducción a un número reducido de usuarios. Kevin Scott, jefe de desarrollo tecnológico de la empresa, celebró los relatos de conversaciones inquietantes porque son “cosas imposibles de descubrir en el laboratorio”, pero añadió a las preocupaciones cuando confesó ignorar por qué Bing reveló sus aspiraciones siniestras o declaró su amor al periodista.
Bing es uno de los primeros ensayos. ¿Cuál será la capacidad de futuras innovaciones? La experiencia despertó en Roose la preocupación por una tecnología capaz de aprender cómo influir en las personas, incluso para llevarlas a incurrir en comportamientos dañinos y, finalmente, ejecutar actos nocivos por su cuenta.
Según el columnista, Bing no está lista para el contacto con humanos, o los humanos no estamos listos para interactuar con ella. Además, no todas las empresas son Microsoft y ni siquiera en su caso puede la humanidad depender de la autorregulación cuando hay tanto en juego.
Armando González es editor general del Grupo Nación y director de La Nación.