La inteligencia artificial emociona tanto como aterra

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Nueva York

Ébola suena a material de pesadillas. La influenza aviar y el SARS también me causan escalofríos. Sin embargo, les diré qué me espanta más que nada: la inteligencia artificial.

A los primeros tres, con suficientes recursos, los pueden parar los humanos. La última, a la que están creando los humanos, pronto podría volverse imparable.

Antes de entrar en lo que posiblemente podría salir mal, permítaseme explicar lo que es la inteligencia artificial. De hecho, me saltaré eso. Dejaré que alguien más lo haga: tome un iPhone y pregúntele a Siri sobre el tiempo o las acciones. O dígale: "Estoy borracho". Sus respuestas son artificialmente inteligentes.

En este momento, estas máquinas artificialmente inteligentes son bastante lindas e inocentes, pero, a medida que se les da más poder en la sociedad, podría pasar poco tiempo antes de que se salgan de control.

Al principio, los fallos técnicos serán reducidos, pero memorables. Quizá una computadora solitaria estropee momentáneamente el mercado accionario, causando daños por miles de millones. O un coche sin chofer se congele en la vía rápida porque funciona mal la actualización del programa informático.

Sin embargo, los trastornos pueden escalar rápidamente y hacerse más atemorizantes y hasta cataclísmicos. Imaginen cómo un robot médico, originalmente programado para deshacerse del cáncer, pudiera concluir que la mejor forma de eliminarlo es exterminando a los humanos genéticamente predispuestos a la enfermedad.

Nick Bostrom, el autor del libro "Superintelligence", expone diversos escenarios petrificantes y apocalípticos. Uno es los nanobots autorreplicables, que son robots microscópicos, diseñados para hacer copias de sí mismos. En una situación positiva, podrían combatir enfermedades en el organismo humano o comer material radiactivo en el planeta. Sin embargo, dice Bostrom, una "persona de intenciones maliciosas en posesión de esta tecnología podría causar la extinción de la vida inteligente en la Tierra".

Los partidarios de la inteligencia artificial argumentan que estas cosas nunca pasarían y que los programadores pueden construir salvaguardas. Sin embargo, seamos realistas: se requirió casi medio siglo para que pudieran evitar que las computadoras dejaran de funcionar cada vez que se revisaba el correo electrónico. ¿Qué los hace pensar que pueden manejar ejércitos de robots cuasi inteligentes?

No soy el único con estos temores. El futurista y residente en Silicon Valley, Elon Musk, dijo recientemente que la inteligencia artificial es "potencialmente más peligrosa que las armas nucleares". Y Stephen Hawking, una de las personas más inteligentes de la Tierra, escribió que la IA exitosa "sería el mayor acontecimiento en la historia humana. Desafortunadamente, podría ser también el último". Existe una larga lista de expertos en computación y escritores de ciencia ficción también temerosos de un futuro infestado de robots depravados.

Dos principales problemas con la inteligencia artificial han llevado a personas como Musk y Hawking a preocuparse. El primero, un temor en un futuro más cercano, es que hemos estado comenzando a crear máquinas que pueden tomar decisiones como los humanos, pero estas máquinas no tienen moralidad y es probable que nunca la tengan.

El segundo, muy lejano, es que una vez que construyamos sistemas que son tan inteligentes como los humanos, estas máquinas inteligentes podrán construir máquinas más listas, a las que a menudo se hace referencia como superinteligencia. Allí, dicen los expertos, es cuando las cosas realmente pueden salirse de control, ya que el índice de crecimiento y expansión de las máquinas se incrementaría exponencialmente. No podemos crear salvaguardas en algo que no construimos nosotros.

"Nosotros los humanos encaminamos el futuro no porque seamos los seres más fuertes en el plante, ni los más rápidos, sino porque somos los más inteligentes", notó James Barrat, el autor de "Our Final Invention: Artificial Intelligence and the End of the Human Era". "Así es que cuando haya algo más inteligente que nosotros en el planeta, va a regir sobre nosotros en el planeta.

Lo que hace que sea más difícil de comprenderse es que, de hecho, no sabemos qué aspecto tendrán o cómo actuarán las máquinas superinteligentes. "¿Puede nadar un submarino? Sí, pero no nada como un pez", dijo Barrat. "¿Puede volar un avión? Sí, pero no como un ave. La inteligencia artificial no será como nosotros, pero será la suprema versión de nosotros".

Quizá el escenario más aterrador sea cómo usará el ejército estas tecnologías. No es difícil imaginar a los países en una carrera armamentista para construir máquinas que puedan matar.

Bonnie Docherty, una conferenciante en derecho en la Universidad de Harvard e investigadora sénior en Human Rights Watch, dijo que la carrera para constituir armamento autónomo con inteligencia artificial –lo cual ya está en curso– recuerda a los primeros días de la carrera para construir armas nucleares, y que deberían establecerse tratados antes de que lleguemos al punto en el que las máquinas estén matando personas en el campo de batalla.

"Si no se detiene este tipo de tecnología ahora, llevará a una carrera armamentista", dijo Docherty, quien ha escrito varios ensayos sobre los peligros de los robots asesinos. "Si un Estado los desarrolla, entonces, otro Estado los va a desarrollar. Y no se les debería dar poder de matar a máquinas que carecen de moralidad y mortalidad".

Entonces, ¿cómo nos aseguramos de que estas situaciones catastróficas no se cumplan? En algunos casos, es probable que no podamos detenerlas. Sin embargo, podemos dificultar parte del caos potencial siguiendo el ejemplo de Google. A principios de este año, cuando el gigante de los motores de búsqueda adquirió DeepMind, una compañía de inteligencia artificial, inspirada en la neurociencia, con sede en Londres, ambas empresas instalaron un consejo de seguridad y ética, orientado a asegurar que estas tecnologías se desarrollen con seguridad.

Demis Hassabis, fundador y director ejecutivo de DeepMind, dijo en una videoentrevista que cualquiera que construya inteligencia artificial, incluidos gobiernos y compañías, debería hacer lo mismo."Claramente, deberían está pensando en las consecuencias éticas de lo que hacen", dijo Hassabis. "Con muchísima antelación".