HALIFAX, NUEVA ESCOCIA– En los últimos años, la inteligencia artificial (IA) ha venido ganando mayor atención, dinero y talento que en cualquier otro momento de su breve historia, pero gran parte del revuelo repentino se debe a mitos e ideas erróneas que son difundidos por gente fuera del campo.
Durante muchos años, el campo estuvo creciendo de manera incremental. Las estrategias existentes tuvieron un desempeño de entre un 1 y un 2 % mejor cada año con base en parámetros estándar. Pero se registró un verdadero progreso en el 2012, cuando el experto informático Geoffrey Hinton y sus colegas de la Universidad de Toronto demostraron que sus algoritmos de «aprendizaje profundo» podían superar a los algoritmos de visión de computadora de vanguardia por un margen de 10,8 puntos porcentuales en el ImageNet Challenge (un conjunto de datos de referencia).
Al mismo tiempo, los investigadores de IA se beneficiaron de herramientas cada vez más poderosas, entre ellas la computación de nube costo-eficacia, el hardware para procesar números rápido y barato (graphics processing unit), el intercambio de datos fluido a través de Internet y los avances en el software de fuente abierta de alta calidad.
Debido a estos factores, el aprendizaje automático, y particularmente el aprendizaje profundo, se han apoderado de la IA y han generado una ola de excitación. Los inversionistas hacen fila para financiar compañías prometedoras de IA y los gobiernos están invirtiendo cientos de millones de dólares en institutos de investigación de IA.
Si bien un mayor progreso en el campo es inevitable, no necesariamente será lineal. De todos modos, quienes generan revuelo sobre estas tecnologías recurren a una cantidad de mitos atractivos, empezando por la noción de que la IA soluciona todo tipo de problemas.
No pasa una semana sin que aparezcan historias sensacionales sobre cómo la IA supera a los seres humanos: «Las máquinas inteligentes se están autoenseñando física cuántica», «La inteligencia artificial es mejor que los seres humanos en la detección de cáncer de pulmón».
Esos titulares suelen ser verdaderos solo en un sentido estrecho. Para un problema general como la detección de cáncer de pulmón, la IA ofrece una solución para la interpretación particular y simplificada del problema, y reduce la tarea a una cuestión de reconocimiento de imágenes o clasificación de documentos.
Lo que estas historias no cuentan es que la IA en realidad no entiende las imágenes o el lenguaje como lo hacen los seres humanos. Más bien, el algoritmo encuentra combinaciones ocultas y complejas de rasgos cuya presencia en un conjunto determinado de imágenes o documentos es característica de una clase específica (por ejemplo, cáncer o amenazas violentas). Y no necesariamente se puede confiar en esas clasificaciones para tomar decisiones sobre las personas, ya sea que tengan que ver con el diagnóstico de un paciente o con la cantidad de tiempo que alguien debería pasar en la cárcel.
No es difícil ver por qué. Si bien los sistemas de IA superan a los seres humanos en tareas que muchas veces están asociadas a un «alto nivel de inteligencia» (jugar ajedrez, Go o Jeopardy), no están ni cerca de distinguirse en tareas que los seres humanos dominan con poca o ninguna capacitación (como entender chistes).
Lo que llamamos «sentido común», en realidad, es una base gigantesca de conocimiento tácito, el efecto acumulativo de experimentar el mundo y aprender sobre él desde la niñez. Codificar conocimiento de sentido común y alimentarlo en sistemas de IA es un desafío no resuelto.
Si bien la IA seguirá solucionando algunos problemas difíciles, está muy lejos de realizar muchas tareas que los niños desempeñan con toda naturalidad.
Esto apunta a un segundo mito relacionado: que la IA pronto superará la inteligencia humana. En el 2005, el autor futurista de gran éxito de ventas Ray Kurzweil predijo que, en el 2045, la inteligencia automática será infinitamente más poderosa que toda la inteligencia humana combinada. Pero mientras Kurzweil suponía que el crecimiento exponencial de la IA continuaría de manera más o menos constante, es más probable que surjan barreras.
Una de esas barreras es la mera complejidad de los sistemas de IA, que llegan a depender de miles de millones de parámetros para capacitar a los algoritmos de aprendizaje automático a partir de conjuntos de datos gigantescos. Como ya no entendemos las interacciones entre todas estas partes del sistema, es difícil ver cómo diferentes componentes se pueden ensamblar y conectar para realizar una tarea específica.
Otra barrera es la escasez de los datos anotados («rotulados») sobre los cuales se basan los algoritmos de aprendizaje automático. Las grandes tecnológicas como Google, Amazon, Facebook y Apple son dueñas de gran parte de los datos más alentadores, y tienen escasos incentivos para poner estos activos valiosos a disposición de la población.
Un tercer mito es que la IA pronto hará que los seres humanos sean superfluos. En su exitoso libro del 2015 Homo Deus: A Brief History of Tomorrow, el historiador israelí Yuval Noah Harari sostiene que la mayoría de los seres humanos pueden volverse ciudadanos de segunda clase de sociedades en las que todas las tomas de decisiones intelectuales de nivel superior están reservadas a los sistemas de IA.
De hecho, algunos empleos comunes, como el de chofer de camiones, muy probablemente sean eliminados por la IA en los próximos diez años, así como muchas labores administrativas que implican tareas rutinarias y repetitivas.
Pero estas tendencias no implican que vaya a haber un desempleo masivo, con millones de hogares sobreviviendo con un ingreso básico garantizado. Los viejos empleos serán reemplazados por nuevos empleos que todavía ni imaginamos. En 1980, nadie pudo haber sabido que millones de personas pronto se ganarían la vida agregando valor a Internet.
Sin duda, los empleos del futuro probablemente exijan niveles mucho más elevados de formación en matemática y ciencia, pero la IA en sí misma brinda una solución parcial y permite métodos nuevos y más atractivos para capacitar a las futuras generaciones en las competencias necesarias.
Los empleos que se roba la IA serán reemplazados por nuevos empleos para los cuales la IA capacite a la gente. No hay ninguna ley de tecnología o historia que destine a la humanidad a un futuro de esclavitud intelectual.
Existen, por supuesto, más mitos: la IA superará y perjudicará a los seres humanos, nunca será capaz de la creatividad humana y nunca podrá construir una cadena causal y lógica que conecte los efectos con los patrones que los causan. Creo que, en definitiva, el tiempo y la investigación también derribarán estos mitos.
Este es un momento emocionante para la IA, razón más que suficiente para seguir siendo realistas sobre el futuro del campo.
Stan Matwin: profesor de Ciencia Informática en Canada Research Chair y director del Instituto de Análisis de Big Data en la Universidad Dalhousie en Halifax, Nueva Escocia, es profesor en el Instituto de Ciencia Informática de la Academia Polaca de Ciencias.
© Project Syndicate 1995–2021