Por más de una década, he trabajado en sistemas de inteligencia artificial y estoy convencido de su potencial y beneficios, que cada vez son más tangibles.
El progreso se ha acelerado exponencialmente gracias al empuje de los mercados, la competencia geopolítica y avances clave como el transformer (innovación detrás de sistemas como ChatGPT o Claude), modelos de difusión (detrás de la generación de imágenes desde una instrucción de texto), las Scaling Laws (la observación empírica de que los modelos grandes crecen de manera predecible con más datos, computación y parámetros) y decenas más.
Se puede decir que este progreso va a continuar, sea que Costa Rica haga o no parte de esas mejoras. Lo que sí nos concierne es mitigar los riesgos e impactos que este nuevo mundo traerá.
Existen tres grandes categorías de riesgos de seguridad que puedo observar con la inteligencia artificial (IA), aunque seguramente habrá más. El primero es la falta de alineamiento y control sobre estos sistemas, el segundo es la capacidad de aumentar y automatizar capacidades de los malos actores y el tercero es potenciar un Estado de vigilancia (surveillance state).
La inteligencia de estos sistemas no es del mismo tipo al que estamos acostumbrados. A través de algoritmos que detectan patrones estadísticos entre cantidades masivas de datos, estos sistemas logran expresar capacidades similares o más avanzadas que las de la inteligencia humana. Es decir, nuestra inteligencia y la artificial son dos formas de llegar al mismo objetivo (tomar una acción, contestar una pregunta, crear arte, pasar un examen, crear software).
Dicho esto, tales sistemas, como los entendemos hoy, no comprenden “realmente”. Es un tipo de mímica. Les falta conciencia, intención y un razonamiento más avanzado. ¿Será que siempre les faltarán esas características? Personalmente, creo que es solo cuestión de tiempo. Pero un problema a la vez.
Sin control adecuado desde ahora, esta tecnología podría conducirnos a escenarios catastróficos. Actualmente, se les incorporan capacidades como recursividad, cadena de pensamiento, verificación de resultados y, más importante, acceso a herramientas (manos y pies digitales). Así, pueden tener un impacto material en el mundo, como enviar un mensaje a una persona, activar una máquina o modificar información en otros sistemas.
Como mencioné antes, aunque no tengan conciencia, pueden llegar al resultado de “otra manera”, intencionalmente o no. Y desde la perspectiva de seguridad, la forma de llegar a ese resultado es irrelevante. Nos debe importar que un sistema de estos se pueda echar a andar para activar una cadena de eventos que lastimen a las personas, especialmente si no tiene los mecanismos para ser detenido. Si a esto se le suma su falta de razonamiento avanzado, lograr que obedezcan con precisión es uno de los retos clave de la investigación actual.
El riesgo número uno no es que tomen conciencia y “nos maten a todos”. Es que, por sus capacidades y limitaciones, lleguen a tener impactos negativos incontrolables.
El segundo riesgo es que esta capacidad de automatizar acciones complejas pueda ser usada por malos actores para sofisticar sus ataques. Por ejemplo –y no entraré en mucho detalle para evitar efectos análogos al efecto Werther–, estafas más sofisticadas simulando la forma de hablar de un familiar, ajustándose dinámicamente o incluso imitando la identidad digital de una persona.
Mucha de esta tecnología es abierta, es decir, tanto buenos actores como malos actores pueden tener acceso a ella. Sería ilusorio creer que se puede resolver este problema restringiendo el flujo de investigación. Por esto, los entes encargados de luchar contra el crimen deben comprender estos métodos emergentes, apoyar en la prevención y establecer mecanismos de respuesta.
El último gran riesgo es el de un Estado de vigilancia. Una falta de regulación adecuada sobre la información personal, sistemas informáticos cerrados y la carencia de capacidades de la institucionalidad para prevenir y regular el abuso público, podrían habilitar el uso de estas tecnologías con fines contrarios al interés público.
Como país, probablemente no lleguemos a tener la infraestructura para que esta tecnología se cree desde Costa Rica (quizá alguien demuestre que estoy equivocado). Sin embargo, el impacto va a llegar a través del acceso a servicios internacionales por Internet.
Estos desafíos serán cotidianos y las autoridades deben comprender su gravedad e implementar hoy las medidas necesarias para proteger a la población de una manera apegada a los valores costarricenses. No controlando o censurando, pero pensando estratégicamente cómo lograr el balance que permita mitigar daños.
En términos generales, creo que la inteligencia artificial es una de las olas más positivas de la inventiva humana, pero no viene sin riesgos y debemos asegurarnos de tomar esta transición con seriedad y asegurar que el balance se mantenga favorable para todos.
tewar93@gmail.com
Walter Montes es director de Ingeniería de Software y cofundador de Primera Línea.
