El 30 de mayo, más de 300 científicos, tecnólogos, inversionistas, empresarios y académicos divulgaron lo que quizá sea el manifiesto más corto de la historia. Con apenas 22 palabras en inglés (mi traducción libre en español se excede en seis), dice así: “Mitigar el riesgo de extinción inducido por la IA debe ser una prioridad global, junto con otros riesgos de escala social, como las pandemias y la guerra nuclear”.
Entre las luminarias firmantes estuvieron Geoffrey Hinton y Yoshua Bengio, considerados como “padres” de la inteligencia artificial (IA); Sam Altman, de OpenAI; Demis Hassabis, de Google DeepMind; y Bill Gates, quien no usó su identidad de Microsoft, sino de Gates Ventures.
Pocos meses antes, el 30 de noviembre, se había producido un justificado revuelo global cuando la empresa OpenAI, de Silicon Valley, lanzó ChatGPT, poderoso modelo lingüístico capaz de generar textos e imágenes y desarrollar conversaciones de manera aparentemente natural, a partir de sofisticados procesos y monumentales bases de datos.
La inquietud
La IA venía desarrollándose desde muchos años antes a una velocidad frenética, pero ChatGPT captó la imaginación popular y puso en evidencia que el genio había sido liberado. Casi de inmediato, sus múltiples implicaciones —tecnológicas, políticas, económicas y, sobre todo, éticas— se convirtieron en centro de intensa discusión.
La mayor inquietud fue resumida por Hinton en una frase: “Estas cosas podrían llegar a ser más inteligentes que nosotros y decidir tomar el control; es necesario preocuparnos desde ahora sobre cómo evitar que ocurra”.
El documento de 22 palabras fue una alerta dramática —quizá hiperbólica, quizá apenas justa— para inducir a la acción preventiva. El gran tema es cómo conducirla.
De por medio existen, al menos, dos preguntas esenciales: ¿cómo impulsar el enorme potencial positivo de la IA y, a la vez, impedir que se vuelva contra la integridad y derechos del género humano?; ¿cómo fomentar la innovación, pero sin renunciar a las regulaciones y controles necesarios para evitar lo peor?
Los intentos de respuesta han proliferado en los últimos meses, pero solo uno destaca hasta ahora por su carácter integral y vinculante: el de la Unión Europea (UE). Otros, por el momento, apenas son prometedores.
Cuatro iniciativas
El 13 de setiembre, el Senado estadounidense realizó una audiencia con los más reconocidos dirigentes de empresas vinculadas con la IA sobre su potencial e implicaciones.
Entre los participantes estuvieron Bill Gates, Mark Zuckerberg (Meta-Facebook), Sundar Pichai (Google) y Elon Musk (Tesla, X y SpaceX). (Sam Altman había comparecido en mayo). Todos se manifestaron a favor de algún tipo de regulación gubernamental, por el momento indefinida.
El 30 de octubre, el presidente Joe Biden firmó una “orden ejecutiva” orientada, entre otras cosas, a reducir los riesgos de seguridad y desinformación generados por el desarrollo de la IA.
Ese mismo día, una reunión ministerial de las siete democracias más industrializadas del mundo (G7) acordó un conjunto de guías internacionales y un código de conducta voluntario para los desarrolladores de la IA.
Más universal en su espectro, fue la reunión convocada por el primer ministro británico, Rishi Sunak, y realizada entre el 1.° y el 2 de noviembre, con la asistencia de un auténtico “quién es quién” de la informática mundial y representantes de 28 países, entre ellos el anfitrión, Estados Unidos, China, la India, Corea del Sur y varios de Europa.
La declaración final alertó sobre los riesgos de los más avanzados sistemas de IA, destacó su carácter global y enfatizó en la necesidad de abordarlos mediante cooperación internacional. Sin embargo, no estableció objetivos claros de política pública, algo que quedará para reuniones de seguimiento en Corea y Francia, ambas el próximo año.
Además de las inquietudes que reflejan, y las acertadas ideas que plantean, todas estas iniciativas tienen algo en común: carecen de fuerza vinculante. Incluso, un decreto como el de Biden solo puede incidir en las decisiones del gobierno federal, aunque sea un buen primer paso hacia posibles regulaciones más amplias, que requerirán aprobación legislativa.
Regulación europea
En este contexto, adquiere particular importancia el acuerdo alcanzado el 8 de este mes por los órganos competentes de la UE sobre los términos de una próxima Ley de Inteligencia Artificial.
Se trata de un hito indiscutible. Permitirá, por primera vez, poner en práctica una regulación pública en la materia, asentada en procesos democráticos, principios claros, decisiones transparentes, normas inteligentes e implementación flexible.
En esencia, pretende garantizar que los sistemas de inteligencia artificial utilizados en la UE sean seguros, transparentes y respetuosos de derechos fundamentales, sin por ello desestimular las innovaciones e inversiones necesarias para su desarrollo.
Debido a la rápida evolución de la IA, el acuerdo no se orienta a regular las tecnologías, sino sus usos. A todos los modelos se les exige transparencia sobre sus procedimientos, pero cuanto mayor sea el daño potencial que puedan causar, más estrictas serán las reglas por seguir. Y si su impacto resulta inaceptable para los ciudadanos y la democracia, no podrán utilizarse.
Por ejemplo, los modelos que permiten la creación de imágenes y sonidos manipulados (deepfakes) deberán utilizar marcadores para alertar que sus resultados fueron generados por IA. En cambio, la iniciativa prohíbe los sistemas biométricos alimentados por variables sensibles como raza, religión u orientación sexual; las tecnologías de reconocimiento facial, excepto para propósitos de seguridad pública claramente establecidos; el reconocimiento de emociones en centros de trabajo y educación; o la manipulación del comportamiento.
El acuerdo deberá ser ratificado por las legislaturas nacionales y el Parlamento Europeo antes de entrar en vigor en el 2026, según el calendario establecido. Sin embargo, algunas de las prohibiciones entrarán a regir antes.
Es posible que su articulado adolezca de debilidades o, quizá, excesos, pero la ventaja es que se manifestarán durante el proceso de aplicación, y podrán ser enmendados o mejorados con la misma dinámica que los concibió.
Tecnologías de tan inmenso potencial creativo y destructivo como la IA deben ser domesticadas adecuadamente. Sus desarrolladores tienen enorme responsabilidad, y quizá estén dispuestos a asumirlas, pero no basta con ellos, porque el afán de lucro puede hacer saltar las válvulas de la ética.
Por esto es indispensable una regulación democrática e inteligente. La UE ha dado un admirable paso adelante. Debemos, al menos, seguirlo con gran interés.
El autor es periodista y analista.