Foros

Regulemos bien la inteligencia artificial

En lugar de detener el desarrollo de la IA, deberíamos participar en experimentos a pequeña escala para identificar daños potenciales cuando todavía es posible limitarlos

EscucharEscuchar

Con la llegada de las nuevas tecnologías se suele agudizar la ansiedad generalizada, habitualmente por la automatización del trabajo y el desplazamiento de los trabajadores humanos.

El caso de los luditas a principios de la era industrial probablemente sea el más citado de esta tecnofobia, pero es una preocupación que ha reaparecido periódicamente desde entonces.

La amenaza que percibe la gente debido a la inteligencia artificial, sin embargo, parece mayor que la de los grandes avances tecnológicos del pasado: no solo nos preocupa el posible reemplazo de los humanos, sino también nuestra posible extinción.

Los tecnólogos han estado preguntándose últimamente unos a otros por la p(catástrofe) (la probabilidad de que la IA destruya a la humanidad). La respuesta puede cambiar de un día a otro, pero el número exacto (que va de cero a cien) es menos importante que la pregunta subyacente: ¿qué tan pesimista es cada uno respecto de la IA?

En marzo del 2023, más de 1.000 investigadores y ejecutivos de tecnología firmaron lo que se conoció como la carta por la “pausa”. Solicitaron a todos los laboratorios de IA que hicieran una pausa de por lo menos seis meses “en el entrenamiento de los sistemas de IA más poderosos que GPT-4″.

La firmaron, entre variadas personalidades, el pionero de IA Yoshua Bengio, el economista Daron Acemoglu y el milmillonario tecnológico Elon Musk. Es un grupo al que no debiéramos ignorar, pero, por lo que sé, lo hicimos: no hubo pausa ostensible, aunque vale la pena señalar que, al momento de escribir este artículo, no se había presentado ningún sistema de IA significativamente más potente que ChatGPT-4.

Los expertos que firmaron la carta solicitando la pausa se guiaban por el principio de la precaución, que sugiere desacelerar y aprender más para saber si alguna actividad puede causar daños irreparables, pero por cada experto que enfatiza la precaución hay otros que defienden el rápido desarrollo de la tecnología de la IA.

Después de todo, durante más de una década, muchos economistas, entre los que me incluyo, hemos visto cómo las empresas emergentes lanzaron al mercado avances increíbles de IA. Hubo grandes adelantos en la detección del cáncer, sistemas de seguridad, herramientas para ayudar a las personas con discapacidades, tutores para ampliar las oportunidades educativas y vehículos autoconducidos que mejoraron la movilidad y la independencia de los adultos mayores.

Una pausa no haría más que demorar esos beneficios. Por ello, aunque tal vez sea recomendable hacerla, debiéramos asegurarnos de que nuestro temor a los posibles peligros se base en algo más que especulaciones.

Para determinar la validez de las preocupaciones por la IA vale la pena entender su procedencia. El primero es la experiencia histórica, la mayoría de las nuevas tecnologías ofrecen tanto beneficios como costos, y a veces los primeros superan a los segundos. Thomas Midgley hijo inventó el tetraetilo de plomo —un aditivo para la gasolina que reduce la detonaciones y mejora de manera espectacular la confiabilidad de los vehículos— y el freón, producto químico clave para la refrigeración, pero sus creaciones causaron envenenamientos con plomo y la liberación de clorofluorocarbonos que dañaron la capa de ozono, y ambas fueron finalmente prohibidas.

En su libro del 2023 Poder y progreso, Acemoglu y Simon Johnson sostuvieron que ese resultado era el más frecuente. Por lo tanto, aunque los economistas suelen creer que los beneficios de la mayoría de las nuevas tecnologías superan a sus costos, otros ven a la IA como el último de una larga serie de casos en que tecnologías potencialmente peligrosas fueron adoptadas antes de entender completamente cuáles serían sus aspectos negativos.

La segunda fuente de preocupación por la IA es que produce varios perjuicios identificables, hay conflictos por la forma en que se entrena a esos sistemas —un ejemplo es el juicio de The New York Times contra OpenAI y Microsoft por supuestas infracciones a sus derechos de autor—; algunos innovadores han dejado en claro que su objetivo es reemplazar trabajadores con la IA, y ya hay estudiantes que usan los grandes modelos de lenguaje para hacer sus exámenes y tareas.

Además de trastornar la educación y los entornos laborales, se ha usado la IA para vigilar a los ciudadanos e imitar personas con imágenes y audio ultrafalsos, y aumentar la potencia del armamento militar. También hay preocupación porque las empresas que ya poseen grandes cantidades de datos aumenten su poder de mercado. Se puede evaluar el alcance de esos perjuicios identificables frente a los beneficios de la tecnología y, si es necesario, regularlos o —como en el caso del combustible con plomo y los clorofluorocarbonos— prohibirlos.

Esto nos lleva a la tercera fuente de preocupaciones: muchas de las consecuencias de las nuevas tecnologías son indeseables e imprevisibles, y es probable que eso también ocurra con la IA. Por ejemplo, ahora hay preocupación generalizada porque las redes sociales dañan la salud mental de los niños, pero, algo de crucial importancia, no hay soluciones regulatorias simples debido a la ubicuidad de esas plataformas.

Que las consecuencias no planeadas suelan ser difíciles de revertir plantea sus propios problemas y parece obligar a elegir solo entre prohibir la IA o o. Pero se trata de un falso dilema, de hecho, implica que debiéramos llevar a cabo experimentos con la IA a escala más pequeña para identificar los posibles daños cuando aún podamos limitarlos.

La posible irreversibilidad de las consecuencias no planeadas de las nuevas tecnologías sugiere además un papel más matizado y multifacético para la regulación de la IA. Debemos investigar continuamente para identificar las consecuencias en cuanto aparezcan, y evaluar adecuadamente sus costos y beneficios.

Además, debiéramos buscar la manera de lograr que la adopción de la IA se pueda revertir más fácilmente, lo que podría requerir reformas institucionales y de infraestructura. Esto nos brindará una mayor protección contra los peligros reales si la IA tiene efectos colaterales poco gratos, garantizando al mismo tiempo que la sociedad pueda aprovechar sus beneficios.

Joshua Gans es profesor de Gestión Estratégica de la Escuela Rotman de Administración de la Universidad de Toronto.

© Project Syndicate 1995–2024

En lugar de detener el desarrollo de la IA, deberíamos participar en experimentos a pequeña escala para identificar daños potenciales cuando todavía es posible limitarlos. (Shutterstock)

LE RECOMENDAMOS

Madre sale frustrada de juicio al conocer sentencia contra la CCSS por muerte de su bebé en el vientre

Josselyn Quirós Solano, una madre demandó a la CCSS hace 14 años por la muerte de su bebé en el vientre, reconoció entre lágrimas la frustración que experimentó este miércoles al conocer la nueva sentencia dictada por el Tribunal Civil de Cartago.
Madre sale frustrada de juicio al conocer sentencia contra la CCSS por muerte de su bebé en el vientre

Teletica romperá con tradición de años en su programación de Semana Santa

Teletica anunció que sus transmisiones de Semana Santa tendrán variantes. Acá están los detalles
Teletica romperá con tradición de años en su programación de Semana Santa

Director del OIJ confirma causa de muerte del hijo de estrella de los Yanquis

Los resultados del examen de toxicología forense confirmaron que el joven Miller Gardner, hijo del exjugador de los Yanquis de Nueva York, Brett Gardner, falleció por inhalación de monóxido de carbono.
Director del OIJ confirma causa de muerte del hijo de estrella de los Yanquis

En beneficio de la transparencia y para evitar distorsiones del debate público por medios informáticos o aprovechando el anonimato, la sección de comentarios está reservada para nuestros suscriptores para comentar sobre el contenido de los artículos, no sobre los autores. El nombre completo y número de cédula del suscriptor aparecerá automáticamente con el comentario.