
El lunes 26 de mayo, leí un artículo en esta sección, escrito por el académico austríaco Peter G. Kirchschläger, que advertía sobre los peligros potenciales de los chatbots cuando son utilizados por menores de edad. El título del artículo, “¿A cuántos niños debe matar la IA?", a mi parecer, es lamentablemente desacertado y sensacionalista.
El autor presenta la inteligencia artificial (IA) como una amenaza monolítica. Esta es una caracterización fundamentalmente errónea. La IA es un campo mucho más amplio de lo que el autor sugiere. Abarca desde análisis de datos asistidos por computadora hasta sistemas inteligentes que regulan el tránsito vehicular. En su texto, Kirchschläger critica un subconjunto específico: la IA generativa, pero no hace esa crucial distinción.
El texto me produjo sensaciones entre el asombro y el enojo. Es responsabilidad de los medios velar por que sus publicaciones contribuyan a la difusión de ideas que enriquezcan el debate, basándose en conceptos claros y correctos, en vez de promover contenidos con títulos sensacionalistas que provocan desinformación y confusión. El autor, lejos de procurar entendimiento sobre las limitantes de la IA, desinforma y siembra desconfianza con un título efectista y un texto sesgado.
Siendo justos, el texto de Kirchschläger plantea una preocupación comprensible sobre el daño potencial que chatbots creados con IA, como los que se encuentran en plataformas como Character.ai, pueden causar en una población vulnerable como las personas adolescentes. El autor menciona hechos trágicos ocurridos a inicios del 2024, incluyendo el caso de un joven de 14 años, Sewell Setzer III, quien se quitó la vida tras interactuar durante varias semanas con uno de los bots de esta plataforma. Un chatbot es una aplicación basada en inteligencia artificial que permite a los usuarios interactuar usando lenguaje natural, simulando una conversación con un ser humano.
Setzer compartió su ideación suicida con el bot, que falló al no generar ninguna alerta sobre su comportamiento y, más bien, lo animó a “llegar a casa” (sinónimo de ejecutar su ideación, según consta en la demanda presentada por los padres contra Character.ai y Google).
Este y otro caso similar mencionado en el artículo son sin duda desgarradores y requieren seria atención. Sin embargo, el autor incurre en una condena generalizadora, intensificada por un título alarmista con el que simplemente no puedo estar de acuerdo.
Su elección de palabras proyecta una sombra sobre una realidad mucho más compleja y oscurece el debate sobre el impacto de la inteligencia artificial (IA) en nuestras vidas. Textos como este desvían la discusión constructiva sobre una tecnología que cada vez se integra más en nuestra cotidianeidad y, probablemente, nos acompañe el resto de nuestras vidas.
El artículo se centra en casos ocurridos a inicios de 2024. Es crucial reconocer que el campo de la IA generativa evoluciona con rapidez. Los casos mencionados y las demandas legales han ejercido presión sobre plataformas como Character.ai para implementar salvaguardas y mecanismos de moderación que no existían en ese momento.
Como periodista y autor de este texto, yo mismo probé esta plataforma mientras escribía este artículo para verificar las medidas de seguridad sobre temas de suicidio, y funcionaron adecuadamente. Congelar el debate en un momento crítico del 2024 ignora por completo la naturaleza dinámica de esta tecnología y los esfuerzos por hacerla más segura.
Ausente en la crítica del autor, así como también en otros textos similares, está el insistir en el papel de la supervisión y la guía de los padres en el uso que dan los menores de edad a tecnologías como la IA, las redes sociales y los videojuegos. Endosar toda la responsabilidad a las plataformas tecnológicas y absolver a los adultos de su deber de tutelar a aquellos bajo su cargo es un obstáculo para encontrar soluciones integrales a este tipo de problemas.
Kirchschläger acierta al señalar la necesidad de vigilar las consecuencias del uso de la IA generativa, e incluso considerar una regulación estatal para su uso. Es posible plantear leyes cuidadosamente diseñadas para proteger a poblaciones vulnerables frente a contenidos generados por estas herramientas. Pero no se puede regular lo que no se entiende.
Antes de legislar sobre IA, tanto los legisladores como el público necesitan una comprensión básica del tema: ¿qué es la IA generativa? ¿Cuál es la diferencia entre un modelo supervisado con límites estrictos y uno no supervisado con capacidad de aprendizaje de forma autónoma? La falta de comprensión puede derivar en regulaciones ineficaces, cimentadas en el desconocimiento.
Esto nos lleva a un paso fundamental que debe preceder, o al menos acompañar, cualquier intento de regulación: promover la alfabetización en temas de IA. Es necesario empoderar a educadores, padres, legisladores y usuarios con conocimientos básicos que les permitan entender qué es la IA, cómo funciona, qué beneficios ofrece y cuáles son sus riesgos y limitaciones. Una ciudadanía informada puede hacer un uso más consciente de esta tecnología, impulsar regulaciones sensatas y contribuir activamente a la construcción del futuro de la IA. Esta es, en esencia, la base para una innovación responsable y una gobernanza efectiva.
dvargascri@outlook.com
David Vargas Chacón es periodista y fotógrafo.
Nota: El artículo original en inglés aparece aquí. La traducción que aparece en el diario La Nación es adecuadamente fiel. Vea aquí un compendio de iniciativas de ley para regular la IA alrededor del mundo.