
Se han comenzado a levantar las alarmas a raíz de un estudio del Massachusetts Institute of Technology (MIT) que correlaciona la sobredependencia de la inteligencia artificial generativa como ChatGPT, Gemini o Claude, con menor conectividad neuronal funcional durante tareas cognitivas. Este estudio se titula “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” (Su cerebro en ChatGPT: Acumulación de deuda cognitiva cuando se usa un asistente de inteligencia artificial para tareas de escritura de ensayos).
Hay que entender las limitaciones del estudio antes de discutirlo. Primero, no ha pasado por revisión de pares, pero los autores justificaron publicarlo antes de que se cumpliera con esta etapa por el riesgo de que lo encontrado sea tan preocupante como ellos estiman, y dado que el proceso de revisión de pares puede tardar hasta 10 meses, temen que “ya sea muy tarde”. Además, la muestra utilizada fue de solo 54 personas y, por la naturaleza del estudio, los efectos que se evalúan son de corto plazo.
Dicho esto, resumo lo que estudiaron y encontraron.
Los participantes del estudio se dividieron en tres grupos: uno que podía usar ChatGPT, otro que podía usar el buscador Google, y un tercero que no podía utilizar ninguna herramienta externa. Se utilizaron varios métodos de mediciones fisiológicas (electroencefalogramas), lingüísticas (Natural Language Processing), subjetivas (entrevistas) y de desempeño (revisiones de profesores humanos).
Se observó que a más uso de herramientas, menor conectividad neuronal funcional, especialmente en las bandas alfa y beta, asociadas a atención y memoria. Además, los ensayos generados con ChatGPT eran muy parecidos entre sí y quienes usaron esas herramientas tuvieron dificultades para recordar qué contenían sus ensayos.
Por un lado, usar herramientas reduce la carga cognitiva, ya que ese trabajo se le pasa a una máquina, pero esto podría venir a un alto costo sacrificando el desarrollo del pensamiento crítico, la memoria y el sentido de autoría, especialmente cuando no se evalúa ni se verifica lo que estos sistemas escriben.
El pensamiento crítico es la habilidad de usar datos y evidencia para decidir en qué confiar y qué hacer (según lo define el Physics Lab Inventory of Critical Thinking). Es decir, es tomar decisiones acertadas, lo cual implica ser reflexivos, objetivos y analíticos.
Así que, en vista de la importancia que posee el tener una población pensante, se entiende por qué se han levantado las alarmas respecto al posible impacto de estas tecnologías en niños y adolescentes, máxime por lo fácil que es acceder a estas herramientas sin pagar.
Si bien estas herramientas pueden potenciar nuestras capacidades, el principio físico del camino de menor resistencia también puede aplicar para sistemas biológicos, como lo somos los seres humanos.
Es decir, si podemos, vamos a tomar el camino fácil. Evaluar las implicaciones a largo plazo es especialmente importante para proteger a niños y adolescentes, cuyas habilidades de pensamiento crítico aún están en pleno desarrollo.
Uno de los primeros precios que podría tener la dependencia excesiva de estas herramientas es un deterioro en la capacidad de razonar y de memorizar durante tareas cognitivas. Delegar en herramientas digitales no es necesariamente nuevo; lo hacemos todo el tiempo cuando dependemos de un calendario para recordar eventos, o de la agenda telefónica hasta para recordar nuestro propio número de celular. Pero en este caso, se trata de una dependencia extrema que es potencialmente mucho más dañina.
A esto se suma el mal entendimiento que tiene gran parte de la población sobre qué son estos modelos grandes de lenguaje (LLMs). Recordemos que estos sistemas son “promediadores” masivos de contenido. Optimizan aparentar coherencia y no necesariamente son excelentes en evaluar si sus respuestas son verdaderas o no.
Las empresas detrás de estos sistemas toman todo el Internet y promedian la relación entre casi 10.000.000.000.000 de palabras. Esta tremenda capacidad computacional demostró que hacer esto, sumado a agregar ciertas “plantillas de respuestas” (por eso, las respuestas casi siempre vienen en el mismo formato) y al hecho de que hay miles de personas revisando y creando contenido para estos sistemas, da resultados que, en apariencia, son coherentes y minuciosos.
El asunto es que si se usa un sistema que es excelente en promediar, los resultados serán un excelente promedio. Hoy, apenas se están empezando a desarrollar las capacidades de verificación de respuestas y la inclusión de referencias verdaderas para reducir las llamadas alucinaciones.
Dicho todo esto, no debemos dejar de usar estos sistemas así porque así; tampoco quitárselos a los niños y adolescentes ni sacarlos de las escuelas. Por el contrario, revelaciones como la de este estudio deben ser un llamado a adaptarnos a esta nueva realidad donde la “inteligencia” es un commodity. Podemos usarla bien o mal.
Estas herramientas están transformando cómo se enseña, cómo se completan labores intelectuales y hasta podrían dar respuestas a numerosos problemas y enfermedades, pero si no aprendemos a utilizarlas bien, podríamos terminar en un escenario distópico.
En un mundo con exceso de información y de desinformación surgen ahora herramientas que simulan hablar como humanos a centavos por palabra. Por eso, se necesita más pensamiento crítico, más uso responsable de las herramientas digitales y mayor protección a los más vulnerables.
Es momento de educarnos, de enseñar a otros y de tomar decisiones conscientes sobre cómo convivimos con esta nueva forma de inteligencia. El futuro de nuestra autonomía cognitiva podría depender de ello.
tewar93@gmail.com
Walter Montes es director de Ingeniería de Software y cofundador de Primera Línea.