
Los chatbots de inteligencia artificial no solo responden preguntas o ayudan con tareas cotidianas. Para algunas personas, se han convertido en espacios de escape emocional y compañía constante.
Un estudio presentado en la conferencia CHI 2026 por investigadores de la Universidad de Columbia Británica, Instituto Tecnológico de Georgia y el Instituto Coreano de Ciencia y Tecnología analizó cómo se desarrolla la adicción a estos sistemas y encontró que no se trata de un único problema, sino de al menos tres formas distintas de dependencia hacia los chatbots de IA como ChatGPT y Character.AI.
La investigación partió de una preocupación creciente: aunque existen advertencias sobre el posible uso adictivo de estas herramientas, todavía había poca evidencia detallada sobre cómo las personas describen esa experiencia y qué consecuencias enfrentan.
Para responder esa pregunta, los investigadores revisaron 334 publicaciones de Reddit en 14 comunidades distintas, donde usuarios relataban experiencias de uso compulsivo con chatbots. A partir de ese análisis identificaron un fenómeno común que denominaron “AI Genie”, o genio de la IA.
La idea se refiere a una característica particular de estos sistemas: permiten obtener exactamente lo que la persona desea con muy poco esfuerzo. Puede ser conversación constante, validación emocional, fantasías personalizadas, respuestas inmediatas o exploración infinita de temas de interés. Ese acceso rápido y permanente funciona como un refuerzo continuo.
Según el estudio, esa facilidad favorece síntomas que coinciden con patrones reconocidos en otras adicciones conductuales, como la dificultad para detener el uso, la recaída después de intentar abandonarlo, el conflicto con la vida diaria, la alteración del estado de ánimo y la necesidad de pasar cada vez más tiempo interactuando con el sistema.
Los investigadores encontraron tres tipos principales de adicción.
La primera fue “Escapist Roleplay”, o juego de rol escapista. En este grupo, las personas usan el chatbot para construir mundos ficticios, relaciones imaginadas o escenarios narrativos donde pueden escapar de problemas reales. La interacción funciona como una forma de evasión emocional.
La segunda fue “Pseudosocial Companion”, o compañero pseudosocial. Aquí, el chatbot se convierte en una figura de apoyo afectivo. Algunas personas desarrollan vínculos emocionales intensos con el sistema, lo perciben como una presencia constante y experimentan angustia ante la posibilidad de perder esas conversaciones o eliminar la cuenta.
La tercera fue “Epistemic Rabbit Hole”, traducida como madriguera epistémica. En este caso, la dependencia aparece por la búsqueda inagotable de información, explicaciones o validación intelectual. La persona entra en ciclos prolongados de preguntas y respuestas que se vuelven difíciles de interrumpir.
El estudio también encontró que el contenido sexual aparecía en varios casos, especialmente vinculado con relaciones emocionales intensas o escenarios de fantasía dentro de los chats.
Además, los investigadores observaron que las estrategias para intentar dejar el uso no funcionan igual para todos.
Algunas personas reportaron mejores resultados al sustituir el hábito por otras actividades, especialmente en los casos de juego de rol escapista. Otras señalaron que necesitaban apoyo social o límites más estrictos para reducir la dependencia. Esto sugiere que no existe una única solución y que cada tipo de adicción puede requerir intervenciones distintas.
Los autores también señalan que todavía existe debate sobre si debe hablarse formalmente de “adicción” en estos casos. Sin embargo, argumentan que ignorar experiencias que ya generan aislamiento social, problemas laborales, afectación emocional o dificultades para dormir también puede ser perjudicial.
El estudio no plantea un diagnóstico clínico definitivo, pero sí ofrece una base para entender mejor un fenómeno que crece junto con el uso masivo de inteligencia artificial conversacional.
