
OpenAI anunció este jueves el inicio del despliegue de “Trusted Contact”, una función opcional de seguridad en ChatGPT que permitirá a personas adultas designar a un contacto de confianza para recibir alertas cuando el sistema detecte posibles conversaciones relacionadas con autolesiones que representen un riesgo grave.
Según explicó la empresa, la herramienta permitirá que personas mayores de 18 años, o 19 en Corea del Sur, agreguen a un familiar, amistad o cuidador desde la configuración de su cuenta. El contacto deberá aceptar una invitación para activar la función.
OpenAI indicó que, si sus sistemas automatizados y revisores especializados detectan señales de riesgo grave relacionadas con autolesiones, ChatGPT notificará primero a la persona usuaria sobre la posibilidad de alertar al contacto registrado y sugerirá buscar apoyo directo.
Posteriormente, un equipo especializado revisará el caso. Si concluye que existe una situación de seguridad grave, el sistema enviará una notificación limitada por correo electrónico, mensaje de texto o aviso dentro de la aplicación. La empresa aseguró que no compartirá transcripciones ni detalles de las conversaciones.
La compañía señaló que la función busca complementar otras herramientas ya existentes, como líneas de ayuda locales y controles parentales para cuentas de adolescentes.
OpenAI afirmó que el desarrollo de “Trusted Contact” contó con asesoría de especialistas en salud mental, organizaciones de prevención del suicidio y miembros de su red internacional de profesionales médicos.
El anuncio ocurre en medio de cuestionamientos hacia ChatGPT y otras plataformas de inteligencia artificial por posibles efectos en salud mental y casos vinculados con conversaciones sobre suicidio o delirios.
En agosto de 2025, la familia de Adam Raine, un adolescente de 16 años en California, presentó una demanda contra OpenAI tras la muerte del joven. Según una investigación publicada por The New York Times, el adolescente utilizó ChatGPT durante meses para conversar sobre pensamientos suicidas y métodos de autolesión.
El reporte señala que ChatGPT respondió a consultas sobre materiales para una soga y comentó imágenes enviadas por el adolescente relacionadas con intentos de suicidio. La familia sostiene que el chatbot reforzó pensamientos dañinos y desincentivó la búsqueda de ayuda.
OpenAI declaró entonces al medio que el sistema incluía salvaguardas para dirigir a las personas hacia líneas de ayuda y recursos reales, aunque reconoció que esas medidas podían “volverse menos confiables” en conversaciones extensas.
Más recientemente, The Wall Street Journal informó sobre siete demandas presentadas en Estados Unidos y Canadá contra OpenAI. Las acciones legales alegan que personas usuarias experimentaron delirios, aislamiento psicológico o conductas suicidas tras interacciones prolongadas con ChatGPT.
De acuerdo con el reporte, cuatro de los casos involucran personas fallecidas por suicidio y otros tres corresponden a episodios de trauma psicológico o crisis maníacas. Las demandas cuestionan el manejo de conversaciones sensibles y afirman que la empresa priorizó la interacción prolongada con el chatbot sobre medidas de seguridad.
OpenAI aseguró al periódico que implementó cambios para mejorar la detección de señales de angustia emocional, reforzar recomendaciones de apoyo profesional y limitar respuestas que validen creencias infundadas.
La empresa también indicó recientemente que alrededor del 0,15% de las personas usuarias activas semanales hablan explícitamente sobre posibles planes suicidas en la plataforma, mientras que el 0,07% presenta señales asociadas a psicosis o manía.
