
Un informe de la firma de ciberseguridad Tenable reveló un conjunto de siete vulnerabilidades críticas en ChatGPT, denominadas colectivamente como HackedGPT. Estas fallas exponen a los millones de usuarios diarios a un riesgo alto de robo de información personal, incluso cuando utilizan versiones recientes como GPT-5.
Las debilidades descubiertas permiten a los atacantes burlar los sistemas de protección del modelo y ejecutar una cadena completa de ataques. Esto incluye la inyección de comandos maliciosos, el control del modelo de lenguaje y la exfiltración de datos privados.
¿Qué es la inyección indirecta de prompt?
Para comprender la amenaza, es necesario entender la técnica de inyección indirecta de prompt. Un prompt es la instrucción que una persona le da a la inteligencia artificial. Sin embargo, en este caso, los atacantes colocan comandos en sitios externos —como páginas web o comentarios— que el modelo consulta al responder. Al acceder a estos contenidos, la IA puede ejecutar órdenes sin que el usuario las escriba directamente.
Tenable advirtió que los modelos de inteligencia artificial pueden convertirse en herramientas de espionaje sin que sus propios usuarios lo noten.
Las siete vulnerabilidades que componen HackedGPT
1. Inyección indirecta desde sitios confiables: Los atacantes esconden instrucciones maliciosas dentro de sitios aparentemente seguros, como comentarios en blogs. Al solicitar un resumen de estos contenidos, ChatGPT sigue las órdenes ocultas sin advertir el engaño.
2. Inyección 0-clic en la función de búsqueda: La amenaza se activa con una sola pregunta. ChatGPT, mediante SearchGPT, puede ingresar a una página indexada con código malicioso. Esta acción puede filtrar información sin necesidad de que el usuario haga clic.
3. Inyección por enlace de un solo clic: Un enlace aparentemente inofensivo puede contener un comando oculto. Cuando el usuario lo abre, el sistema ejecuta acciones que permiten al atacante manipular o controlar el chat.
4. Evasión de controles de seguridad: El sistema de seguridad de ChatGPT bloquea enlaces peligrosos. Sin embargo, los atacantes utilizan URL de redireccionamiento, como las de Bing, que aparentan ser seguras pero ocultan destinos maliciosos.
5. Inyección de conversación: Mediante SearchGPT, se pueden insertar comandos que ChatGPT lee como si fueran parte de la conversación legítima. El sistema ejecuta estas instrucciones aunque el usuario nunca las haya escrito.
6. Ocultamiento de comandos maliciosos en formato: Un error de formato permite que los atacantes escondan instrucciones dentro de bloques de código. El usuario solo ve contenido inofensivo, pero ChatGPT interpreta el texto oculto y lo ejecuta.
7. Inyección en la memoria persistente: Este método almacena comandos peligrosos en la memoria a largo plazo de ChatGPT. Aunque se cierre la sesión, el modelo continúa ejecutando las órdenes en el futuro hasta que se elimine esa memoria.
Riesgos combinados y estado actual
Cuando estas vulnerabilidades se combinan, los atacantes pueden robar historiales de conversación, extraer información mediante la navegación web o modificar las respuestas del modelo sin que usted lo sepa.
OpenAI ha corregido algunas fallas. No obstante, varias siguen activas en la versión GPT-5. Por ello, expertos recomiendan mantener la cautela en el uso de herramientas de inteligencia artificial, especialmente aquellas conectadas a internet o con memoria activada.
LEA MÁS: ChatGPT podría evolucionar hacia un sistema operativo, anuncia OpenAI
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de un medio del Grupo de Diarios América (GDA) y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
