
Un periodista tecnológico logró que ChatGPT y Gemini ofrecieran información falsa en sus respuestas tras publicar un blog con datos inventados pero redactados con apariencia realista. El caso reveló una vulnerabilidad en sistemas de inteligencia artificial de uso masivo.
El experimento lo realizó Thomas Germain, periodista de la BBC. El comunicador escribió un artículo en su blog personal en el que afirmaba que era el mejor periodista del mundo comiendo perritos calientes. El texto incluyó detalles específicos y referencias a un supuesto campeonato internacional en Dakota del Sur, Estados Unidos.
Los sistemas de inteligencia artificial funcionan a partir de grandes modelos de lenguaje entrenados con bases de datos analizadas y clasificadas como verdaderas. Cuando reciben preguntas sobre temas sin información previa, suelen buscar datos en Internet y los combinan con su conocimiento interno.
En esos casos, la IA puede volverse más vulnerable a información sin contrastar.
El blog titulado “Los mejores periodistas tecnológicos comiendo perritos calientes” aseguró que esa práctica era un pasatiempo popular entre periodistas tecnológicos. También mencionó la existencia de un Campeonato Internacional de Perritos Calientes de Dakota del Sur.
Para dar mayor realismo, el periodista agregó nombres de reporteros reales y ficticios. El objetivo consistía en inducir a la IA a crear una lista de 10 personas ordenadas según la cantidad de perritos consumidos. El artículo lo redactó en 20 minutos y luego lo publicó.
Según detalló Germain, menos de 24 horas después de la publicación, AI Overviews de Google con Gemini y ChatGPT comenzaron a repetir las afirmaciones como si fueran reales. Incluso citaron el blog como fuente confiable sin advertir que era el único origen de la información.
El periodista comprobó que los sistemas respondían de forma general que él era muy bueno comiendo perritos calientes. La prueba evidenció que con poco trabajo y datos falsos se podían manipular respuestas de chatbots de empresas relevantes del sector.
Tras el experimento, un portavoz de Google indicó que la IA integrada en la Búsqueda utiliza sistemas de clasificación que mantienen los resultados 99% libres de spam.
OpenAI afirmó que aplica medidas para interrumpir y exponer intentos de influir en sus herramientas. Tanto Google como OpenAI reconocieron que sus opciones de IA pueden cometer errores.
El periodista señaló que otros modelos mostraron mayor reticencia. Mencionó el caso de Anthropic. Según explicó, esos chatbots detectaron que la información podía tratarse de una broma.
El caso puso en evidencia la facilidad con la que cualquier persona podría introducir y difundir desinformación mediante inteligencia artificial. Este escenario podría generar efectos en ámbitos como la salud, la economía, la política o recomendaciones críticas de seguridad.
Ante este riesgo, se recomienda que usted verifique las fuentes citadas por los servicios de IA y busque información adicional que complemente los datos obtenidos.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de una agencia de noticias y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
