
Amazon detectó material de abuso sexual infantil en una base de datos que planeaba utilizar para entrenar sus modelos de inteligencia artificial. La empresa eliminó ese contenido y presentó la denuncia ante las autoridades competentes antes de usar la información.
El hallazgo ocurrió el año pasado, cuando la compañía revisó conjuntos de datos disponibles en internet. Amazon recurrió a estas bases debido a la gran cantidad de información que requiere el entrenamiento de sistemas de inteligencia artificial.
Según informó Bloomberg, Amazon notificó el caso al National Center for Missing and Exploited Children (NCMEC). La empresa aseguró que el material se excluyó por completo antes de iniciar cualquier proceso de entrenamiento.
Este caso formó parte de más de 1.000.000 de reportes que el NCMEC recibió en 2025. De acuerdo con el medio citado, Amazon presentó la mayoría de esos informes relacionados con inteligencia artificial.
Un portavoz de la compañía explicó que Amazon aplicó un enfoque cauteloso al escanear los datos de entrenamiento de sus modelos básicos. Ese proceso incluyó información de la web pública para identificar y eliminar material de abuso sexual infantil conocido y así proteger a los clientes.
Las cifras reflejaron una tendencia al alza en los reportes asociados con inteligencia artificial. En 2024, la industria tecnológica envió 67.000 informes al NCMEC. En 2023, la cifra fue de 4.700 casos.
Los reportes vinculados con inteligencia artificial incluyeron distintos tipos de contenido. Entre ellos aparecieron fotografías y videos generados por sistemas automatizados, conversaciones sexualmente explícitas con chatbots y material que involucró a víctimas reales.
El portavoz indicó que, hasta el momento, ninguno de los informes presentados por Amazon contenía material generado por inteligencia artificial. La empresa mantuvo ese criterio en todas las notificaciones realizadas.
Pese al aumento, los informes relacionados con inteligencia artificial representaron una proporción menor del total que recibe el NCMEC. La categoría más numerosa correspondió a material de abuso sexual infantil compartido por mensajería privada o almacenado en redes sociales y servicios en la nube.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de una agencia de noticias y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
