
El Gobierno de Estados Unidos utilizó herramientas de inteligencia artificial de la empresa Anthropic en un ataque aéreo en Irán, pocas horas después de que el presidente Donald Trump ordenó suspender el uso de esa tecnología en todas las agencias federales, informó el Wall Street Journal.
Según el diario estadounidense, mandos militares alrededor del mundo, incluido el Comando Central de Estados Unidos en Medio Oriente, emplean la herramienta Claude de Anthropic. Personas familiarizadas con el tema confirmaron que ese sistema se utilizó para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla en la operación en curso contra Irán.
El Comando Central declinó referirse a los sistemas específicos usados en la operación. No obstante, las fuentes citadas por el medio indicaron que la herramienta se mantiene integrada en procesos militares, pese al aumento de tensiones entre la empresa y el Departamento de Defensa.
El viernes 27 de febrero, Trump ordenó a todas las agencias federales cesar de inmediato el uso de tecnología de Anthropic, mientras que el Departamento de Defensa calificó a la compañía como un riesgo para la cadena de suministro. La medida contempla un periodo de seis meses para eliminar gradualmente el uso de sus modelos. El mismo día, la administración Trump decidió profundizar su relación con OpenAI.
La decisión se produjo luego de que Anthropic rechazó permitir que el Pentágono utilizara sus modelos en todos los escenarios legales durante la negociación de su contrato. La empresa también ha manifestado diferencias con la administración sobre las políticas de inteligencia artificial y sus modelos mantienen restricciones relacionadas con vigilancia masiva y armas autónomas, según el reporte.
Expertos en inteligencia artificial indicaron al Wall Street Journal que reemplazar a Claude tomará varios meses debido a su nivel de integración en operaciones y en empresas asociadas como Palantir.