Pentágono designa a Anthropic como riesgo en la cadena de suministro

Puntos clave
- El Departamento de Guerra de los Estados Unidos designa a Anthropic y sus modelos Claude como un riesgo en la cadena de suministro, la primera acción de este tipo contra una empresa doméstica.
- Los contratistas de defensa deben certificar que no utilizan Claude en el trabajo del Pentágono bajo la ley 10 USC 3252.
- Anthropic buscó garantías de que su tecnología no se utilizaría para la vigilancia doméstica masiva o las armas completamente autónomas.
- El Pentágono argumentó que las leyes existentes ya prohíben esos usos, lo que hace que los límites contractuales sean innecesarios.
- El CEO de Anthropic, Dario Amodei, anunció planes para impugnar la designación en los tribunales.
- Los informes indican que Claude sigue en uso en operaciones militares a través del sistema Maven de Palantir.
- El presidente Trump ordenó detener el uso de la tecnología de Anthropic en todas las agencias federales.
- La respuesta de la industria está dividida, con peticiones de empleados que apoyan a Anthropic y Elon Musk criticando a la empresa.
- OpenAI obtuvo un acuerdo separado con el Pentágono que permite el uso de sus modelos para todos los fines legales.
- La medida establece un precedente para cómo se tratarán las empresas de inteligencia artificial domésticas bajo las regulaciones de riesgo en la cadena de suministro.
El Departamento de Guerra de los Estados Unidos ha designado por primera vez a la empresa de inteligencia artificial Anthropic, con sede en San Francisco, y sus modelos Claude como un riesgo en la cadena de suministro, obligando a los contratistas de defensa a certificar que no utilizan la tecnología. Anthropic se opuso, citando preocupaciones sobre la vigilancia doméstica masiva y las armas completamente autónomas, y anunció planes para impugnar la designación en los tribunales.
Pentágono toma una medida sin precedentes contra una empresa de inteligencia artificial doméstica
El Departamento de Guerra de los Estados Unidos anunció una designación de riesgo en la cadena de suministro para Anthropic, la empresa de inteligencia artificial de San Francisco detrás de los modelos Claude. Esta es la primera aplicación de la designación a una empresa estadounidense, un estatus previamente reservado para adversarios extranjeros como Huawei de China. Según la ley 10 USC 3252, la designación obliga a los proveedores y contratistas de defensa a certificar que no emplean los modelos Claude de Anthropic en ningún trabajo para el Pentágono.
Anthropic inició negociaciones con el Departamento de Guerra en busca de garantías escritas de que su tecnología no se utilizaría para "vigilancia doméstica masiva de estadounidenses" o "armas completamente autónomas" sin la participación humana en la toma de decisiones de targeting. La empresa sostuvo que estos límites eran razonables para cualquier implementación de inteligencia artificial, no solo para la suya. El Pentágono contrargumentó que las leyes existentes ya prohíben la vigilancia masiva y que la política interna del Departamento de Defensa restringe las armas completamente autónomas, argumentando que los límites contractuales eran innecesarios.
Cuando las conversaciones terminaron el 5 de marzo de 2026, el Departamento de Guerra informó formalmente a Anthropic que la empresa y sus productos fueron considerados un riesgo en la cadena de suministro, con efecto inmediato. El CEO de Anthropic, Dario Amodei, declaró que la empresa impugnaría la designación en los tribunales, argumentando que la acción "no es legalmente sólida". También señaló que la designación no puede afectar a los clientes comerciales de Anthropic ni a otras agencias gubernamentales, solo su uso en contratos del Departamento de Guerra.
Contradicciones y uso continuado
A pesar de la lista negra, los informes indicaron que Claude seguía en uso activo por el ejército en Irán a través del sistema Maven Smart de Palantir, que integra Claude para la gestión de datos en contextos operativos. El presidente Donald Trump ordenó a las agencias federales que cesaran todo uso de la tecnología de Anthropic, aunque el impacto en las implementaciones de terceros como la de Palantir no estaba claro.
Reacción de la industria y acuerdos competitivos
La industria tecnológica respondió con una postura dividida. Cientos de empleados de Google y OpenAI firmaron una carta abierta instando a apoyar a Anthropic, mientras que Elon Musk se puso del lado de la administración Trump, afirmando que Anthropic "odia la civilización occidental". OpenAI, por otro lado, anunció un acuerdo separado con el Departamento de Guerra que permite al ejército utilizar los modelos de OpenAI para "todos los fines legales", un lenguaje descrito por algunos empleados de OpenAI como deliberadamente ambiguo.
Dean Ball, un ex asesor de inteligencia artificial de la Casa Blanca de Trump, criticó la designación de riesgo en la cadena de suministro como un "estertor de muerte" de la coherencia estratégica estadounidense, argumentando que tratar a una empresa doméstica peor que a un adversario extranjero refleja "tribalismo matón".
Perspectiva futura
Anthropic ha indicado su disposición a desescalar y buscar un acuerdo que funcione para ambas partes, y Bloomberg informó que las conversaciones habían reiniciado silenciosamente incluso mientras se anunciaba la designación formal. El desafío legal pendiente probará la interpretación del gobierno sobre la disposición de riesgo en la cadena de suministro contra la lectura de Anthropic de que solo se aplica a los contratos del Departamento de Guerra.
La designación establece un precedente, marcando la primera vez que una empresa de inteligencia artificial estadounidense construida sobre principios de inteligencia artificial responsable ha sido clasificada junto a un adversario extranjero por el mismo gobierno que buscaba servir.