Tribunal de Apelaciones Mantiene Etiqueta de Riesgo de Cadena de Suministro de Anthropic

Appeals Court Keeps Anthropic Supply‑Chain Risk Label in Place

Puntos clave

  • The D.C. Circuit Court of Appeals upheld the Pentagon’s supply‑chain risk label on Anthropic.
  • The decision conflicts with a San Francisco district court order that removed the label last month.
  • Judges argued that lifting the label could hinder military operations during an ongoing conflict.
  • Anthropic claims the designation harms its business and that its Claude model is not fit for fully autonomous weapons.
  • Acting Attorney General Todd Blanche hailed the ruling as a win for military readiness.
  • Legal experts see the case as a test of executive authority over domestic tech firms.
  • Oral arguments before the D.C. Circuit are set for May 19.
  • Details on the DoD’s use of Claude and its shift to other AI vendors remain limited.

Un panel de tres jueces del Tribunal de Apelaciones del Circuito de D.C. dictaminó el miércoles que Anthropic, el creador del modelo de inteligencia artificial Claude, debe seguir designado como un riesgo de cadena de suministro para el Pentágono. La decisión contradice una orden reciente de un tribunal de distrito de San Francisco que había levantado la etiqueta, dejando el acceso del ejército a las herramientas de Anthropic en un limbo mientras los dos casos avanzan hacia sentencias finales.

El Tribunal de Apelaciones del Circuito de Columbia para el Distrito de Columbia emitió una orden de suspensión el miércoles que mantiene la designación de riesgo de cadena de suministro del Pentágono sobre Anthropic, la empresa detrás del sistema de inteligencia artificial Claude. El panel de apelación, en una decisión de 2 a 1, dijo que eliminar la etiqueta pondría en peligro las operaciones militares durante un conflicto en curso, aunque la empresa pueda enfrentar daños financieros.

La lucha legal de Anthropic se origina en dos estatutos separados que el Departamento de Defensa utilizó para prohibir a la empresa suministrar herramientas de inteligencia artificial a las fuerzas armadas. Un juez federal de San Francisco encontró el mes pasado que el Departamento de Defensa actuó de mala fe, citando la resistencia de la empresa a las políticas de uso restrictivas y su crítica pública a esas limitaciones. Ese juez ordenó que se eliminara la etiqueta de riesgo, lo que llevó a la administración de Trump a restaurar el acceso a Claude en todo el Pentágono y otras agencias federales.

En Washington, el tribunal de apelaciones se centró en una disposición estatutaria diferente pero llegó a la conclusión opuesta. Los jueces enfatizaron las presiones únicas de la adquisición en tiempos de guerra, señalando que "otorgar una suspensión obligaría a las fuerzas armadas de los Estados Unidos a prolongar sus tratos con un proveedor no deseado de servicios de inteligencia artificial críticos en medio de un conflicto militar significativo y en curso". El panel reconoció la posible pérdida de ingresos de Anthropic pero priorizó el juicio del Departamento de Defensa sobre asuntos de seguridad nacional.

El fiscal general interino Todd Blanche elogió la decisión en X, calificándola de "una victoria resonante para la preparación militar". Reiteró que el comandante en jefe y el Departamento de Guerra (como se llama al Pentágono bajo la actual administración) deben retener el acceso completo a los modelos de inteligencia artificial integrados en sistemas sensibles.

La portavoz de Anthropic, Danielle Cohen, expresó gratitud porque el tribunal de D.C. reconoció la urgencia del asunto y reafirmó la confianza de la empresa en que los tribunales eventualmente considerarán que las designaciones son ilegales. La empresa argumenta que la etiqueta le ha costado contratos y que su modelo Claude carece de la precisión necesaria para sistemas de armas autónomos completamente autónomos, una postura que ha generado críticas del Pentágono.

Los expertos legales dicen que el caso pone a prueba el alcance del poder ejecutivo sobre las empresas de tecnología privadas, especialmente a medida que el Pentágono acelera la implementación de la inteligencia artificial en su conflicto con Irán. Algunos académicos advierten que las acciones del Departamento de Defensa podrían sofocar el debate abierto entre los investigadores de inteligencia artificial sobre el rendimiento y la seguridad de los modelos.

Ambos casos judiciales se espera que continúen durante meses. El Circuito de D.C. escuchará argumentos orales el 19 de mayo, mientras que el caso de San Francisco procede según su propio calendario. Los detalles sobre cómo el Departamento de Defensa ha utilizado Claude, o el alcance de su transición a alternativas de Google DeepMind, OpenAI u otros proveedores, siguen siendo escasos.

A medida que se desarrollan las batallas legales, Anthropic enfrenta incertidumbre sobre su papel en las iniciativas de inteligencia artificial federales. El resultado puede dar forma a cómo se aplicarán las designaciones de riesgo de cadena de suministro a las empresas de tecnología nacionales en el futuro, una pregunta que es importante para la industria y para los responsables de la política de seguridad nacional por igual.

#Anthropic#Claude#U.S. Department of Defense#supply chain risk#appeals court#AI policy#national security#legal battle#Pentagon#Trump administration

También disponible en:

Tribunal de Apelaciones Mantiene Etiqueta de Riesgo de Cadena de Suministro de Anthropic | AI News