Jueza califica como intento de 'debilitar' a Anthropic la decisión del Pentágono de etiquetarla como riesgo en la cadena de suministro

Judge Calls Pentagon’s Move to Label Anthropic a Supply‑Chain Risk ‘Attempt to Cripple’ Company

Puntos clave

  • La jueza del Tribunal de Distrito de EE. UU., Rita Lin, califica la etiqueta de riesgo en la cadena de suministro del Pentágono sobre Anthropic como un "intento de debilitar" a la empresa.
  • Anthropic ha presentado demandas alegando represalias ilegales por buscar límites en el uso militar de su sistema de inteligencia artificial Claude.
  • El Departamento de Defensa defiende la etiqueta como una medida de seguridad, citando preocupaciones sobre la confiabilidad de la inteligencia artificial en momentos críticos.
  • El secretario de Defensa, Pete Hegseth, anunció una prohibición total a los contratistas para trabajar con Anthropic, aunque la autoridad legal para la prohibición es incierta.
  • El caso plantea preguntas sobre la Primera Enmienda y un debate más amplio sobre el uso de la inteligencia artificial en las fuerzas armadas.
  • El Pentágono planea reemplazar la tecnología de Anthropic con alternativas de Google, OpenAI y xAI.
  • La jueza Lin puede otorgar una injunción temporal para pausar la designación pendiente de una determinación completa de los méritos.
  • Una apelación relacionada está pendiente en un tribunal de apelaciones federales, con una decisión esperada pronto.

Durante una audiencia, la jueza del Tribunal de Distrito de EE. UU., Rita Lin, cuestionó la decisión del Departamento de Defensa de etiquetar a Anthropic, desarrolladora de inteligencia artificial, como un riesgo en la cadena de suministro, describiéndola como un intento aparente de debilitar a la empresa después de que buscó límites en el uso militar de su herramienta Claude. Anthropic ha presentado demandas alegando represalias ilegales, y la jueza está considerando una injunción temporal que podría pausar la designación. El caso destaca las tensiones sobre el uso de la inteligencia artificial en las fuerzas armadas, las preocupaciones sobre la Primera Enmienda y la autoridad del Pentágono para restringir a los contratistas.

Antecedentes del conflicto

Anthropic, la creadora del sistema de inteligencia artificial Claude, ha tomado medidas legales contra el Departamento de Defensa de EE. UU. después de que el Pentágono la designara como un riesgo en la cadena de suministro. La etiqueta se aplicó después de que Anthropic presionara para restricciones sobre cómo sus herramientas de inteligencia artificial podrían ser empleadas por el ejército. La empresa argumenta que la designación es una represalia por su escrutinio público de una disputa contractual, lo que podría violar las protecciones de la Primera Enmienda.

Escrutinio judicial

Durante una audiencia en el tribunal, la jueza del Tribunal de Distrito Rita Lin expresó su preocupación de que la acción del Pentágono se asemejara a un intento de debilitar a Anthropic. Ella señaló que la autoridad de riesgo en la cadena de suministro se reserva típicamente para adversarios extranjeros, terroristas y otros actores hostiles, y cuestionó si la designación estaba adecuadamente adaptada a preocupaciones genuinas de seguridad nacional. La jueza Lin indicó que podría emitir una orden temporal para pausar la designación solo si encuentra que Anthropic tiene probabilidades de éxito en los méritos de su caso.

Posición del gobierno

El Departamento de Defensa, refiriéndose a sí mismo como el Departamento de Guerra, defendió su decisión argumentando que las herramientas de inteligencia artificial de Anthropic no podían confiarse en momentos críticos. Un abogado de la administración Trump, Eric Hamilton, argumentó que el departamento había seguido los procedimientos adecuados y que la evaluación de seguridad no debería ser cuestionada. El Pentágono también anunció planes para reemplazar la tecnología de Anthropic con alternativas de Google, OpenAI y xAI, y afirmó tener salvaguardias para prevenir cualquier manipulación durante la transición.

Restricciones a los contratistas y autoridad legal

El secretario de Defensa, Pete Hegseth, publicó una declaración indicando que cualquier contratista, proveedor o socio que haga negocios con el ejército de EE. UU. estaba prohibido de realizar actividades comerciales con Anthropic. Sin embargo, durante la audiencia, Hamilton reconoció que Hegseth carece de autoridad legal para imponer una prohibición total a los contratistas para trabajos no relacionados con el Departamento de Defensa. Cuando se le preguntó por qué Hegseth hizo la declaración, Hamilton dijo que no lo sabía.

Implicaciones para la inteligencia artificial en el ejército

El caso ha generado un debate público más amplio sobre el papel de la inteligencia artificial en las fuerzas armadas y el grado de deferencia que las empresas de Silicon Valley deberían dar a las determinaciones gubernamentales sobre la implementación de la tecnología. Los críticos argumentan que el enfoque del Pentágono puede sentar un precedente para medidas punitivas contra empresas que plantean preocupaciones sobre las aplicaciones militares de la inteligencia artificial.

Próximos pasos

La jueza Lin está esperada a emitir un fallo sobre la injunción temporal en los próximos días. Una apelación relacionada también está pendiente en un tribunal de apelaciones federales en Washington, D.C., con una decisión anticipada pronto. El resultado dará forma tanto a la relación de Anthropic con el gobierno como al panorama más amplio de la adquisición de inteligencia artificial para fines de seguridad nacional.

#Pentágono#Anthropic#Inteligencia artificial#Contrato gubernamental#Disputa legal#Seguridad nacional#Riesgo en la cadena de suministro#Primera Enmienda#Inteligencia artificial militar#Audiencia en el tribunal

También disponible en:

Jueza califica como intento de 'debilitar' a Anthropic la decisión del Pentágono de etiquetarla como riesgo en la cadena de suministro | AI News