Anthropic desafiará la designación de riesgo de cadena de suministro del Pentágono en los tribunales

Anthropic to Challenge Pentagon Supply‑Chain Risk Designation in Court

Puntos clave

  • Anthropic recibió una carta del Departamento de Defensa que designa sus productos de inteligencia artificial como un riesgo para la cadena de suministro.
  • El CEO Dario Amodei planea disputar la designación en los tribunales, citando preocupaciones legales.
  • La restricción se aplica solo al uso de defensa; el acceso público y comercial al chatbot Claude sigue sin cambios.
  • Microsoft seguirá utilizando el chatbot Claude de Anthropic después de una revisión legal.
  • Anthropic está en conversaciones con el Pentágono para explorar formas de cumplir con dos excepciones: no vigilancia masiva y no armas autónomas.
  • La designación refleja tensiones más amplias entre las empresas de inteligencia artificial y las políticas de seguridad gubernamentales.

El CEO de Anthropic, Dario Amodei, anunció que la empresa disputará la designación del Departamento de Defensa que etiqueta sus productos de inteligencia artificial como un riesgo para la cadena de suministro. Esta medida sigue a un aviso del Pentágono de que la designación es efectiva de inmediato. Amodei expresó su creencia de que la acción no es legalmente sólida y dijo que la empresa no tiene más remedio que buscar acción legal. Aunque la restricción se aplica al uso de defensa, el chatbot Claude de Anthropic sigue estando disponible para el público y socios comerciales como Microsoft. La empresa continúa las discusiones con el departamento para explorar formas permitidas de servir al Pentágono sin violar sus excepciones sobre vigilancia masiva y armas autónomas.

El desafío legal de Anthropic a la designación de riesgo de cadena de suministro del Pentágono

En una publicación de blog reciente, el director ejecutivo de Anthropic, Dario Amodei, reveló que la empresa de inteligencia artificial recibió una carta formal del Departamento de Defensa que oficialmente etiquetó sus productos como un riesgo para la cadena de suministro. La designación, que el Pentágono dijo es efectiva de inmediato, activa restricciones sobre el uso de la tecnología de Anthropic para ciertos propósitos relacionados con la defensa.

Amodei declaró que no cree que la acción del departamento sea legalmente sólida y que Anthropic ve "no hay más remedio" que disputar la designación en los tribunales. Enmarcó la inminente batalla legal como una respuesta necesaria para proteger la capacidad de la empresa para seguir ofreciendo sus servicios de inteligencia artificial.

La etiqueta de riesgo de cadena de suministro, según Amodei, tiene un alcance limitado destinado a proteger los intereses del gobierno. Enfatizó que la restricción no se extiende al público en general o incluso a la mayoría de los contratistas del Departamento de Defensa, lo que permite el acceso continuo al chatbot Claude de Anthropic y a las herramientas de inteligencia artificial relacionadas para aplicaciones no relacionadas con la defensa.

Microsoft, un socio comercial importante, confirmó que seguirá utilizando Claude después de que su equipo legal concluyó que la asociación puede proceder en proyectos no relacionados con la defensa. Esto subraya que la designación no impide todas las relaciones comerciales, solo aquellas que caen bajo las restricciones específicas relacionadas con la defensa.

Negociaciones y excepciones

Amodei también señaló que Anthropic ha tenido "conversaciones productivas" con el Departamento de Defensa durante los últimos días. Las discusiones se centran en cómo la empresa podría seguir sirviendo al Pentágono mientras respeta dos excepciones explícitas: la tecnología no debe ser utilizada para vigilancia masiva o para el desarrollo de armas autónomas completamente.

El director ejecutivo indicó que Anthropic está explorando formas de garantizar una transición fluida en caso de que esas excepciones resulten inviables, sugiriendo una disposición a negociar un nuevo acuerdo que se alinee con las preocupaciones de seguridad del departamento.

Contexto y antecedentes

La designación evoca tensiones anteriores entre el gobierno y las empresas de inteligencia artificial. En instancias anteriores, el departamento amenazó con aplicar una etiqueta similar a empresas de naciones adversarias si no eliminaban salvaguardias relacionadas con la vigilancia masiva y las armas autónomas. La administración actual, referida en la fuente como el Departamento de Guerra, ha ordenado anteriormente a las agencias federales que cesen el uso de la tecnología de Anthropic.

La publicación de blog de Amodei también hizo referencia a un memorándum interno filtrado en el que describió las declaraciones de OpenAI sobre su propio contrato de defensa como "simplemente mentiras directas". Aunque este comentario no se elabora más, destaca la competencia y el escrutinio en curso dentro de la industria de la inteligencia artificial con respecto a los contratos gubernamentales.

Implicaciones

El caso judicial inminente pondrá a prueba los fundamentos legales de la autoridad de riesgo de cadena de suministro del Pentágono. Un fallo a favor de Anthropic podría preservar un uso comercial más amplio de los productos de inteligencia artificial de la empresa, mientras que una decisión que apoye la designación del departamento podría restringir la participación de la empresa en proyectos de defensa y potencialmente influir en cómo otros proveedores de inteligencia artificial interactúan con los contratos gubernamentales.

Independientemente del resultado, la postura de Anthropic señala un compromiso firme para defender su libertad operativa y subraya la creciente fricción entre las tecnologías de inteligencia artificial emergentes y las políticas de seguridad gubernamentales.

#Anthropic#Departamento de Defensa#Inteligencia Artificial#Claude#Pentágono#desafío legal#riesgo de cadena de suministro#política de inteligencia artificial del gobierno#vigilancia masiva#armas autónomas#Microsoft

También disponible en:

Anthropic desafiará la designación de riesgo de cadena de suministro del Pentágono en los tribunales | AI News