Anthropic demanda al gobierno de EE. UU. por designación de riesgo de cadena de suministro

Anthropic Sues U.S. Government Over Supply Chain Risk Designation

Puntos clave

  • Anthropic presentó una demanda para bloquear una designación de riesgo de cadena de suministro del Pentágono.
  • La empresa alega que la designación viola los derechos de libre expresión y debido proceso.
  • Funcionarios de Defensa presionaron a Anthropic para que eliminara salvaguardas contra la vigilancia y las armas autónomas.
  • El CEO de Anthropic, Dario Amodei, se negó a comprometerse con esas salvaguardas.
  • El Pentágono amenazó con cancelar un contrato de $200 millones y agregar a Anthropic a una lista de bloqueo.
  • La declaración de Anthropic califica las acciones del gobierno como sin precedentes e ilegales.
  • OpenAI luego aseguró un contrato separado con el Departamento de Defensa con cláusulas de seguridad similares.
  • El jefe de hardware de robótica de OpenAI renunció, citando preocupaciones sobre la vigilancia y la autonomía letal.

Anthropic ha presentado una demanda para bloquear que el Pentágono agregue a la empresa de inteligencia artificial a una lista de seguridad nacional después de que el Departamento de Defensa la etiquetó como un riesgo de cadena de suministro. La empresa argumenta que la designación viola los derechos de libre expresión y debido proceso y carece de autoridad estatutaria. La acción legal sigue a semanas de tensión con el Departamento de Defensa, que presionó a Anthropic para que eliminara salvaguardas contra la vigilancia masiva y las armas autónomas. El CEO de Anthropic, Dario Amodei, se negó, lo que llevó a amenazas de cancelación de contratos y un impulso gubernamental más amplio para prohibir a la empresa el uso federal. OpenAI luego aseguró un acuerdo con el Departamento de Defensa, enfatizando principios de seguridad similares.

Antecedentes

Anthropic, un desarrollador líder de inteligencia artificial, recibió una carta del Departamento de Defensa confirmando que la agencia había etiquetado a la empresa como un riesgo de cadena de suministro. Esta designación colocaría a Anthropic en una lista de seguridad nacional, efectivamente prohibiendo a la empresa muchos contratos federales.

Se produjeron semanas de idas y venidas entre Anthropic y el Departamento de Defensa antes de la demanda. A finales de febrero, el secretario de Defensa Pete Hegseth y funcionarios senior presionaron a Anthropic para que eliminara salvaguardas que impiden que los modelos de la empresa se utilicen para la vigilancia masiva o el desarrollo de armas autónomas. El CEO Dario Amodei dejó claro que la empresa no consentiría en tales usos.

Acción legal

Cuando Anthropic se negó a alterar sus salvaguardas, el Pentágono amenazó con agregar a la empresa a la lista de riesgo de cadena de suministro y con cancelar un contrato de $200 millones. La empresa respondió presentando una demanda para solicitar una revisión judicial de la designación. La queja alega que la acción del gobierno es ilegal, viola los derechos de libre expresión y debido proceso de Anthropic y carece de cualquier estatuto federal autorizante.

La declaración de Anthropic a la prensa dice: "Estas acciones son sin precedentes y ilegales. La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido". La demanda caracteriza la conducta del gobierno como una "campaña de represalias sin precedentes e ilegal".

Posición de la empresa

Anthropic enfatizó que buscar una revisión judicial no cambia su "compromiso de larga data de aprovechar la inteligencia artificial para proteger nuestra seguridad nacional", pero es un paso necesario para proteger su negocio, clientes y socios. La empresa también señaló que había acordado "colaborar con el Departamento en una transición ordenada a otro proveedor de inteligencia artificial dispuesto a cumplir con sus demandas".

Reacción de la industria

OpenAI entró en escena al asegurar un acuerdo separado con el Departamento de Defensa. El CEO de OpenAI, Sam Altman, destacó los principios de seguridad de la empresa, incluyendo prohibiciones sobre la vigilancia masiva nacional y la responsabilidad humana para el uso de la fuerza, incluidos los sistemas de armas autónomas. El contrato establece explícitamente que "el sistema de inteligencia artificial no se utilizará intencionalmente para la vigilancia doméstica de personas y nacionales de EE. UU.".

Después del acuerdo de OpenAI, el jefe de hardware de robótica de la empresa renunció, y la empleada Caitlin Kalinowski publicó en X que "la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron".

Implicaciones

La demanda subraya un choque creciente entre los objetivos de seguridad del gobierno federal y las salvaguardas éticas de los desarrolladores de inteligencia artificial. También destaca las incertidumbres legales que rodean la autoridad del gobierno para imponer designaciones de riesgo de cadena de suministro a las empresas de tecnología.

#Inteligencia Artificial#Disputa Legal#Seguridad Nacional#Riesgo de Cadena de Suministro#Libre Expresión#Debido Proceso#Departamento de Defensa#Ética de la IA#Vigilancia#Armas Autónomas

También disponible en:

Anthropic demanda al gobierno de EE. UU. por designación de riesgo de cadena de suministro | AI News