El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable

Puntos clave
- El Pentágono dice que el acceso continuo de Anthropic a la infraestructura de guerra crearía un riesgo inaceptable.
- Una disposición en los contratos de inteligencia artificial permite su uso para cualquier propósito legal; Anthropic se negó a aceptarlo.
- El departamento advirtió que Anthropic podría deshabilitar o alterar sus modelos de inteligencia artificial durante operaciones si se cruzan las "líneas rojas" corporativas.
- Anthropic demandó para impugnar una designación de riesgo de cadena de suministro después de negarse a ciertos usos defensivos.
- La empresa busca una injunción preliminar para pausar la prohibición mientras impugna la designación.
- La presentación sugiere que la etiqueta podría costarle a Anthropic miles de millones de dólares en ingresos.
- Microsoft, Google y OpenAI han presentado briefs en apoyo de Anthropic.
- El presidente Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic.
El Departamento de Defensa ha argumentado que permitir que Anthropic continúe accediendo a su infraestructura de guerra introduciría un riesgo inaceptable para las cadenas de suministro y la seguridad nacional. En una presentación judicial respondiendo a la demanda de Anthropic sobre una designación de riesgo de cadena de suministro, el Pentágono citó preocupaciones de que la empresa podría deshabilitar o alterar sus modelos de inteligencia artificial durante operaciones si se cruzan las "líneas rojas" corporativas.
Preocupaciones de seguridad del Pentágono
El Departamento de Defensa sostuvo que otorgar a Anthropic un acceso continuo a su infraestructura de guerra "introduciría un riesgo inaceptable" para sus cadenas de suministro, como se detalla en una presentación judicial respondiendo a la demanda de la empresa de inteligencia artificial. La presentación explicó que el secretario del departamento, Pete Hegseth, había incorporado una disposición en los contratos de servicios de inteligencia artificial que permite a la agencia utilizar las tecnologías para cualquier propósito legal. La negativa de Anthropic a aceptar estos términos planteó dudas sobre su idoneidad como "socio de confianza" para iniciativas altamente sensibles.
El Pentágono advirtió que los sistemas de inteligencia artificial son muy vulnerables a la manipulación. Afirmó que Anthropic podría potencialmente deshabilitar su tecnología o alterar preemptivamente el comportamiento de su modelo antes o durante operaciones de guerra en curso si, a su discreción, la empresa sintiera que se estaban cruzando sus "líneas rojas" corporativas. El departamento consideró este escenario como un "riesgo inaceptable para la seguridad nacional", haciendo referencia a la agencia como el Departamento de Guerra, el nombre preferido por la administración Trump.
Conflicto legal y posible impacto
Anthropic demandó al gobierno para impugnar la designación de riesgo de cadena de suministro que recibió después de negarse a permitir que su modelo se utilizara para la vigilancia masiva y el desarrollo de armas autónomas. La empresa busca una injunción preliminar para pausar la prohibición mientras impugna la designación en los tribunales. La presentación indicó que los clientes de Anthropic podrían seguir trabajando con la empresa en proyectos no defensivos, pero la etiqueta podría causar que la empresa pierda miles de millones de dólares en ingresos.
Aunque la presentación no aclaró si Anthropic sigue buscando un nuevo acuerdo con el gobierno, The New York Times señaló que Microsoft, Google y OpenAI habían presentado briefs de amicus curiae en apoyo de Anthropic. La presentación también hizo referencia a la orden del presidente Trump de que las agencias federales dejaran de utilizar la tecnología de Anthropic, subrayando la postura de la administración sobre el riesgo de seguridad percibido.