Juez otorga injunción a Anthropic sobre designación de cadena de suministro del Pentágono

Puntos clave
- La jueza Rita F. Lin otorgó una injunción que obliga a la administración Trump a revocar la etiqueta de riesgo para la cadena de suministro de Anthropic.
- El tribunal ordenó al gobierno que detuviera las órdenes que dirigen a las agencias federales a cortar vínculos con la empresa Anthropic.
- Anthropic había buscado limitar el uso del gobierno de sus modelos de inteligencia artificial para armas autónomas y vigilancia masiva.
- El Pentágono rechazó esos límites y etiquetó a la empresa como una amenaza para la seguridad nacional.
- El presidente Trump y la Casa Blanca caracterizaron a Anthropic como una organización "de izquierda radical, despertada" que amenazaba la seguridad nacional.
- El director ejecutivo de Anthropic, Dario Amodei, describió las acciones del Pentágono como "retaliatorias y punitivas".
- Anthropic agradeció al tribunal y reafirmó su intención de colaborar con el gobierno en la inteligencia artificial segura.
- La sentencia destaca las limitaciones legales de las designaciones del poder ejecutivo de las empresas de tecnología nacionales como riesgos para la seguridad.
Un juez federal en California emitió una injunción que requiere que la administración Trump revocara su designación de la empresa de inteligencia artificial Anthropic como un riesgo para la cadena de suministro y detener las órdenes que dirigen a las agencias federales a cortar vínculos con la empresa. La sentencia, dictada por la jueza Rita F. Lin, rechazó la afirmación de la administración de que Anthropic representaba una amenaza para la seguridad nacional después de que la empresa cuestionara la demanda del Pentágono de que limitara el uso de sus modelos. El CEO de Anthropic, Dario Amodei, celebró la sentencia como una protección de la libertad de expresión y un paso hacia una colaboración productiva con el gobierno.
Antecedentes del conflicto
El Departamento de Defensa, bajo la administración Trump, etiquetó a Anthropic, un desarrollador de inteligencia artificial, como un "riesgo para la cadena de suministro", una clasificación generalmente reservada para actores extranjeros. La administración también emitió una orden que dirigía a todas las agencias federales a cortar vínculos con la empresa. Anthropic había buscado anteriormente establecer límites sobre cómo el gobierno podría emplear sus modelos de inteligencia artificial, incluyendo prohibiciones sobre armas autónomas y aplicaciones de vigilancia masiva. El Pentágono rechazó esos límites, lo que llevó a la agencia a calificar a la empresa como una amenaza para la seguridad.
Desafío legal y sentencia del tribunal
Anthropic respondió presentando una demanda contra el Departamento de Defensa y la administración. El caso fue escuchado por la jueza Rita F. Lin del Distrito Norte de California. En su sentencia, la jueza Lin ordenó al gobierno que revocara la designación de riesgo para la cadena de suministro y que detuviera la aplicación de la directiva que ordenaba a las agencias federales cortar vínculos con Anthropic. La jueza caracterizó las acciones de la administración como un intento de debilitar a la empresa y señaló que las órdenes infringían las protecciones de la libertad de expresión de Anthropic.
Reacciones de las partes
El presidente Trump y los funcionarios de la Casa Blanca habían descrito a Anthropic como una organización "de izquierda radical, despertada" que amenazaba la seguridad nacional. El director ejecutivo de Anthropic, Dario Amodei, calificó las acciones del Pentágono de "retaliatorias y punitivas". Después de la sentencia, Anthropic emitió un comunicado expresando gratitud al tribunal y enfatizando su compromiso de trabajar de manera productiva con el gobierno para garantizar una inteligencia artificial segura y confiable para los estadounidenses.
Implicaciones para las relaciones entre el gobierno y la industria
La injunción subraya los límites legales de la capacidad del poder ejecutivo para etiquetar unilateralmente a las empresas de tecnología nacionales como riesgos para la seguridad sin debido proceso. También destaca la tensión entre las agencias gubernamentales que buscan acceso ilimitado a las tecnologías emergentes y las empresas privadas que buscan establecer límites éticos o de seguridad sobre su uso. La sentencia puede moldear las futuras negociaciones sobre la implementación de la inteligencia artificial en contextos de defensa y establecer un precedente para cómo se aplican las designaciones de riesgo para la cadena de suministro.
Próximos pasos
Con la orden del tribunal en vigor, el Pentágono debe cumplir con la injunción y cesar su directiva de cortar vínculos con Anthropic. Se espera que ambas partes continúen las negociaciones sobre el alcance permitido del uso de la inteligencia artificial en los programas gubernamentales. El caso sigue siendo un punto focal para las discusiones sobre el equilibrio entre las preocupaciones de seguridad nacional y los derechos corporativos en el sector de inteligencia artificial en rápida evolución.