Anthropic Demanda al Gobierno de EE. UU. por Designación de Riesgo en la Cadena de Suministro

Puntos clave
- Anthropic demandó al gobierno de EE. UU. por una designación de riesgo en la cadena de suministro.
- La empresa alega violaciones de los derechos de la Primera y Quinta Enmienda.
- La designación fue emitida por la administración Trump y requirió que las agencias dejaran de utilizar la inteligencia artificial de Anthropic dentro de seis meses.
- La Administración de Servicios Generales terminó su contrato con Anthropic, poniendo fin a sus servicios para las ramas federales.
- Socios importantes, incluyendo a Microsoft, continúan colaboraciones limitadas mientras separan el trabajo relacionado con el Pentágono.
- La demanda desafía la autoridad del poder ejecutivo para etiquetar a una empresa de inteligencia artificial nacional como un riesgo de seguridad.
Anthropic ha presentado una demanda en un tribunal de distrito de California alegando que el gobierno de EE. UU. ha etiquetado ilegalmente a la empresa de inteligencia artificial como un riesgo en la cadena de suministro y ordenó a todas las agencias federales que dejaran de utilizar su tecnología. La empresa afirma que la designación, emitida por la administración Trump, viola sus derechos de la Primera y Quinta Enmienda y excede la autoridad ejecutiva. La demanda sigue a una serie de cortes de agencias, incluida la Administración de Servicios Generales, que terminó su contrato, y una controversia más amplia sobre el uso del Pentágono de los modelos de inteligencia artificial de Anthropic. Anthropic dice que desafiará la designación en los tribunales mientras sus socios principales continúan colaboraciones limitadas.
Antecedentes
Anthropic, un importante desarrollador privado de inteligencia artificial, fue designado como un riesgo en la cadena de suministro por el gobierno de EE. UU. La designación, que normalmente se aplica a empresas extranjeras consideradas amenazas de seguridad cibernética, fue inusual para una empresa nacional. Después de la designación, la administración Trump ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic dentro de seis meses. El movimiento generó preocupación bipartidista sobre el impacto del desacuerdo político en la capacidad de una empresa para operar.
Acción Legal
En respuesta, Anthropic presentó una demanda en un tribunal de distrito de California. La queja alega que las acciones del gobierno castigan a la empresa por su discurso protegido sobre la seguridad de la inteligencia artificial y los límites de las armas autónomas, violando la Primera Enmienda. También afirma que la designación infringe los derechos de la Quinta Enmienda de Anthropic y excede la autoridad del poder ejecutivo. La demanda busca anular la etiqueta de riesgo en la cadena de suministro y restaurar la capacidad de la empresa para contratar con agencias federales.
Respuesta del Gobierno y las Agencias
Desde la designación, varias agencias han detenido el uso de los servicios de Anthropic. La Administración de Servicios Generales terminó su contrato OneGov, poniendo fin a la disponibilidad de Anthropic para las tres ramas del gobierno federal. El Departamento del Tesoro, el Departamento de Estado y otras agencias también han indicado planes para dejar de utilizar la tecnología de la empresa. El Pentágono se negó a comentar sobre la demanda.
Reacciones Corporativas
Clientes importantes como Microsoft han afirmado su continuación de la asociación con Anthropic, pero están estableciendo salvaguardias para separar el trabajo relacionado con el Pentágono de otras colaboraciones. Anthropic mantiene que desafiará la designación en los tribunales y continuará centrando su atención en el desarrollo responsable de la tecnología de inteligencia artificial emergente.
Implicaciones
El caso destaca las tensiones entre las preocupaciones de seguridad del gobierno y los derechos de los desarrolladores privados de inteligencia artificial. Plantea preguntas sobre el alcance del poder ejecutivo al etiquetar a empresas nacionales como riesgos para la seguridad nacional y el posible efecto disuasorio en el discurso relacionado con la seguridad de la inteligencia artificial. El resultado podría sentar un precedente para cómo las empresas de inteligencia artificial interactúan con los contratos federales y cómo se gestionan los desacuerdos de política en el sector tecnológico.