Disputa contractual entre el Pentágono y Anthropic subraya la brecha en la gobernanza de la IA

Puntos clave
- El Pentágono buscaba el uso irrestricto del modelo de IA Claude de Anthropic para todos los fines legales.
- Anthropic insistió en límites para prevenir la vigilancia doméstica y las armas completamente autónomas.
- La administración etiquetó a Anthropic como un riesgo en la cadena de suministro, lo que provocó una demanda.
- Los expertos dicen que el conflicto revela una brecha regulatoria en la gobernanza de la IA.
- El Pentágono cambió a un nuevo contrato con OpenAI, que prometió salvaguardias más fuertes.
- La capacidad de la IA para fusionar datos dispersos plantea serias preocupaciones sobre la privacidad.
- Los modelos de IA actuales se consideran poco confiables para sistemas de armas completamente autónomos.
- Se urge al Congreso a establecer reglas claras para el uso de la IA en la seguridad nacional.
- La designación de Anthropic como un riesgo en la cadena de suministro puede disuadir a otras empresas de IA de establecer límites de seguridad.
Un conflicto entre el Departamento de Defensa de EE. UU. y el desarrollador de IA Anthropic sobre el uso del modelo Claude expuso un vacío regulatorio. El Pentágono buscaba acceso irrestricto para "todos los fines legales", mientras que Anthropic estableció líneas rojas contra la vigilancia doméstica y las armas completamente autónomas. Después de que Anthropic se negó, la administración etiquetó a la empresa como un riesgo en la cadena de suministro, lo que provocó una demanda. Los expertos dicen que el episodio subraya la necesidad de reglas claras del Congreso sobre la IA en la seguridad nacional, a medida que el ejército se inclina hacia OpenAI y se intensifica el debate más amplio sobre la vigilancia y las armas impulsadas por la IA.
Antecedentes
El Departamento de Defensa de EE. UU. entró en un contrato con Anthropic, el creador del sistema de inteligencia artificial Claude, para incorporar la tecnología en operaciones de defensa. La solicitud del Pentágono fue para tener la capacidad de usar Claude para "todos los fines legales", una frase que implicaba una implementación amplia y sin restricciones.
Disputa sobre el uso de la IA
Anthropic se opuso, insistiendo en límites que impedirían que el modelo se utilizara para la vigilancia doméstica masiva o para sistemas de armas completamente autónomos. Cuando la empresa se negó a renunciar a estas salvaguardias, el presidente Donald Trump y el secretario de Defensa Pete Hegseth anunciaron que Anthropic sería designada como un "riesgo en la cadena de suministro", lo que efectivamente prohibiría sus productos en contratos de defensa.
Anthropic respondió presentando una demanda federal, calificando la designación de ataque sin precedentes y ilegal contra los derechos de libre expresión de la empresa. El Pentágono argumentó que la ley actual no permite los usos de vigilancia controvertidos y que no tiene planes para emplear la herramienta para armas autónomas, aunque los expertos señalan que la orientación legal sigue siendo ambigua.
Implicaciones legales y de política
La disputa iluminó una brecha en la gobernanza: las leyes y regulaciones existentes no han seguido el ritmo de las capacidades de la IA moderna. Los académicos de la privacidad y la tecnología describieron el episodio como una llamada de atención para el Congreso para establecer líneas rojas estatutarias que definan las aplicaciones de IA permitidas en contextos de seguridad nacional.
Después del conflicto, el Pentágono aseguró un nuevo acuerdo con OpenAI. Aunque el trato con OpenAI contiene menos restricciones explícitas, el liderazgo de la empresa ha prometido fortalecer las salvaguardias, y el CEO Sam Altman señaló públicamente que el Pentágono afirmó que la tecnología no se utilizaría por parte de las agencias de inteligencia.
Reacciones de expertos
Los analistas destacaron el efecto transformador de la IA en la vigilancia, enfatizando cómo los modelos poderosos pueden amalgamar datos dispersos e inocuos en perfiles personales detallados sin una orden judicial. El CEO de Anthropic, Dario Amodei, advirtió que tales capacidades plantean riesgos significativos para la privacidad.
En cuanto a la militarización, Anthropic y otros expertos en IA argumentaron que los modelos fronterizos de hoy carecen de la confiabilidad necesaria para armas completamente autónomas. Urgieron la inclusión de un "ser humano en el bucle" para garantizar la rendición de cuentas, una postura que el Pentágono parece resistir.
Los académicos del derecho enfatizaron que los líderes del sector privado no electos no pueden llenar el vacío regulatorio dejado por el Congreso. Llamaron a reglas claras y democráticamente aprobadas que gobiernen el uso de la IA en la vigilancia y los sistemas letales.
Perspectiva futura
La designación del gobierno de Anthropic como un riesgo en la cadena de suministro puede tener un efecto disuasorio en otras empresas de IA, señalizando que el estado podría retaliar contra las empresas que imponen límites de seguridad. Anthropic aclaró que la designación se aplica solo a contratos directos del Departamento de Guerra, no a todos los clientes.
A pesar del conflicto, el ejército continúa empleando las herramientas de Anthropic en operaciones en curso, incluido el conflicto actual en Irán. La empresa declaró que seguirá proporcionando sus modelos a un costo nominal siempre que siga autorizada.
En general, el episodio subraya la necesidad urgente de una acción comprehensiva del Congreso para establecer límites duraderos y transparentes en la implementación de la IA en entornos de seguridad nacional, equilibrando la innovación con la supervisión democrática y las protecciones de los derechos civiles.