Anthropic Reabre Negociaciones con el Pentágono Después del Colapso del Contrato

Puntos clave
- El contrato de $200 millones de Anthropic con el DoD se derrumbó debido a una cláusula que permitía el uso militar ilimitado de su inteligencia artificial.
- El Pentágono firmó un contrato separado con OpenAI después de que Anthropic se negara a aceptar la cláusula de uso ilimitado.
- El CEO de Anthropic, Dario Amodei, reanudó las conversaciones con el funcionario del Pentágono, Emil Michael, para buscar un compromiso.
- Amodei quiere que el contrato explícitamente prohíba la vigilancia doméstica y las armas autónomas.
- Emil Michael calificó públicamente a Amodei de "mentiroso" con un "complejo de Dios".
- Amodei criticó el trato de OpenAI como "teatro de seguridad" y acusó al DoD de "mentiras directas".
- El Secretario de Defensa, Pete Hegseth, amenazó con designar a Anthropic como un "riesgo de la cadena de suministro", lo que podría incluir a la empresa en una lista negra para colaborar con cualquier otra empresa que haga negocios con el ejército de los Estados Unidos.
- La designación de riesgo de la cadena de suministro es inusual para una empresa nacional y puede enfrentar desafíos legales.
El contrato de $200 millones de Anthropic con el Departamento de Defensa se derrumbó debido a una cláusula que permitía el uso militar ilimitado de su inteligencia artificial. Después de que el Pentágono se volvió hacia OpenAI, el CEO de Anthropic, Dario Amodei, reanudó las conversaciones con el funcionario del Pentágono, Emil Michael, para buscar un compromiso que limitaría usos como la vigilancia doméstica y las armas autónomas.
Antecedentes y Colapso del Contrato
Anthropic, una empresa de inteligencia artificial, entró en un acuerdo de $200 millones con el Departamento de Defensa de los Estados Unidos (DoD) que prometía al Pentágono acceso a los modelos de inteligencia artificial de la empresa. El trato se derrumbó después de que el director ejecutivo de Anthropic, Dario Amodei, se opuso a una disposición del contrato que otorgaba al ejército el derecho de utilizar la tecnología para "cualquier uso legal". Amodei insistió en que el acuerdo debería prohibir explícitamente aplicaciones que él consideraba inaceptables, incluyendo la vigilancia masiva doméstica y los sistemas de armas autónomas.
Cuando Anthropic se negó a aceptar la cláusula de uso ilimitado, el DoD redirigió su compra a la rival OpenAI, asegurando un contrato separado con el desarrollador de inteligencia artificial competidor. El cambio dejó a Anthropic sin un contrato de defensa y desencadenó un disputa pública entre las dos partes.
Negociaciones Renovadas
Informes recientes indican que Amodei ha reanudado conversaciones con el Pentágono, específicamente con el funcionario senior Emil Michael, para explorar un posible compromiso. Las conversaciones renovadas apuntan a crear un contrato revisado que permitiría al DoD continuar accediendo a los modelos de Anthropic mientras se imponen límites más claros sobre usos prohibidos. Ambas partes parecen motivadas para evitar una transición disruptiva a los sistemas de OpenAI, lo que requeriría que el Pentágono ajuste su infraestructura de inteligencia artificial existente.
Durante la disputa, Michael calificó públicamente a Amodei de "mentiroso" con un "complejo de Dios". En respuesta, Amodei circuló un memorando interno describiendo el trato de OpenAI como "teatro de seguridad" y acusando al Departamento de "mentiras directas". Argumentó que el acuerdo de OpenAI estaba impulsado por el deseo de complacer a sus empleados, mientras que la postura de Anthropic se centraba en prevenir posibles abusos de su tecnología.
Potencial Designación de Riesgo de la Cadena de Suministro
El Secretario de Defensa, Pete Hegseth, ha señalado su intención de designar a Anthropic como un "riesgo de la cadena de suministro". Tal designación efectivamente incluiría a la empresa en una lista negra para colaborar con cualquier otra empresa que haga negocios con el ejército de los Estados Unidos. Aunque la etiqueta generalmente se reserva para adversarios extranjeros, no se ha tomado ninguna acción legal formal y sigue siendo incierta si la designación resistiría el escrutinio judicial.
Las negociaciones en curso y los intercambios públicos resaltan la tensión entre los intereses de seguridad nacional y las preocupaciones corporativas sobre la implementación ética de la inteligencia artificial. El resultado de las conversaciones podría sentar un precedente para cómo el gobierno de los Estados Unidos estructura futuros contratos con proveedores de inteligencia artificial, equilibrando las necesidades operativas con salvaguardias contra el mal uso.