El CEO de Anthropic, Dario Amodei, regresa a las negociaciones con el Pentágono para preservar el acuerdo de defensa

Puntos clave
- El CEO de Anthropic, Dario Amodei, se reúne nuevamente con el Departamento de Defensa después de que las conversaciones colapsaran sobre el acceso a la inteligencia artificial.
- El Pentágono demandó el uso irrestricto de Claude, mientras que Anthropic insistió en dos líneas rojas: no hubo vigilancia masiva y no hubo armas autónomas letales.
- El secretario de Defensa Pete Hegseth amenazó con etiquetar a Anthropic como un riesgo de cadena de suministro, lo que podría obligar a otros contratistas a eliminar la tecnología de la empresa.
- Las nuevas negociaciones involucran al subsecretario Emil Michael y pueden eliminar la cláusula controvertida sobre el análisis de datos bulk.
- Amodei circuló un memorando interno criticando la postura del Pentágono y contrastando a Anthropic con rivales como OpenAI.
- Un acuerdo exitoso mantendría a Claude en uso de defensa; un fracaso podría aislar a Anthropic de futuros contratos gubernamentales.
El director ejecutivo de Anthropic, Dario Amodei, ha regresado a la mesa de negociaciones con el Departamento de Defensa de los Estados Unidos después de que las conversaciones colapsaran debido a la demanda del Pentágono de acceso irrestricto a los modelos de inteligencia artificial Claude de la empresa. Las discusiones renovadas buscan evitar una designación de riesgo de cadena de suministro que podría impedir que Anthropic participe en futuros trabajos de defensa.
Antecedentes
Anthropic, la empresa detrás de la familia de modelos de inteligencia artificial Claude, ha sido un proveedor clave de tecnología de inteligencia artificial para el ejército de los Estados Unidos. Sus sistemas han obtenido autorización de seguridad para manejar información clasificada y se han utilizado en contextos operativos. Sin embargo, la relación se deterioró cuando el Departamento de Defensa buscó acceso irrestricto a la tecnología de la empresa.
Estancamiento sobre el acceso a la inteligencia artificial
La insistencia del Pentágono en el "uso legal" de Claude entró en conflicto con las restricciones de política de Anthropic. La empresa ha establecido dos líneas rojas firmes: no permitirá la vigilancia masiva de ciudadanos estadounidenses, y se niega a apoyar armas autónomas letales que puedan operar sin control humano. La demanda del Departamento de Defensa de acceso irrestricto y la inclusión de una cláusula sobre "análisis de datos bulk adquiridos" en el contrato fueron vistas por Anthropic como una violación de esas líneas rojas.
Después de semanas de disputas públicas, las negociaciones se derrumbaron un viernes, y el secretario de Defensa Pete Hegseth amenazó con etiquetar a Anthropic como un riesgo de cadena de suministro, una designación que normalmente se reserva para empresas con vínculos extranjeros que plantean preocupaciones de seguridad nacional. Tal etiqueta podría obligar a otros contratistas a eliminar la tecnología de Anthropic de sus propios proyectos de defensa.
Nuevas negociaciones
Según el Financial Times, Amodei ahora está en conversaciones con el subsecretario de Defensa para Investigación y Ingeniería Emil Michael sobre un contrato revisado que permitiría el uso continuo de Claude mientras se preservan las líneas rojas de la empresa. Michael previamente criticó a Amodei en las redes sociales, calificándolo de "mentiroso" y acusándolo de poner en peligro la seguridad nacional. A pesar de la dura retórica, la última ronda de conversaciones sugiere que el departamento puede estar dispuesto a eliminar la frase controvertida sobre el análisis de datos bulk.
Amodei circuló un memorando interno al personal de Anthropic, describiendo la posición anterior del Pentágono como "mentiras directas" y contrastando la postura de Anthropic con la de OpenAI, que calificó de "teatro de seguridad". También señaló que la relación de Anthropic con el gobierno federal se había deteriorado porque la empresa no había hecho donaciones políticas a la administración actual.
Implicaciones potenciales
Si se alcanza un nuevo acuerdo, podría preservar la posición de Anthropic en el sector de la defensa y mantener a Claude disponible para misiones clasificadas. El fracaso en la obtención de un acuerdo podría resultar en que la etiqueta de riesgo de cadena de suministro entre en vigor, lo que podría llevar a otras empresas de tecnología a distanciarse de Anthropic para proteger sus propios contratos de defensa. El resultado también puede influir en cómo otras empresas de inteligencia artificial negocian los términos de acceso y uso con agencias gubernamentales, especialmente ya que rivales como OpenAI y xAI han acordado términos más permisivos.
La disputa destaca la creciente tensión entre los objetivos de seguridad nacional y las políticas corporativas sobre el uso ético de la inteligencia artificial. Subraya el desafío de equilibrar las necesidades militares de tecnología avanzada con salvaguardias contra el mal uso, un debate que probablemente dará forma a la adquisición y regulación futuras de inteligencia artificial en los Estados Unidos.