Microsoft, Google y Amazon aseguran acceso continuo a Anthropic Claude para usuarios no defensivos

Puntos clave
- El Departamento de Defensa de EE. UU. etiquetó a Anthropic como un riesgo de cadena de suministro después de que la empresa se negó a otorgar acceso irrestricto para ciertos usos militares.
- Microsoft, Google y Amazon (a través de AWS) confirmaron que Claude seguirá disponible para cargas de trabajo no defensivas.
- Microsoft seguirá ofreciendo Claude a través de productos como Microsoft 365, GitHub y AI Foundry.
- Google afirmó que Claude seguirá siendo accesible en Google Cloud para proyectos no defensivos.
- Los clientes y socios de AWS pueden seguir utilizando Claude para aplicaciones no defensivas.
- El CEO de Anthropic, Dario Amodei, dijo que la designación solo afecta a los contratos directos del Departamento de Defensa.
- Anthropic planea impugnar la designación de riesgo de cadena de suministro en los tribunales.
Los principales proveedores de software y cloud Microsoft, Google y Amazon han confirmado que el modelo Claude de Anthropic seguirá disponible para sus clientes para cargas de trabajo no defensivas, a pesar de que el Departamento de Defensa de EE. UU. designó a Anthropic como un riesgo de cadena de suministro. La designación, provocada por la negativa de Anthropic a proporcionar acceso irrestricto para ciertas aplicaciones militares, no afecta el uso del modelo en proyectos comerciales o civiles. Las empresas dicen que seguirán ofreciendo Claude a través de plataformas como Microsoft 365, Google Cloud y AWS, y Anthropic planea impugnar la designación en los tribunales.
Antecedentes
El Departamento de Defensa de EE. UU. etiquetó oficialmente a la startup de inteligencia artificial Anthropic como un riesgo de cadena de suministro después de que la empresa se negó a otorgar acceso irrestricto a su modelo Claude para aplicaciones que la empresa consideró inseguras, como la vigilancia masiva y las armas autónomas completamente autónomas. Esta designación suele reservarse para adversarios extranjeros y significa que el Pentágono no puede utilizar los productos de Anthropic y debe certificar que los contratistas no los emplean.
Garantías de las principales empresas de tecnología
Microsoft, la primera gran empresa de tecnología en abordar el tema, confirmó que mantendrá los modelos de Anthropic, incluido Claude, disponibles para sus clientes a través de servicios como Microsoft 365, GitHub y su AI Foundry, excepto para contratos directos del Departamento de Defensa. Un portavoz de Microsoft dijo que la revisión legal de la empresa concluyó que la designación no impide el uso continuo de Claude para fines no defensivos.
Google repitió esta postura, afirmando que la determinación no impide que la empresa trabaje con Anthropic en proyectos no defensivos y que Claude seguirá siendo accesible a través de Google Cloud.
La división de cloud de Amazon, AWS, también informó que sus clientes y socios pueden seguir utilizando Claude para cargas de trabajo no relacionadas con contratos de defensa.
Posición de Anthropic
El CEO de Anthropic, Dario Amodei, reiteró que la designación de riesgo de cadena de suministro solo se aplica al uso de Claude en contratos directos con el Departamento de Defensa y no limita a otros clientes o relaciones comerciales no relacionadas. Enfatizó la intención de la empresa de impugnar la designación en los tribunales.
Implicaciones para los clientes
Las empresas y startups que integran Claude a través de plataformas de Microsoft, Google o AWS pueden continuar con sus iniciativas de inteligencia artificial sin interrupción, siempre que el uso no esté vinculado a contratos de defensa. Las garantías de las tres empresas de tecnología ayudan a mantener la confianza en la disponibilidad de herramientas de inteligencia artificial avanzadas para aplicaciones comerciales y civiles.
Desafío legal en curso
Anthropic ha prometido impugnar la designación del Departamento de Defensa en los tribunales, lo que indica una disputa continua sobre el equilibrio entre las preocupaciones de seguridad nacional y el control corporativo sobre la tecnología de inteligencia artificial.