Pentágono y Anthropic en desacuerdo sobre el uso militar de la IA Claude

Puntos clave
- El Pentágono busca el uso militar sin restricciones de las tecnologías de inteligencia artificial de las principales empresas.
- Anthropic es la más resistente, enfatizando los límites sobre armas autónomas y vigilancia.
- El departamento amenaza con terminar el contrato de $200 millones de Anthropic debido a desacuerdos sobre el uso.
- Los modelos de Claude se utilizaron supuestamente en una operación de EE. UU. para capturar al expresidente venezolano Nicolás Maduro.
- Al menos una otra empresa de inteligencia artificial ha aceptado los términos del Pentágono, y otras han mostrado flexibilidad.
- Anthropic dice que no ha discutido operaciones militares específicas y se centra en las limitaciones de política.
El Pentágono está instando a las empresas de inteligencia artificial a permitir que el ejército de EE. UU. utilice sus tecnologías para todos los fines legales, pero Anthropic se ha resistido. El departamento está amenazando con terminar su contrato de $200 millones con la empresa debido a desacuerdos sobre cómo se utilizan los modelos de Claude, incluida una supuesta implementación en una operación para capturar al expresidente venezolano Nicolás Maduro. Mientras que otras empresas han mostrado flexibilidad, Anthropic se centra en límites estrictos sobre armas autónomas y vigilancia masiva doméstica.
Antecedentes
El Departamento de Defensa de EE. UU. está presionando a las empresas de inteligencia artificial para que permitan al ejército utilizar sus productos para cualquier fin legal. Esta demanda se extiende a varios desarrolladores de inteligencia artificial importantes, incluidos Anthropic, OpenAI, Google y xAI.
Resistencia de Anthropic
Según informes, Anthropic ha sido la más reacia a acceder a la solicitud del Pentágono. La postura de la empresa se centra en una serie de preocupaciones sobre políticas de uso, específicamente sus límites sobre armas autónomas y vigilancia masiva doméstica. Anthropic ha indicado que no ha discutido el uso de sus modelos de Claude para ninguna operación militar en particular.
Tensión contractual
La presión del Pentágono ha llevado a un serio conflicto sobre el contrato de $200 millones de Anthropic. Fuentes dicen que el departamento está amenazando con discontinuar el acuerdo si la empresa no amplía sus permisos de uso.
Desacuerdo sobre el uso de Claude
Informes anteriores destacaron un desacuerdo significativo entre Anthropic y funcionarios del Departamento de Defensa sobre la implementación de los modelos de Claude. Un ejemplo notable mencionado fue el uso de Claude en una operación militar de EE. UU. que resultó en la captura del expresidente venezolano Nicolás Maduro.
Comparación con otras empresas de IA
Mientras que Anthropic permanece firme, un funcionario anónimo de la administración de Trump señaló que al menos una de las otras empresas de inteligencia artificial ha aceptado los términos del Pentágono, y las empresas restantes han mostrado alguna flexibilidad. Este contraste subraya la posición distintiva de Anthropic en las negociaciones.
Respuesta de la empresa
Anthropic no respondió de inmediato a las preguntas de TechCrunch. Un portavoz de la empresa, hablando con Axios, reiteró que Anthropic no ha participado en discusiones sobre operaciones específicas y se centra en sus límites de política sobre armas autónomas y vigilancia.
Implicaciones
El enfrentamiento destaca las tensiones más amplias entre los objetivos de seguridad nacional y las pautas éticas de las empresas de inteligencia artificial. El resultado podría dar forma a cómo se integran los modelos de inteligencia artificial avanzada en las actividades militares y influir en los contratos futuro entre el gobierno y la industria.