Secretario de Defensa llama al CEO de Anthropic para discutir el uso militar de Claude

Defense Secretary Calls Anthropic CEO to Discuss Military Use of Claude

Puntos clave

  • El secretario de Defensa Pete Hegseth convoca al director ejecutivo de Anthropic, Dario Amodei, para discutir el uso militar de Claude.
  • El Pentágono amenaza con etiquetar a Anthropic como un riesgo en la cadena de suministro después de que la empresa se negara a ciertas aplicaciones de defensa.
  • El modelo Claude de Anthropic fue supuestamente utilizado en un raid que capturó al presidente venezolano Nicolás Maduro.
  • El secretario Hegseth supuestamente dio a Amodei un ultimátum: cooperar o enfrentar la exclusión.
  • Una designación de riesgo en la cadena de suministro podría anular el contrato de defensa de Anthropic y obligar a otros socios a dejar de utilizar Claude.

El secretario de Defensa Pete Hegseth ha convocado al director ejecutivo de Anthropic, Dario Amodei, al Pentágono para una reunión sobre las preocupaciones del departamento de defensa sobre el uso militar del modelo de inteligencia artificial de Anthropic, Claude. El Pentágono amenaza con etiquetar a la empresa como un riesgo en la cadena de suministro después de que Anthropic se negara a permitir que el departamento empleara su tecnología para la vigilancia masiva de estadounidenses o para sistemas de armas autónomos.

Pentágono alerta sobre Claude

El secretario de Defensa de Estados Unidos, Pete Hegseth, ha llamado al director ejecutivo de Anthropic, Dario Amodei, al Pentágono para discutir la inquietud del departamento sobre el despliegue militar del sistema de inteligencia artificial de la empresa, Claude. La reunión sigue a una advertencia del Pentágono de que Anthropic podría ser designada como un "riesgo en la cadena de suministro", una etiqueta normalmente reservada para adversarios extranjeros, porque la empresa se negó a permitir que el Departamento de Defensa utilizara su tecnología para la vigilancia a gran escala de ciudadanos estadounidenses o para armas que operan sin supervisión humana.

Antecedentes contractuales y operaciones recientes

Anthropic previamente firmó un contrato con el departamento de defensa y su modelo Claude fue supuestamente utilizado durante un raid de operaciones especiales que resultó en la captura del presidente venezolano Nicolás Maduro. Esa operación destacó el papel del modelo en misiones sensibles y llevó las tensiones subyacentes entre la empresa y el Pentágono a un foco más claro.

Ultimátum y posible consecuencia

Según una fuente, el secretario Hegseth presentó a Amodei un ultimátum: cooperar con los requisitos del departamento o enfrentar la exclusión de futuros trabajos de defensa. Reemplazar la tecnología de Anthropic sería una tarea significativa para el Pentágono, pero las apuestas son altas. Una designación de riesgo en la cadena de suministro anularía el contrato existente de Anthropic y obligaría a otros contratistas de defensa a dejar de utilizar Claude por completo.

Implicaciones para la gobernanza de la IA

El enfrentamiento subraya debates más amplios sobre el papel de las empresas de inteligencia artificial privadas en la seguridad nacional y los límites éticos de las herramientas de aprendizaje automático avanzadas. Mientras que el establecimiento de defensa busca aprovechar la inteligencia artificial de vanguardia para obtener una ventaja estratégica, empresas como Anthropic se resisten a usos que podrían infringir las libertades civiles o permitir armas completamente autónomas. El resultado de la próxima reunión podría sentar un precedente para cómo el gobierno de Estados Unidos gestiona las asociaciones con innovadores de la IA y cómo equilibra las imperativas de seguridad con consideraciones éticas.

#defensa#Pentágono#Anthropic#Claude#inteligencia artificial#IA militar#riesgo en la cadena de suministro#Dario Amodei#Pete Hegseth#Venezuela#Nicolás Maduro#ética de la IA

También disponible en:

Secretario de Defensa llama al CEO de Anthropic para discutir el uso militar de Claude | AI News