El Pentágono designa a Anthropic como riesgo de cadena de suministro por disputa sobre el uso de la IA

Pentagon Designates Anthropic as Supply‑Chain Risk Over AI Use Dispute

Puntos clave

  • El Pentágono etiquetó oficialmente a Anthropic como un riesgo de cadena de suministro, un estatus usualmente aplicado a empresas extranjeras.
  • La designación prohíbe a los contratistas de defensa utilizar el modelo de IA Claude de Anthropic en cualquier trabajo gubernamental.
  • Anthropic se negó a permitir que Claude se utilizara para armas letales autónomas sin supervisión humana o para vigilancia masiva.
  • La empresa dice que la acción del Pentágono es legalmente insostenible y será impugnada en los tribunales.
  • La disputa destaca la tensión entre las necesidades de IA del gobierno y las restricciones de uso ético de las empresas privadas.

El Departamento de Defensa de los Estados Unidos ha etiquetado oficialmente a Anthropic, la creadora del modelo de IA Claude, como un riesgo de cadena de suministro después de que las negociaciones sobre las restricciones de uso de la empresa fracasaran. La designación prohíbe a los contratistas de defensa utilizar Claude en cualquier trabajo gubernamental y amenaza con cancelar contratos para empresas que interactúen comercialmente con Anthropic. El CEO de Anthropic dijo que la acción del departamento es legalmente insostenible y la empresa la impugnará en los tribunales. La disputa gira en torno a la negativa de Anthropic a permitir que el Pentágono utilice Claude para armas letales autónomas sin supervisión humana y para vigilancia masiva, planteando dudas sobre el control privado de la IA de grado gubernamental.

El Pentágono toma un paso sin precedentes contra una empresa de IA doméstica

El Departamento de Defensa anunció que ha etiquetado formalmente a Anthropic, la empresa estadounidense detrás del sistema de inteligencia artificial Claude, como un riesgo de cadena de suministro. Esta designación, tradicionalmente reservada para entidades extranjeras con vínculos con gobiernos adversarios, marca la primera vez que una empresa estadounidense recibe la etiqueta.

Según el informe, el movimiento sigue semanas de negociaciones estancadas, ultimátums públicos y amenazas de acción legal. La decisión del Pentágono impedirá que los contratistas de defensa trabajen con el gobierno si incorporan Claude en cualquier producto o servicio. El departamento también advirtió que cualquier actividad comercial con Anthropic, incluso fuera de los contratos gubernamentales, podría llevar a la cancelación de contratos de defensa.

Disputa central sobre las políticas de uso de la IA

En el corazón del conflicto está la negativa de Anthropic a permitir que el Pentágono utilice Claude para dos propósitos específicos: armas letales autónomas sin supervisión humana y vigilancia masiva. Anthropic argumentó que permitir tales usos colocaría un poder excesivo en manos de una empresa privada y que el gobierno no podría confiar en que la empresa respetara sus líneas rojas.

El Pentágono contrargumentó que las demandas de Anthropic darían a la empresa privada un control indebido sobre operaciones gubernamentales críticas. A medida que las negociaciones se deterioraban, el departamento amenazó con invocar la designación de riesgo de cadena de suministro si Anthropic no se sometía.

Respuesta de Anthropic y amenaza legal

El director ejecutivo de Anthropic confirmó la recepción de la notificación del Pentágono y describió la acción como "legalmente insostenible". Indicó que la empresa no ve otra alternativa que impugnar la designación en los tribunales. La empresa mantiene que la aplicación amplia de la ley -potencialmente cancelando cualquier contrato de defensa para cualquier empresa que trabaje con Anthropic- sería ilegal.

Implicaciones para el uso de la IA por el gobierno

La designación plantea preguntas significativas sobre cómo el gobierno de los Estados Unidos gestionará las tecnologías de IA desarrolladas por empresas privadas. También destaca la tensión entre los objetivos de seguridad nacional y el deseo de las empresas de IA de establecer límites éticos sobre cómo se emplea su tecnología.

Aunque el Pentágono no ha proporcionado más comentarios, la situación subraya la creciente complejidad de integrar la IA avanzada en operaciones de defensa e inteligencia, especialmente cuando las empresas privadas buscan limitar usos que consideran inaceptables.

#Pentágono#Anthropic#IA#Claude#riesgo de cadena de suministro#contratos de defensa#política de IA gubernamental#armas autónomas#vigilancia#desafío legal

También disponible en:

El Pentágono designa a Anthropic como riesgo de cadena de suministro por disputa sobre el uso de la IA | AI News