Pentágono busca nuevos modelos de IA mientras el contrato con Anthropic se desmorona

Pentagon Pursues New AI Models as Anthropic Contract Falls Apart

Puntos clave

  • El Pentágono está desarrollando múltiples LLM para entornos propiedad del gobierno.
  • El contrato de $200 millones de Anthropic con el Departamento de Defensa terminó debido a disputas sobre acceso y uso.
  • Anthropic quería prohibiciones sobre vigilancia masiva y armas autónomas.
  • OpenAI y xAI (Grok) han asegurado acuerdos separados con el Pentágono.
  • El secretario de Defensa etiquetó a Anthropic como un riesgo de cadena de suministro, restringiendo colaboraciones.
  • Anthropic está cuestionando la designación de riesgo de cadena de suministro en los tribunales.

Después de una separación controvertida, el Pentágono está desarrollando sus propias herramientas de modelo de lenguaje grande para reemplazar la IA de Anthropic. El Departamento de Defensa anunció trabajos de ingeniería en múltiples LLM para entornos propiedad del gobierno y espera su uso operativo pronto. El contrato de Anthropic por $200 millones se derrumbó debido a disputas sobre acceso sin restricciones, prohibiciones de vigilancia masiva y uso de armas autónomas. Mientras que OpenAI y xAI de Elon Musk han asegurado acuerdos separados con el Pentágono, el secretario de Defensa Pete Hegseth etiquetó a Anthropic como un riesgo de cadena de suministro, una restricción que Anthropic ahora cuestiona en los tribunales.

Cambio del Pentágono alejándose de Anthropic

En una reciente rueda de prensa, Cameron Stanley, el oficial de digitalización y IA del Pentágono, confirmó que el Departamento de Defensa está activamente buscando múltiples sistemas de modelo de lenguaje grande (LLM) para su colocación en entornos propiedad del gobierno. Los trabajos de ingeniería en estos modelos ya han comenzado, y los funcionarios esperan que las nuevas herramientas estén disponibles para su uso operativo en un futuro cercano.

Este movimiento sigue a una ruptura dramática en la relación entre Anthropic y el Pentágono. El contrato de $200 millones de Anthropic con el Departamento de Defensa se derrumbó después de que las dos partes no pudieron llegar a un acuerdo sobre el alcance del acceso sin restricciones del ejército a la tecnología de IA de la empresa. Anthropic buscaba incluir una cláusula contractual que prohibiera al Pentágono utilizar su IA para la vigilancia masiva de estadounidenses o para desplegar armas que podrían disparar sin intervención humana. El Pentágono no aceptó estas condiciones, lo que llevó a la terminación del contrato.

Con Anthropic fuera del panorama, el Pentágono se ha vuelto hacia otros proveedores de IA. OpenAI ha entrado en su propio acuerdo con el Departamento de Defensa, y la agencia también ha firmado un trato con xAI de Elon Musk para integrar el modelo Grok en sistemas clasificados. Estas nuevas asociaciones subrayan la intención del Pentágono de mantener capacidades de IA avanzadas mientras evita la dependencia de Anthropic.

El secretario de Defensa Pete Hegseth ha designado a Anthropic como un riesgo de cadena de suministro, un estatus típicamente reservado para adversarios extranjeros. Esta designación prohíbe a las empresas que trabajan con el Pentágono colaborar con Anthropic. En respuesta, Anthropic está cuestionando la etiqueta de riesgo de cadena de suministro en los tribunales, buscando anular la restricción.

La estrategia del Pentágono refleja un esfuerzo más amplio para asegurarse de que sus herramientas de IA estén alojadas en entornos seguros y controlados por el gobierno, y de que la agencia retenga la autoridad operativa completa sobre la tecnología. Al desarrollar sus propios LLM y asegurar acuerdos con otras empresas de IA líderes, el Departamento de Defensa busca sortear los obstáculos legales y de política que descarrilaron su relación con Anthropic.

#Pentágono#Departamento de Defensa#Inteligencia artificial#Modelo de lenguaje grande#Anthropic#OpenAI#xAI#Grok#Riesgo de cadena de suministro#Contrato gubernamental#Política de IA

También disponible en: