El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados

Pentagon Plans to Train AI Models on Classified Military Data

Puntos clave

  • El Pentágono busca entrenar modelos de inteligencia artificial con datos militares clasificados para uso exclusivo.
  • El entrenamiento se llevaría a cabo en un centro de datos seguro aprobado para proyectos clasificados.
  • El Departamento de Defensa retendría la propiedad de todos los datos utilizados en el entrenamiento de modelos.
  • Se espera que OpenAI y xAI participen; Anthropic puede ser excluida.
  • Los expertos advierten que la implementación más amplia de modelos podría exponer información clasificada a personal sin la debida autorización.
  • La iniciativa apoya la estrategia de "inteligencia artificial primero" del Departamento de Defensa.
  • Es posible que se otorguen autorizaciones de seguridad a personal selecto de las empresas de inteligencia artificial para acceder al entrenamiento.

El Departamento de Defensa está preparando un plan para que empresas de inteligencia artificial entrenen versiones de sus modelos con información clasificada para uso exclusivo militar. La iniciativa se llevaría a cabo en un centro de datos seguro autorizado para proyectos clasificados, y el Pentágono retendría la propiedad de todos los datos de entrenamiento. Se espera que empresas como OpenAI y xAI participen, mientras que Anthropic puede ser excluida debido a sus restricciones de política. Los expertos advierten que el entrenamiento con datos sensibles podría exponer material clasificado a personal sin la debida autorización, lo que plantea preocupaciones de seguridad sobre la implementación más amplia de modelos dentro del establecimiento de defensa.

Antecedentes

El Departamento de Defensa de los Estados Unidos se está moviendo hacia una postura de "inteligencia artificial primero" en la guerra, como se indicó en una declaración reciente del Secretario de Defensa Pete Hegseth. El uso actual de modelos de inteligencia artificial incluye aplicaciones como Claude de Anthropic, que supuestamente ayudó en operaciones que involucraron la captura del presidente venezolano Nicolás Maduro y un ataque a Irán. Estos despliegues existentes utilizan tecnología de inteligencia artificial disponible públicamente, pero el Pentágono busca capacidades más precisas entrenando modelos con datos clasificados.

Enfoque planificado

Según la MIT Technology Review, el Departamento de Defensa tiene la intención de realizar el entrenamiento en un centro de datos seguro que esté autorizado para proyectos gubernamentales clasificados. El plan consiste en crear copias de modelos de inteligencia artificial que serán propiedad exclusiva del Pentágono, con los datos de entrenamiento permaneciendo bajo control gubernamental. En casos limitados, se puede otorgar a individuos de las empresas de inteligencia artificial las autorizaciones de seguridad necesarias para acceder al material clasificado requerido para el entrenamiento.

Riesgos potenciales

Alek Mehta, ex líder de la política de inteligencia artificial en Google y OpenAI, advirtió que el entrenamiento de modelos con datos clasificados conlleva un riesgo significativo. Si bien los modelos resultantes estarían dedicados a fines militares, existe la preocupación de que si se despliega un solo modelo en todo el Departamento de Defensa, el personal sin la autorización adecuada podría acceder inadvertidamente a información sensible incrustada en las respuestas del modelo.

Participación de la industria

Se espera que la iniciativa involucre a importantes desarrolladores de inteligencia artificial como OpenAI y xAI de Elon Musk, ambos de los cuales han firmado acuerdos recientemente con la agencia. Anthropic, un contratista gubernamental de larga data, puede no participar porque se ha negado a permitir que su tecnología se utilice para la vigilancia masiva o las armas autónomas, una postura que anteriormente llevó a una prohibición de su uso por parte de agencias federales.

Implicaciones

Si se implementa, el programa marcaría un cambio hacia la integración de herramientas de inteligencia artificial altamente especializadas en los procesos de toma de decisiones militares, lo que podría mejorar la precisión y el detalle de las respuestas en escenarios que no están documentados públicamente. Sin embargo, el enfoque también plantea preguntas sobre la seguridad de los datos, la gestión de las autorizaciones y el impacto más amplio de incrustar conocimientos clasificados en los sistemas de inteligencia artificial.

#Pentágono#Inteligencia artificial#Datos clasificados#Departamento de Defensa#OpenAI#xAI#Anthropic#Política de inteligencia artificial#Tecnología militar#Seguridad nacional

También disponible en:

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados | AI News