El acuerdo de OpenAI con el Pentágono genera preocupaciones sobre el uso militar y la vigilancia doméstica

Puntos clave
- OpenAI firmó un nuevo contrato con el Departamento de Defensa de EE. UU. que puede permitir la vigilancia doméstica impulsada por la inteligencia artificial.
- Anthropic perdió un contrato de $200 millones del Pentágono después de negarse a apoyar el uso de armas autónomas y la vigilancia.
- OpenAI eliminó su prohibición de 2023 sobre el uso militar de sus modelos y se asoció con el contratista de defensa Anduril para fines de seguridad nacional.
- El Pentágono accedió a la tecnología de OpenAI a través de la plataforma Azure de Microsoft, evitando las restricciones de uso anteriores.
- Los expertos advierten que las regulaciones actuales no están a la par de los avances en inteligencia artificial, lo que pone en riesgo la privacidad de los ciudadanos comunes.
- Los investigadores de OpenAI dicen que el lenguaje original del contrato dejó preguntas sin respuesta sobre las capacidades de vigilancia novedosas.
- La ex jefa del equipo de geopolítica de OpenAI destaca el daño a los civiles y la opacidad como preocupaciones principales.
OpenAI ha entrado en un nuevo contrato con el Departamento de Defensa de EE. UU. que, según los críticos, deja espacio para que la tecnología se utilice en la vigilancia doméstica masiva y en armas autónomas. El acuerdo sigue a la pérdida de un contrato de $200 millones del Pentágono por parte de Anthropic después de negarse a permitir el uso de sus modelos para estos fines. Aunque OpenAI eliminó una prohibición de 2023 sobre aplicaciones militares y firmó un acuerdo con Anduril para fines de seguridad nacional, los expertos advierten que las regulaciones actuales no están a la par de los avances en inteligencia artificial, lo que pone en riesgo la privacidad de los ciudadanos comunes.
Antecedentes
Anthropic, una empresa de inteligencia artificial, fue etiquetada como un riesgo en la cadena de suministro por el secretario de Defensa Pete Hegseth y posteriormente perdió un contrato de $200 millones del Pentágono después de negarse a permitir que sus modelos se utilizaran para sistemas de armas autónomas y vigilancia doméstica masiva. Este desarrollo sentó las bases para la última participación de OpenAI con el ejército de EE. UU.
El contrato de OpenAI con el Pentágono
OpenAI firmó un nuevo acuerdo con el Departamento de Defensa que, según fuentes internas, contiene un lenguaje que podría permitir el uso de sus modelos de inteligencia artificial para la vigilancia doméstica y otros fines controvertidos. Anteriormente, en 2023, OpenAI tenía una cláusula contractual que prohibía el uso militar de sus modelos, pero los empleados han revelado que el Pentágono accedió a la tecnología de OpenAI a través de un acuerdo con Microsoft-Azure que no estaba sujeto a las mismas restricciones.
En 2024, OpenAI eliminó la prohibición total sobre aplicaciones militares de sus modelos y posteriormente firmó un contrato con el contratista de defensa Anduril para desplegar sus modelos en misiones de seguridad nacional. El CEO de OpenAI, Sam Altman, ha expresado públicamente su apoyo a la postura de Anthropic contra el uso de la inteligencia artificial para fines nefastos, sin embargo, el nuevo acuerdo parece dejar abiertas similares vías.
Lacunas regulatorias y riesgos para la privacidad
Las regulaciones actuales no han seguido el ritmo de los rápidos avances en inteligencia artificial, lo que crea oportunidades para que las agencias gubernamentales adquieran datos personales de corredores de datos y empleen la inteligencia artificial para generar perfiles detallados de los ciudadanos. Los críticos argumentan que el lenguaje del contrato no aborda las nuevas formas en que la inteligencia artificial podría permitir la vigilancia legal, lo que genera preocupaciones sobre la opacidad del uso de la inteligencia artificial militar y su impacto en la privacidad de los civiles.
Reacciones de los expertos
El investigador de OpenAI, Noam Brown, señaló que el lenguaje original del contrato dejó "preguntas legítimas sin respuesta" sobre cómo la inteligencia artificial podría usarse para la vigilancia, y que el lenguaje actualizado intenta abordar esas preocupaciones. La ex jefa del equipo de geopolítica de OpenAI, Sarah Shoker, advirtió que las personas comunes y los civiles en zonas de conflicto son los mayores perdedores, ya que la opacidad en el diseño técnico y la política obstaculiza la comprensión de los efectos de la inteligencia artificial militar.
En general, el acuerdo coloca a OpenAI bajo escrutinio similar al que enfrentó Anthropic, destacando la tensión entre los objetivos de seguridad nacional y la necesidad de salvaguardias robustas contra el mal uso de las tecnologías de inteligencia artificial.