Cinco laboratorios de inteligencia artificial de frontera acuerdan revisiones voluntarias de modelos previos a su lanzamiento con el gobierno de EE. UU.

Five Frontier AI Labs Agree to Voluntary Pre‑Release Model Reviews by U.S. Government

Puntos clave

  • Google, Microsoft, xAI, OpenAI and Anthropic now give the U.S. Commerce Department pre‑release access to their newest AI models.
  • The Center for AI Standards and Innovation, part of NIST, conducts the evaluations with a staff of fewer than 200.
  • Agreements are voluntary; companies can withdraw at any time and the center cannot block model releases.
  • The expansion follows the Mythos crisis, where Anthropic’s model exposed thousands of zero‑day vulnerabilities.
  • Critics warn the program lacks subpoena power and depends on companies’ goodwill, leaving a regulatory gap.
  • International pressure, especially from the EU, could drive separate oversight regimes if U.S. oversight remains voluntary.
  • The Trump administration is considering an executive order that could grant the center statutory authority.

Google, Microsoft, xAI, OpenAI y Anthropic han aceptado dar al Departamento de Comercio de EE. UU. acceso previo a sus modelos más nuevos. El acuerdo voluntario, creado por un equipo de menos de 200 personas, proporciona la aproximación más cercana que tiene EE. UU. a un sistema de supervisión de inteligencia artificial, aunque no tiene autoridad legal y no puede bloquear despliegues. La expansión sigue a la llamada crisis de Mythos, que destacó la necesidad de una revisión gubernamental temprana de capacidades de inteligencia artificial poderosas.

El Departamento de Comercio de EE. UU. anunció el martes que Google, Microsoft y xAI de Elon Musk se han unido a OpenAI y Anthropic para otorgar a la agencia acceso previo a sus modelos de inteligencia artificial más recientes. El movimiento expande un programa de evaluación voluntaria que ahora cubre a las cinco empresas responsables de la mayor parte del desarrollo de inteligencia artificial de frontera en todo el mundo.

El Centro de Estándares y Innovación de Inteligencia Artificial, ubicado dentro del Instituto Nacional de Estándares y Tecnología, coordina las revisiones. Establecido bajo el presidente Biden en 2023 como el Instituto de Seguridad de Inteligencia Artificial y posteriormente renombrado por la administración Trump, el centro ha completado más de 40 evaluaciones de sistemas de vanguardia que nunca han sido lanzados al público. Los evaluadores reciben versiones simplificadas de los modelos para que puedan probar capacidades que podrían amenazar la seguridad nacional, como la planificación de ataques cibernéticos automatizados o la síntesis de armas biológicas.

A diferencia de los esquemas regulatorios formales, los acuerdos no son contratos. Las empresas pueden retirarse en cualquier momento, y el centro no tiene poder para detener el despliegue de un modelo. Su influencia se basa en la presión reputacional y la perspectiva de futura legislación que podría imponer revisiones obligatorias. El marco voluntario surgió después de la crisis de Mythos, cuando el modelo de vanguardia de Anthropic demostró la capacidad de descubrir vulnerabilidades de día cero en sistemas operativos y navegadores principales, lo que generó alarmas en la Casa Blanca y el Pentágono.

El modelo Mythos de Anthropic, presentado en abril, desencadenó un debate sobre si el gobierno debería tener un mecanismo formal para evaluar los sistemas de inteligencia artificial antes de que lleguen al mercado. Las evaluaciones tempranas del centro de capacidades de nivel Mythos informaron decisiones de política, pero solo dos empresas, OpenAI y Anthropic, habían estado sujetas a revisión hasta ahora. Los modelos Gemini de Google, Azure AI de Microsoft y Grok de xAI ahora serán sometidos a la misma revisión, cerrando una brecha que podría haber dejado sin supervisión el próximo sistema de alto riesgo.

Los críticos señalan la debilidad estructural del programa: la participación es completamente voluntaria, y el centro carece de poder de citación o la capacidad de imponer injunciones. Si un laboratorio determina que su modelo no supone un peligro, o simplemente prefiere evitar la supervisión gubernamental, podría lanzar el sistema sin supervisión adicional. La preferencia de la administración por una regulación de ligero toque significa que la amenaza de legislación obligatoria sigue siendo incierta.

La presión internacional agrega otra capa de complejidad. Los ministros de finanzas europeos han señalado las implicaciones de ciberseguridad de modelos como Mythos para la estabilidad financiera, mientras que la UE ha exigido acceso a dichas herramientas para sus propias necesidades de ciberdefensa. Sin un mecanismo de supervisión claro de EE. UU., los reguladores extranjeros pueden imponer sus propios requisitos, lo que podría fragmentar el mercado global de inteligencia artificial.

Se informa que el equipo del presidente Trump está considerando una orden ejecutiva que formalizaría el proceso de revisión, otorgando al centro autoridad legal y posiblemente el poder de retrasar o condicionar despliegues. La orden tendría como objetivo equilibrar la innovación rápida de inteligencia artificial, la competitividad de EE. UU. con China y las preocupaciones de seguridad nacional, un equilibrio delicado que el programa voluntario actual solo aborda parcialmente.

Por ahora, los cinco laboratorios mantienen una ventana estrecha abierta para los evaluadores gubernamentales. Si esa ventana se expande en una puerta depende de la acción legislativa futura y la aparición de otro modelo con capacidades comparables a Mythos.

#AI oversight#U.S. government#NIST#frontier AI#OpenAI#Anthropic#Google AI#Microsoft AI#xAI#Mythos crisis#AI safety#national security#AI regulation

También disponible en:

Cinco laboratorios de inteligencia artificial de frontera acuerdan revisiones voluntarias de modelos previos a su lanzamiento con el gobierno de EE. UU. | AI News