Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse

Experts Call for Independent Audits as AI Safety Standards Remain Undefined

Puntos clave

  • Michael Kreps warns AI safety testing could become politicized without clear standards.
  • Microsoft, CAISI and NIST plan to develop adversarial assessment methods on the fly.
  • Cornell professor Gregory Falco advocates for an independent, IRS‑style AI audit system.
  • Falco argues the federal government lacks the technical capacity for direct AI evaluation.
  • An external audit framework could impose penalties, driving firms to strengthen internal testing.
  • Critics fear political manipulation of AI outputs could erode public trust.
  • Independent audits may help smaller AI developers meet safety benchmarks.

Líderes de la industria y académicos advierten que sin normas claras, las pruebas de seguridad de la IA podrían convertirse en una herramienta política. Microsoft, el Instituto Nacional de Estándares y Tecnología (NIST) y la Iniciativa de Seguridad de la IA (CAISI) planean desarrollar métodos de prueba sobre la marcha, pero los críticos argumentan que solo un sistema de auditoría independiente puede prevenir el exceso de poder gubernamental y garantizar la rendición de cuentas. El profesor de la Universidad de Cornell, Gregory Falco, propone un régimen de auditoría rigurosamente aplicado similar al de la IRS, instando a las empresas a adoptar controles de seguridad internos antes de la implementación.

Washington se enfrenta a un creciente dilema: cómo salvaguardar los sistemas de inteligencia artificial sin convertir la supervisión en un ejercicio partidista. "Sin definir normas, el proceso puede politizarse", advirtió Michael Kreps, un analista de políticas senior, subrayando el riesgo de que "quien tenga el poder pueda dar forma a cómo funciona la verificación". Tanto las administraciones de Biden como de Trump aún no han diseñado un camino claro para evitar ese resultado.

En respuesta, Microsoft anunció una asociación con la Iniciativa de Seguridad de la IA (CAISI) y el Instituto Nacional de Estándares y Tecnología (NIST) para mejorar las metodologías para evaluaciones adversas. El gigante tecnológico comparó el esfuerzo con las pruebas de choque de los airbags, los cinturones de seguridad y los frenos, describiéndolo como una forma de probar "comportamientos inesperados, vías de uso indebido y modos de falla" en los modelos de IA. La colaboración sugiere un enfoque rápido y sobre el terreno para el desarrollo de normas, pero deja muchas preguntas sin respuesta.

Gregory Falco, profesor asistente de ingeniería mecánica y aeroespacial en la Universidad de Cornell, argumenta que existe una solución más robusta. "La supervisión gubernamental de la IA no puede significar simplemente una revisión política de las salidas del modelo, ni debe convertirse en un mecanismo para decidir si un modelo dice cosas favorables o desfavorables sobre un presidente o administración", dijo. Falco propone un marco de auditoría independiente que operaría fuera del control político directo.

Él imagina un sistema en el que las empresas de IA saben que sus modelos podrían ser examinados en cualquier momento, creando "consecuencias reales para implementaciones imprudentes". Al tomar conceptos de la Administración de la Rentas Internas, Falco sugiere que los auditores podrían imponer sanciones que obliguen a las empresas a fortalecer las pruebas de seguridad internas antes de lanzar productos al público. "Eso parece ser el único camino viable", agregó, señalando que el gobierno federal carece de la expertise técnica y la visión diaria necesarias para evaluar directamente los complejos sistemas de IA.

La llamada a un régimen de auditoría llega en medio de crecientes preocupaciones de que las prácticas de prueba actuales son insuficientes. Los críticos temen que sin normas transparentes y no partidistas, las salidas de la IA podrían ser manipuladas para servir a narrativas políticas, erosionando la confianza pública. El esfuerzo propuesto por Microsoft-CAISI-NIST, aunque es un paso adelante, puede no abordar los desafíos subyacentes de gobernanza.

Los observadores de la industria señalan que un sistema de auditoría independiente también podría nivelar el campo de juego para los desarrolladores de IA más pequeños que carecen de recursos para realizar pruebas internas exhaustivas. Al establecer estándares de cumplimiento claros, dicho marco fomentaría la adopción más amplia de las mejores prácticas de seguridad en todo el sector.

A medida que se desarrolla el debate, los formuladores de políticas, tecnólogos y académicos siguen en desacuerdo sobre el mejor mecanismo para garantizar la seguridad de la IA sin comprometer la independencia. Los próximos meses probablemente verán un aumento en la presión para legislación que either empodere a un cuerpo de auditoría externa o formalice el enfoque de prueba colaborativa liderado por Microsoft y sus socios.

#AI safety#AI audit#government oversight#Microsoft#NIST#CAISI#Gregory Falco#Cornell University#politicization#technology policy

También disponible en:

Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse | AI News