California Promulga Ley de Transparencia de Inteligencia Artificial, Críticos Dicen que Favorece a Big Tech

Puntos clave
- El gobernador Gavin Newsom firmó la Ley de Transparencia en Inteligencia Artificial de Frontera.
- Se aplica a empresas de inteligencia artificial con ingresos anuales de al menos $500 millones.
- Requiere la publicación pública de protocolos de seguridad y el informe de incidentes críticos.
- Los incidentes críticos se definen como eventos que podrían causar 50 muertes, $1 mil millones en daños o mal uso de inteligencia artificial militarizada.
- Se centra en la divulgación, no en pruebas de seguridad obligatorias o auditorías independientes.
- Ofrece protecciones a denunciantes y sanciones civiles de hasta $1 millón por violación.
- Los críticos dicen que la ley se alinea con el enfoque regulatorio preferido por Big Tech.
El gobernador de California, Gavin Newsom, firmó la Ley de Transparencia en Inteligencia Artificial de Frontera, que requiere que las empresas de inteligencia artificial con ingresos anuales de al menos $500 millones publiquen protocolos de seguridad y reporten incidentes críticos. La ley se centra en la divulgación en lugar de pruebas de seguridad obligatorias, definiendo el riesgo catastrófico como incidentes que podrían causar 50 o más muertes, $1 mil millones en daños o mal uso de inteligencia artificial militarizada. Aunque la medida ofrece protecciones a denunciantes y sanciones civiles de hasta $1 millón por violación, observadores de la industria argumentan que no ofrece salvaguardias robustas y se alinea con el enfoque regulatorio preferido por Big Tech.
Antecedentes y Propósito Legislativo
El gobernador Gavin Newsom firmó la Ley de Transparencia en Inteligencia Artificial de Frontera, una ley estatal destinada a aumentar la apertura en torno al desarrollo de inteligencia artificial. La legislación se centra en empresas con ingresos anuales de al menos $500 millones, obligándolas a publicar protocolos de seguridad en sus sitios web y a reportar posibles incidentes críticos de seguridad a la Oficina de Servicios de Emergencia de California.
Disposiciones Clave
La ley enfatiza la divulgación en lugar de pruebas obligatorias. Las empresas deben describir cómo incorporan normas nacionales, internacionales y de consenso de la industria en su trabajo de inteligencia artificial, aunque el estatuto no especifica qué normas se aplican o requiere verificación independiente. También establece protecciones a denunciantes para empleados que plantean preocupaciones de seguridad.
Los incidentes críticos se definen de manera limitada como eventos que podrían causar 50 o más muertes, resultar en $1 mil millones en daños o involucrar inteligencia artificial militarizada, actos criminales autónomos o pérdida de control. Las violaciones de los requisitos de informe pueden incurrir en sanciones civiles de hasta $1 millón por infracción.
Comparación con Propuestas Anteriores
La nueva ley reemplaza a un proyecto de ley anterior, S.B. 1047, que habría exigido pruebas de seguridad y "interruptores de apagado" para sistemas de inteligencia artificial. El proyecto de ley anterior fue vetado después de una intensa presión por parte de las empresas tecnológicas. Al cambiar el enfoque a la informe y la transparencia, la ley actual refleja un compromiso que muchos críticos dicen que se alinea con las preferencias de las grandes empresas de inteligencia artificial.
Reacción de la Industria y Crítica
Los observadores de la industria sostienen que la dependencia de la ley en divulgaciones voluntarias carece de los dientes de ejecución necesarios para garantizar salvaguardias de seguridad reales. Señalan la omisión de pruebas obligatorias y auditorías independientes como una concesión a Big Tech, que había presionado enérgicamente en contra de medidas más estrictas.
Impacto Potencial
California alberga una parte sustancial de las principales empresas de inteligencia artificial del mundo, y sus movimientos regulatorios probablemente influirán en discusiones nacionales e internacionales más amplias sobre la gobernanza de la inteligencia artificial. Si bien la ley introduce mecanismos de informe y sanciones, su eficacia dependerá de cómo las empresas cumplan rigurosamente y de cómo las autoridades estatales hagan cumplir las disposiciones.