Senador de California Scott Wiener impulsa proyecto de ley de seguridad de IA SB 53 en medio del debate industrial

Puntos clave
- El senador Scott Wiener presenta SB 53 para requerir informes de seguridad de las empresas de IA con ingresos de más de $500 millones.
- El proyecto de ley se centra en los riesgos catastróficos de la IA: muertes humanas, ataques cibernéticos a gran escala, creación de armas químicas.
- Anthropic respalda públicamente SB 53; Meta y el ex asesor de la Casa Blanca también expresan su apoyo.
- OpenAI y algunos grupos de la industria argumentan a favor de la regulación solo a nivel federal y plantean preocupaciones constitucionales.
- SB 53 crea canales de denuncia protegidos para los empleados y propone un clúster de computación en la nube estatal, CalCompute.
- El gobernador Gavin Newsom debe decidir si firmar o vetar el proyecto de ley después de vetar previamente SB 1047.
El senador de California Scott Wiener promueve un nuevo proyecto de ley de seguridad de IA, SB 53, después de que su propuesta anterior, SB 1047, fuera vetada por el gobernador Gavin Newsom. La legislación requiere que las principales empresas de IA que ganen más de $500 millones publiquen informes de seguridad sobre sus modelos más avanzados y establezcan canales protegidos para las preocupaciones de los empleados.
Antecedentes y historia legislativa
El senador estatal de California Scott Wiener ha perseguido durante mucho tiempo la regulación de la seguridad de la IA. En 2024, presentó SB 1047, un proyecto de ley que habría hecho que las empresas de tecnología fueran responsables de los daños causados por los sistemas de IA. El gobernador Gavin Newsom vetó SB 1047, citando preocupaciones de que la legislación podría frenar el auge de la IA en el estado.
Nueva propuesta: SB 53
El esfuerzo más reciente de Wiener, SB 53, ahora espera la decisión del gobernador. El proyecto de ley se centra en los desarrolladores de IA más grandes, aquellos que generan más de $500 millones en ingresos, y les requiere que publiquen informes de seguridad para sus modelos más capaces. Los informes deben abordar los riesgos más catastróficos, incluido el potencial de que la IA cause muertes humanas, permita ataques cibernéticos masivos o facilite la creación de armas químicas.
Además de los requisitos de informes, SB 53 crea canales protegidos para que los empleados de laboratorios de IA informen preocupaciones de seguridad directamente a funcionarios del gobierno. También establece un clúster de computación en la nube operado por el estado, llamado CalCompute, destinado a proporcionar recursos de investigación de IA que sean independientes de la infraestructura de Big Tech.
Reacciones de la industria
Anthropic ha respaldado públicamente SB 53, describiendo la legislación como un paso constructivo hacia el desarrollo responsable de la IA. Un portavoz de Meta expresó su apoyo a la regulación de la IA que equilibre la seguridad con la innovación, calificando a SB 53 de "un paso en esa dirección". El ex asesor de política de IA de la Casa Blanca, Dean Ball, elogió el proyecto de ley como "una victoria para las voces razonables".
OpenAI, sin embargo, argumentó que los laboratorios de IA solo deben estar sujetos a normas federales, sugiriendo que los requisitos a nivel estatal podrían crear un mosaico de regulaciones. Andreessen Horowitz planteó preocupaciones de que algunos proyectos de ley de IA estatales podrían violar la Cláusula de Comercio Dormante de la Constitución, que limita a los estados a restringir indebidamente el comercio interestatal.
Contexto de política y dinámica política
Wiener ha expresado escepticismo sobre la capacidad del gobierno federal para promulgar medidas de seguridad de IA significativas, afirmando que los estados necesitan actuar cuando la acción federal se estanca. También criticó los esfuerzos federales recientes que buscan bloquear las leyes de IA estatales, describiéndolos como favorables a los intereses de la industria.
El trasfondo político incluye debates sobre si la regulación de la IA debe manejarse a nivel federal o dejarse a estados como California. Mientras que algunos líderes de la industria abogan por un enfoque federal uniforme, otros ven las iniciativas estatales como SB 53 como esenciales para garantizar la transparencia y la rendición de cuentas en el desarrollo de la IA.
Impacto potencial
Si se firma, SB 53 sería una de las primeras leyes estatales en imponer informes de seguridad estructurados a gigantes de la IA como OpenAI, Anthropic, xAI y Google. Al centrarse en los riesgos más graves y proporcionar mecanismos para que los empleados denuncien, el proyecto de ley busca mejorar la seguridad pública sin obstaculizar indebidamente la innovación. Su aprobación también podría sentar un precedente para que otros estados consideren medidas de supervisión de IA similares.