El proyecto de ley SB 53 de California sobre seguridad de IA apunta a grandes empresas de IA

Puntos clave
- El SB 53 se centra en los desarrolladores de IA con ingresos anuales superiores a $500 millones.
- Requiere la publicación de informes de seguridad y la notificación de incidentes al estado.
- Crea un canal protegido para las preocupaciones de seguridad de los empleados.
- Excluye a la mayoría de las startups más pequeñas, limitando los informes extensos a las grandes empresas.
- Recibió el respaldo de la empresa de IA Anthropic y se elogia como un control significativo sobre los grandes laboratorios de IA.
- Refleja el impulso de California para la seguridad de la IA en medio de una postura federal menos regulatoria.
- Se presentó en el pódcast Equity de TechCrunch, destacando su relevancia para la industria.
El Senado de California ha aprobado el proyecto de ley SB 53, que se enviará al gobernador Gavin Newsom para su firma. La legislación se centra en los desarrolladores de IA que ganan más de $500 millones al año, y les exige publicar informes de seguridad y reportar incidentes al estado. También crea un canal protegido para las preocupaciones de los empleados. Los partidarios citan el proyecto de ley como un control significativo sobre las grandes empresas de IA, como OpenAI y Google DeepMind, y señalan que las startups más pequeñas están en gran medida exentas.
Antecedentes
El Senado estatal de California recientemente dio su aprobación final al proyecto de ley SB 53, que ahora se dirigirá al gobernador Gavin Newsom para su acción final. La legislación sigue un esfuerzo anterior del senador Scott Wiener que fue vetado el año pasado, pero el SB 53 limita su enfoque a los desarrolladores de IA más grandes, específicamente aquellos que generan más de $500 millones en ingresos anuales.
Disposiciones clave
El SB 53 requiere que las empresas de IA que califiquen publiquen informes de seguridad para sus modelos y reporten cualquier incidente al gobierno estatal. También establece un canal confidencial para que los empleados puedan expresar sus preocupaciones de seguridad sin temor a represalias, abordando el desafío de los acuerdos de no divulgación que a menudo limitan la denuncia interna.
El proyecto de ley excluye deliberadamente a la mayoría de las startups más pequeñas, limitando los requisitos de informes extensos a los principales actores como OpenAI y Google DeepMind. Las empresas más pequeñas deben compartir información de seguridad limitada, pero no están sujetas al régimen de informes completo.
Reacción de la industria
El proyecto de ley ha recibido el respaldo de la empresa de IA Anthropic, que ve el enfoque dirigido como una forma equilibrada de garantizar la seguridad sin sofocar la innovación entre las empresas más pequeñas. Los partidarios argumentan que la legislación proporciona uno de los pocos controles prácticos sobre el creciente poder de las grandes empresas de IA.
Los críticos señalan que, si bien el proyecto de ley pretende proteger el ecosistema de startups, las exclusiones y las obligaciones de informes aún podrían plantear desafíos de cumplimiento para los laboratorios de IA más grandes.
Contexto político
El SB 53 surge en una conversación nacional más amplia sobre la regulación de la IA. Si bien la administración federal ha señalado un enfoque de no intervención, incluyendo lenguaje en los proyectos de ley de financiación que podría limitar la regulación de la IA a nivel estatal, no se han promulgado medidas de este tipo hasta ahora. El proyecto de ley de California representa, por lo tanto, un esfuerzo a nivel estatal para abordar las preocupaciones de seguridad de la IA en medio de filosofías regulatorias federales y estatales diferentes.
TechCrunch destacó el proyecto de ley en su pódcast insignia, Equity, discutiendo su posible impacto con los presentadores Max Zeff y Kirsten Korosec. La conversación subrayó la importancia de California como centro de actividad de IA y la importancia de una regulación dirigida que equilibre la seguridad con la innovación.