Senador da Califórnia Scott Wiener Apoia Projeto de Lei de Segurança de IA SB 53 em Meio a Debate da Indústria

Pontos principais
- O senador Scott Wiener apresenta o SB 53 para exigir relatórios de segurança de empresas de IA com receita superior a $500 milhões.
- O projeto visa riscos catastróficos de IA: mortes humanas, ataques cibernéticos em larga escala, criação de armas químicas.
- A Anthropic apoia publicamente o SB 53; a Meta e o ex-conselheiro da Casa Branca também expressam apoio.
- A OpenAI e alguns grupos da indústria argumentam que a regulamentação deve ser feita apenas no nível federal e levantam preocupações constitucionais.
- O SB 53 cria canais protegidos para denúncias de funcionários e propõe um cluster de computação em nuvem operado pelo estado, o CalCompute.
- O governador Gavin Newsom deve decidir se assina ou veta o projeto após ter vetado anteriormente o SB 1047.
O senador da Califórnia, Scott Wiener, está defendendo um novo projeto de lei de segurança de IA, o SB 53, após sua proposta anterior, o SB 1047, ter sido vetado pelo governador Gavin Newsom. A legislação exigiria que grandes empresas de IA que ganham mais de $500 milhões publiquem relatórios de segurança sobre seus modelos mais avançados e estabelecessem canais protegidos para denúncias de funcionários. A Anthropic apoia o projeto, enquanto a OpenAI e alguns grupos da indústria argumentam que os padrões federais devem ser aplicados.
Contexto e Histórico Legislativo
O senador do estado da Califórnia, Scott Wiener, há muito tempo busca regulamentar a segurança da IA. Em 2024, ele apresentou o SB 1047, um projeto que tornaria as empresas de tecnologia responsáveis por danos causados por sistemas de IA. O governador Gavin Newsom vetou o SB 1047, citando preocupações de que a legislação pudesse sufocar o boom de IA no estado.
Nova Proposta: SB 53
A última tentativa de Wiener, o SB 53, agora aguarda a decisão do governador. O projeto concentra-se nos maiores desenvolvedores de IA - aqueles que geram mais de $500 milhões em receita - e exige que publiquem relatórios de segurança para seus modelos mais capazes. Os relatórios devem abordar os riscos mais catastróficos, incluindo o potencial de a IA causar mortes humanas, permitir ataques cibernéticos em larga escala ou facilitar a criação de armas químicas.
Além das exigências de relatórios, o SB 53 cria canais protegidos para que os funcionários dos laboratórios de IA denunciem preocupações de segurança diretamente aos funcionários do governo. Ele também estabelece um cluster de computação em nuvem operado pelo estado, chamado CalCompute, destinado a fornecer recursos de pesquisa de IA independentes da infraestrutura de grandes empresas de tecnologia.
Reações da Indústria
A Anthropic apoia publicamente o SB 53, descrevendo a legislação como um passo construtivo em direção ao desenvolvimento responsável de IA. Um porta-voz da Meta expressou apoio à regulamentação de IA que equilibre segurança e inovação, chamando o SB 53 de "um passo nessa direção". O ex-conselheiro de política de IA da Casa Branca, Dean Ball, elogiou o projeto como "uma vitória para vozes razoáveis".
No entanto, a OpenAI argumentou que os laboratórios de IA devem estar sujeitos apenas a padrões federais, sugerindo que os requisitos estaduais podem criar um patchwork de regulamentações. A Andreessen Horowitz levantou preocupações de que certos projetos de lei de IA estaduais possam violar a Cláusula de Comércio Dormante da Constituição, que limita os estados a restringir indevidamente o comércio interestadual.
Contexto Político e Dinâmica
Wiener expressou ceticismo sobre a capacidade do governo federal de promulgar medidas de segurança de IA significativas, afirmando que os estados precisam agir quando a ação federal estagna. Ele também criticou esforços federais recentes que visam bloquear leis de IA estaduais, descrevendo-os como favoráveis aos interesses da indústria.
O cenário político inclui debates sobre se a regulamentação de IA deve ser tratada no nível federal ou deixada para estados como a Califórnia. Embora alguns líderes da indústria defendam uma abordagem federal uniforme, outros veem iniciativas estaduais como o SB 53 como essenciais para garantir transparência e responsabilidade no desenvolvimento de IA.
Impacto Potencial
Se aprovado, o SB 53 seria uma das primeiras leis estaduais a impor relatórios de segurança estruturados sobre gigantes de IA, como a OpenAI, a Anthropic, a xAI e o Google. Ao se concentrar nos riscos mais graves e fornecer mecanismos para denúncias de funcionários, o projeto visa melhorar a segurança pública sem prejudicar indevidamente a inovação. Sua aprovação também poderia estabelecer um precedente para outros estados que consideram medidas semelhantes de supervisão de IA.