Califórnia Promulga Lei de Transparência em Inteligência Artificial, Críticos Dizem que Ela Favorece o Big Tech

Pontos principais
- O governador Gavin Newsom assinou a Lei de Transparência em Inteligência Artificial de Fronteira.
- Aplica-se a empresas de IA com receitas anuais de pelo menos $500 milhões.
- Exige a publicação pública de protocolos de segurança e o relato de incidentes críticos.
- Incidentes críticos são definidos como potencialmente causando 50 mortes, $1 bilhão em danos ou uso indevido de IA.
- Se concentra na divulgação, não em testes de segurança obrigatórios ou auditorias independentes.
- Fornece proteção a denunciantes e penalidades civis de até $1 milhão por violação.
- Críticos dizem que a lei se alinha com a abordagem regulatória preferida do Big Tech.
O governador da Califórnia, Gavin Newsom, assinou a Lei de Transparência em Inteligência Artificial de Fronteira, que exige que empresas de IA com receitas anuais de pelo menos $500 milhões publiquem protocolos de segurança e relatem incidentes críticos. A lei se concentra na divulgação em vez de testes de segurança obrigatórios, definindo risco catastrófico como incidentes que poderiam causar 50 ou mais mortes, $1 bilhão em danos ou uso indevido de IA armada. Embora a medida ofereça proteção a denunciantes e penalidades civis de até $1 milhão por violação, observadores da indústria argumentam que ela não vai longe o suficiente em termos de salvaguardas robustas e se alinha com a abordagem regulatória preferida do Big Tech.
Contexto e Intenção Legislativa
O governador Gavin Newsom assinou a Lei de Transparência em Inteligência Artificial de Fronteira, uma lei estadual destinada a aumentar a transparência em torno do desenvolvimento de IA. A legislação visa empresas com receitas anuais de pelo menos $500 milhões, obrigando-as a publicar protocolos de segurança em seus sites e a relatar incidentes de segurança críticos potenciais ao Escritório de Serviços de Emergência da Califórnia.
Disposições Chave
A lei enfatiza a divulgação em vez de testes obrigatórios. As empresas devem descrever como incorporam padrões nacionais, internacionais e de consenso da indústria em seu trabalho de IA, embora a lei não especifique quais padrões se aplicam ou exija verificação independente. Ela também estabelece proteção a denunciantes para funcionários que levantam questões de segurança.
Incidentes críticos são definidos de forma restrita como eventos que poderiam causar 50 ou mais mortes, resultar em $1 bilhão em danos ou envolver IA armada, atos criminosos autônomos ou perda de controle. Violações dos requisitos de relatórios podem incorrer em penalidades civis de até $1 milhão por infração.
Comparação com Propostas Anteriores
A nova lei substitui uma proposta anterior, S.B. 1047, que teria exigido testes de segurança e "interruptores de desligamento" para sistemas de IA. A proposta anterior foi vetada após intensa pressão de empresas de tecnologia. Ao mudar o foco para relatórios e transparência, a lei atual reflete um compromisso que muitos críticos dizem que se alinha com as preferências de grandes empresas de IA.
Reação da Indústria e Crítica
Observadores da indústria argumentam que a dependência da lei em divulgações voluntárias carece de mecanismos de aplicação necessários para garantir salvaguardas de segurança reais. Eles apontam a omissão de testes obrigatórios e auditorias independentes como uma concessão ao Big Tech, que havia feito lobby intensivo contra medidas mais rigorosas.
Impacto Potencial
A Califórnia abriga uma parte substancial das principais empresas de IA do mundo, e suas movidas regulatórias provavelmente influenciarão discussões mais amplas nacionais e internacionais sobre governança de IA. Embora a lei introduza mecanismos de relatórios e penalidades, sua eficácia dependerá de como as empresas cumprem rigorosamente e de como as autoridades estaduais aplicam as disposições.