Anthropic Se Opoem ao Projeto de Lei de Responsabilidade por IA do Illinois Apoiado pela OpenAI

Pontos principais
- A Anthropic se opõe publicamente ao Projeto de Lei do Senado do Illinois 3444, que protegeria laboratórios de IA de responsabilidade por danos em larga escala.
- A OpenAI apoia o projeto, argumentando que equilibra segurança com acesso continuado à tecnologia de IA.
- O projeto isentaria desenvolvedores que publicam quadros de segurança de processos judiciais, mesmo que seus modelos sejam mal utilizados.
- A Anthropic está fazendo lobby junto ao senador Bill Cunningham para promover revisões significativas ou a derrota do projeto.
- O escritório do governador JB Pritzker monitorará a legislação de IA, mas alerta contra a concessão de imunidade total.
- A Anthropic apoia um projeto de lei estadual diferente, o SB 3261, que exige planos de segurança e proteção infantil auditados por terceiros das empresas de IA.
- Especialistas em direito alertam que o SB 3444 pode minar a responsabilidade comum existente que motiva a mitigação de riscos.
A Anthropic rejeitou formalmente o Projeto de Lei do Senado do Illinois 3444, uma proposta que protegeria os desenvolvedores de IA de responsabilidade por danos em larga escala, como vítimas em massa ou perdas de propriedade de bilhões de dólares. O projeto, apoiado pelo senador estadual Bill Cunningham e pela OpenAI, isentaria laboratórios que publicam quadros de segurança de responsabilidade se seus modelos forem mal utilizados.
A Anthropic entrou no Capitólio do Illinois com uma mensagem clara: o Projeto de Lei do Senado 3444, a proposta de blindagem de responsabilidade por IA do estado, deve ser refeita ou abandonada. O projeto, que protegeria laboratórios de IA de responsabilidade civil por resultados catastróficos - como uma arma biológica que mata centenas ou danos que excedem $1 bilhão - tem o apoio da OpenAI, criadora do ChatGPT. Em uma declaração à WIRED, o chefe de relações governamentais estaduais e locais da Anthropic, Cesar Fernandez, disse que a legislação daria aos desenvolvedores um "cartão de saída da prisão" e não garantiria a segurança pública.
De acordo com fontes familiarizadas com os esforços de lobby, a Anthropic tem se reunido com o senador Bill Cunningham, autor do projeto, e outros legisladores do Illinois para promover revisões substanciais. A empresa argumenta que qualquer lei de transparência também deve incorporar mecanismos de responsabilidade que obriguem os desenvolvedores a mitigar os danos mais graves que seus sistemas de IA de fronteira possam causar. "Sabemos que o senador Cunningham se preocupa profundamente com a segurança da IA e esperamos trabalhar com ele em mudanças que combinem transparência com responsabilidade real", acrescentou Fernandez.
A OpenAI, por outro lado, defende o SB 3444 como uma abordagem equilibrada que reduz o risco de danos graves, mantendo a tecnologia acessível a empresas e consumidores em todo o estado. Em um comentário, a porta-voz da OpenAI, Liz Bourgeois, disse que a empresa tem colaborado com estados como Nova York e Califórnia para criar um "quadro regulatório harmonizado". "Na ausência de ação federal, continuaremos a trabalhar com os estados - incluindo o Illinois - para trabalhar em direção a um quadro de segurança consistente", disse ela, acrescentando que os projetos de lei estaduais poderiam informar um padrão nacional.
A discordância gira em torno de quem deve ser responsabilizado quando um sistema de IA é armado ou de outra forma mal utilizado. Sob a minuta atual, um laboratório que publica um quadro de segurança em seu site estaria isolado de processos judiciais, mesmo que um ator mal-intencionado repurposse seu modelo para resultados letais. Críticos, incluindo Thomas Woodside do Projeto de IA Segura, alertam que o projeto de lei erodiria a responsabilidade comum existente, que já incentiva as empresas a abordar riscos previsíveis.
A Anthropic também testemunhou a favor de uma proposta separada do Illinois, o Projeto de Lei do Senado 3261, que exigiria que os desenvolvedores de IA de fronteira criassem planos de segurança e proteção infantil sujeitos a auditorias de terceiros. Se aprovado, o SB 3261 poderia se tornar uma das leis de segurança de IA mais rigorosas do país.
O confronto entre os dois principais laboratórios de IA reflete uma batalha estratégica mais ampla sobre como as tecnologias emergentes são governadas. A Anthropic, fundada por ex-funcionários da OpenAI, posicionou-se como um defensor vocal de salvaguardas robustas, uma postura que atraiu críticas de administrações anteriores. O czar de IA e criptomoedas da administração Trump, David Sacks, rotulou a pressão regulatória da Anthropic como "desinformação".
O escritório do governador do Illinois, JB Pritzker, emitiu uma declaração observando que a equipe do governador monitorará a enxurrada de projetos de lei relacionados à IA que passam pela Assembleia Geral. Embora o governador não apoie um escudo de responsabilidade total, ele enfatizou que as grandes empresas de tecnologia não devem ser autorizadas a evadir responsabilidades que protegem o interesse público.
Embora os especialistas concordem que a probabilidade de o SB 3444 se tornar lei é baixa, o debate já expôs uma fissura entre dois dos principais desenvolvedores de IA do país. À medida que as duas empresas aumentam os esforços de lobby em todo o país, o resultado das batalhas legislativas do Illinois pode estabelecer um precedente para como os estados abordam a complexa questão da responsabilidade por IA.