Especialistas Pedem Auditorias Independentes à Medida que Padrões de Segurança de IA Permanecem Indefinidos

Experts Call for Independent Audits as AI Safety Standards Remain Undefined

Pontos principais

  • Michael Kreps warns AI safety testing could become politicized without clear standards.
  • Microsoft, CAISI and NIST plan to develop adversarial assessment methods on the fly.
  • Cornell professor Gregory Falco advocates for an independent, IRS‑style AI audit system.
  • Falco argues the federal government lacks the technical capacity for direct AI evaluation.
  • An external audit framework could impose penalties, driving firms to strengthen internal testing.
  • Critics fear political manipulation of AI outputs could erode public trust.
  • Independent audits may help smaller AI developers meet safety benchmarks.

Líderes da indústria e acadêmicos alertam que, sem padrões claros, os testes de segurança de IA podem se tornar uma ferramenta política. A Microsoft, o Instituto Nacional de Padrões e Tecnologia (NIST) e a Iniciativa de Segurança de IA (CAISI) planejam desenvolver métodos de teste de forma improvisada, mas críticos argumentam que apenas um sistema de auditoria independente pode prevenir a interferência governamental e garantir a responsabilidade. O professor Gregory Falco, da Universidade Cornell, propõe um regime de auditoria rigorosamente aplicado, semelhante ao da Receita Federal, instando as empresas a adotarem verificações de segurança internas antes do lançamento.

Washington enfrenta um dilema crescente: como proteger os sistemas de inteligência artificial sem transformar a fiscalização em um exercício partidário. "Sem definir padrões, o processo pode ser politizado", alertou Michael Kreps, um analista de políticas sênior, sublinhando o risco de que "quemever detém o poder pode moldar como a verificação funciona". Tanto a administração Biden quanto a administração Trump ainda não elaboraram um caminho claro para evitar esse resultado.

Em resposta, a Microsoft anunciou uma parceria com a Iniciativa de Segurança de IA (CAISI) e o Instituto Nacional de Padrões e Tecnologia (NIST) para melhorar as metodologias para avaliações adversárias. O gigante da tecnologia comparou a iniciativa ao teste de airbags, cintos de segurança e freios, descrevendo-a como uma forma de investigar "comportamentos inesperados, caminhos de mau uso e modos de falha" em modelos de IA. A colaboração sugere uma abordagem rápida e prática para o desenvolvimento de padrões, mas deixa muitas perguntas sem resposta.

Gregory Falco, professor assistente de engenharia mecânica e aeroespacial da Universidade Cornell, argumenta que uma solução mais robusta existe. "A fiscalização governamental de IA não pode simplesmente significar revisão política de saídas de modelo, nem deve se tornar um mecanismo para decidir se um modelo diz coisas favoráveis ou desfavoráveis sobre um presidente ou administração", disse ele. Falco propõe um quadro de auditoria independente que operaria fora do controle político direto.

Ele imagina um sistema em que as empresas de IA sabem que seus modelos podem ser examinados a qualquer momento, criando "consequências reais para implantações temerárias". Ao emprestar conceitos da Receita Federal, Falco sugere que os auditores podem impor penalidades que obriguem as empresas a fortalecer os testes de segurança internos antes de lançar produtos ao público. "Isso parece ser o único caminho viável", acrescentou, observando que o governo federal carece da expertise técnica e da visão diária necessária para avaliar diretamente sistemas de IA complexos.

O apelo por um regime de auditoria chega em meio a preocupações crescentes de que as práticas de teste atuais são insuficientes. Críticos temem que, sem padrões transparentes e não partidários, as saídas de IA possam ser manipuladas para servir a narrativas políticas, erodindo a confiança pública. A iniciativa proposta pela Microsoft-CAISI-NIST, embora um passo à frente, pode não abordar os desafios de governança subjacentes.

Observadores da indústria notam que um sistema de auditoria independente também pode nivelar o campo de jogo para desenvolvedores de IA menores que carecem de recursos para realizar testes internos exhaustivos. Ao estabelecer benchmarks de conformidade claros, tal quadro incentivaria a adoção mais ampla de práticas de segurança recomendadas em todo o setor.

À medida que o debate se desenrola, formuladores de políticas, tecnólogos e acadêmicos permanecem em desacordo sobre o melhor mecanismo para garantir a segurança de IA sem comprometer a independência. Os próximos meses provavelmente verão uma intensificação do lobby para legislação que empodere um órgão de auditoria externa ou formalize a abordagem de teste colaborativa liderada pela Microsoft e seus parceiros.

#AI safety#AI audit#government oversight#Microsoft#NIST#CAISI#Gregory Falco#Cornell University#politicization#technology policy

Também disponível em: