Google Remove o Modelo Gemma do AI Studio Após Senadora Acusá-lo de Difamação

Pontos principais
- A senadora Marsha Blackburn acusou o modelo Gemma da Google de produzir declarações falsas e difamatórias sobre ela.
- A carta de Blackburn destacou uma instância específica em que o modelo fabricou alegações de conduta sexual inadequada.
- A Google afirmou que o Gemma foi destinado ao uso de desenvolvedores, não para consultas públicas diretas.
- A empresa removeu o Gemma do AI Studio, mas o manterá disponível por meio de sua API.
- A Google reconheceu as alucinações como um problema conhecido e disse que está trabalhando para reduzi-las.
- O incidente se liga a preocupações políticas mais amplas sobre viés de IA e alegações de difamação.
A Google tirou o modelo de código aberto Gemma offline da plataforma AI Studio após uma reclamação da senadora dos EUA Marsha Blackburn. A senadora alegou que o modelo gerou declarações falsas alegando conduta sexual inadequada contra ela, descrevendo a saída como difamatória e não como uma alucinação inofensiva. A Google respondeu que o modelo era destinado ao uso de desenvolvedores, não para consultas públicas diretas, e disse que manteria o modelo disponível por meio de sua API enquanto trabalhava para reduzir saídas errôneas. O episódio destaca preocupações políticas contínuas sobre viés de IA e desinformação.
Fundo
A senadora dos EUA Marsha Blackburn enviou uma carta ao CEO da Google, Sundar Pichai, alegando que o modelo Gemma da empresa, acessível por meio do ambiente de desenvolvimento AI Studio, produziu declarações falsas sobre sua conduta pessoal. Na carta, Blackburn afirmou que, quando questionada sobre acusações de estupro, o modelo fabricou uma narrativa envolvendo um policial estadual e atos não consensuais alegados, que ela descreveu como completamente falsos. A senadora também referenciou uma ação judicial separada movida pelo ativista conservador Robby Starbuck, que alega que os sistemas de IA da Google geraram alegações difamatórias sobre ele.
Blackburn enquadrou a saída do modelo como mais do que uma típica "alucinação" - um termo comumente usado para descrever imprecisões geradas por IA - argumentando que as declarações falsas constituem difamação distribuída por um sistema de propriedade da Google. Ela vinculou o incidente a preocupações mais amplas sobre viés percebido contra figuras conservadoras em tecnologias de IA.
Resposta da Google
A Google reconheceu a questão, observando que o Gemma foi projetado como um modelo leve e de código aberto para que os desenvolvedores o integrassem em seus próprios aplicativos, e não como um chatbot voltado para o consumidor. A empresa explicou que relatos de não desenvolvedores usando o AI Studio para fazer perguntas factuais levaram à decisão de remover o Gemma da plataforma. A Google enfatizou que o modelo permaneceria acessível por meio de sua interface de programação de aplicativos (API) para fins de desenvolvimento legítimos.
Em resposta às alegações da senadora, o vice-presidente de assuntos governamentais e políticas públicas da Google reiterou que as alucinações são um desafio conhecido em grandes modelos de linguagem e que a empresa está ativamente trabalhando para mitigar esses erros. A firma esclareceu que nunca teve a intenção de que o modelo fosse usado como uma ferramenta de perguntas e respostas públicas, reforçando seu compromisso com o deploy responsável de tecnologias de IA.
A remoção do Gemma do AI Studio destaca a tensão entre a inovação rápida de IA e a demanda por responsabilidade, especialmente quando figuras políticas alegam que as saídas de IA causaram danos à reputação. O episódio adiciona aos debates contínuos sobre como as empresas de tecnologia devem abordar conteúdo errôneo ou potencialmente difamatório gerado por seus modelos, e como os órgãos reguladores podem supervisionar essas questões.