Autores, incluindo John Carreyrou, processam seis grandes empresas de IA por uso de livros pirateados

Pontos principais
- Escritores, liderados por John Carreyrou, processam Anthropic, Google, OpenAI, Meta, xAI e Perplexity.
- Autores alegam que as empresas de IA treinaram modelos em cópias pirateadas de seus livros.
- Um acordo anterior da Anthropic de US$ 1,5 bilhão deu a escritores elegíveis cerca de US$ 3.000 cada.
- Autores alegam que o acordo favorece as empresas de IA e não as responsabiliza.
- A ação judicial busca evitar "preços de liquidação" que extinguem reclamações de alto valor.
- O resultado pode afetar como as empresas de IA adquirem e usam dados de treinamento com direitos autorais.
Uma coalizão de escritores, liderada pelo denunciante da Theranos e autor John Carreyrou, entrou com uma ação judicial contra seis grandes empresas de inteligência artificial - Anthropic, Google, OpenAI, Meta, xAI e Perplexity. A ação alega que as empresas treinaram grandes modelos de linguagem em cópias pirateadas dos livros dos autores, violando direitos autorais. A queixa se refere a um caso de ação coletiva anterior em que um juiz decidiu que, embora o uso de material pirateado para treinar modelos possa ser legal, o ato de piratear os livros em si é ilegal. Os autores alegam que o recente acordo de US$ 1,5 bilhão da Anthropic, que oferece pagamentos modestos a escritores elegíveis, favorece as empresas de IA e não as responsabiliza.
Contexto
Um grupo de escritores, incluindo John Carreyrou - mais conhecido por expor a Theranos e autor do best-seller "Bad Blood" - lançou uma nova ação judicial contra seis empresas de IA líderes: Anthropic, Google, OpenAI, Meta, xAI e Perplexity. Os autores afirmam que essas empresas incorporaram cópias pirateadas de seus livros nos dados de treinamento para grandes modelos de linguagem, infringindo assim os direitos autorais dos autores.
Contexto Legal Anterior
A ação judicial se refere a um caso de ação coletiva anterior contra a Anthropic que alcançou um acordo de US$ 1,5 bilhão. Nesse caso, um juiz decidiu que, embora seja legal para as empresas de IA treinarem em livros pirateados, o ato de piratear os livros em si permanece ilegal. Sob o acordo, escritores elegíveis recebem aproximadamente US$ 3.000 cada, uma quantia que muitos autores consideram insuficiente, considerando a receita gerada pelos modelos de IA.
Reivindicações da Nova Ação Judicial
A queixa atual argumenta que o acordo da Anthropic e acordos semelhantes servem aos interesses das empresas de IA em vez dos criadores cujas obras foram usadas sem permissão. Os autores alegam que os montantes do acordo são "preços de liquidação" que extinguem milhares de reclamações de alto valor, efetivamente permitindo que as empresas de IA evitem a responsabilidade total pela suposta violação.
Preocupações dos Autores
Os autores envolvidos na ação judicial expressam insatisfação com a estrutura de acordo existente, afirmando que ela não responsabiliza as empresas de IA pelos benefícios comerciais derivados de seu material com direitos autorais. Eles enfatizam que o acordo parece priorizar os interesses financeiros das empresas de IA, deixando os criadores com compensação mínima pelo uso extensivo de sua propriedade intelectual nos dados de treinamento.
Impacto Potencial
Se bem-sucedida, a ação judicial pode redefinir como as empresas de IA obtêm dados de treinamento e aplicam proteções de direitos autorais. Ela também pode provocar uma reavaliação das estruturas de acordo para garantir que os criadores recebam compensação proporcional ao valor gerado pelos modelos de IA que dependem de suas obras.