Anthropic Concorda com um Acordo de $1,5 Bilhão por Baixar Livros Piratas para Treinar IA

Anthropic concordou em pagar $1,5 bilhão para resolver um processo movido por autores e editores sobre o uso de milhões de livros protegidos por direitos autorais para treinar os modelos de seu chatbot de IA, Claude, de acordo com um arquivo legal publicado online.

Um juiz federal decidiu em junho que o uso de 7 milhões de livros piratas pela Anthropic estava protegido sob uso justo, mas que manter as obras digitais em uma “biblioteca central” violava a lei de direitos autorais. O juiz decidiu que os executivos da empresa sabiam que estavam baixando obras piratas, e um julgamento estava agendado para dezembro.

O acordo, que foi apresentado a um juiz federal na sexta-feira, ainda precisa de aprovação final, mas pagaria $3.000 por livro a centenas de milhares de autores, de acordo com o New York Times. O acordo de $1,5 bilhão seria o maior pagamento na história da lei de direitos autorais dos EUA, embora o valor pago por obra tenha sido frequentemente maior. Por exemplo, em 2012, uma mulher em Minnesota pagou cerca de $9.000 por canção baixada, um valor reduzido após ser inicialmente ordenada a pagar mais de $60.000 por canção.

Em uma declaração ao Gizmodo na sexta-feira, a Anthropic elogiou a decisão anterior de junho de que estava se envolvendo em uso justo ao treinar modelos com milhões de livros.

“Em junho, o Tribunal de Distrito emitiu uma decisão histórica sobre o desenvolvimento de IA e a lei de direitos autorais, constatando que a abordagem da Anthropic para treinar modelos de IA constitui uso justo”, disse Aparna Sridhar, conselheira jurídica adjunta da Anthropic, em uma declaração por e-mail.

“O acordo de hoje, se aprovado, resolverá as reivindicações de legado restantes dos demandantes. Continuamos comprometidos em desenvolver sistemas de IA seguros que ajudem pessoas e organizações a expandir suas capacidades, avançar na descoberta científica e resolver problemas complexos”, continuou Sridhar.

De acordo com o arquivo legal, a Anthropic diz que os pagamentos serão feitos em quatro parcelas ligadas a marcos aprovados pelo tribunal. O primeiro pagamento seria de $300 milhões dentro de cinco dias após a aprovação preliminar do acordo, e outro $300 milhões dentro de cinco dias da ordem de aprovação final. Então, $450 milhões estariam devidos, com juros, dentro de 12 meses da ordem preliminar. E finalmente, $450 milhões dentro do ano seguinte.

A Anthropic, que foi recentemente avaliada em $183 bilhões, ainda enfrenta processos de empresas como o Reddit, que firmou um acordo no início de 2024 para permitir que o Google treine seus modelos de IA com o conteúdo da plataforma. E autores ainda têm processos ativos contra outras grandes empresas de tecnologia como OpenAI, Microsoft e Meta.

A decisão de junho explicou que o treinamento de modelos de IA pela Anthropic com livros protegidos por direitos autorais seria considerado uso justo sob a lei de direitos autorais dos EUA porque, teoricamente, alguém poderia ler “todos os clássicos modernos” e emulá-los, o que seria protegido:

…não reproduzidos para o público os elementos criativos de uma determinada obra, nem mesmo o estilo expressivo identificável de um autor… Sim, Claude produziu gramática, composição e estilo que o LLM subjacente destilou de milhares de obras. Mas se alguém lesse todos os clássicos modernos por causa de sua expressão excepcional, os memorizar-se e, em seguida, emulasse uma mistura de suas melhores escritas, isso violaria a Lei de Direitos Autorais? Claro que não.

“Como qualquer leitor aspirando a ser um escritor, os LLMs da Anthropic foram treinados em obras não para correr à frente e replicá-las ou suplantá-las – mas para dar uma volta e criar algo diferente”, disse a decisão.

Sob essa teoria legal, tudo o que a empresa precisava fazer era comprar todos os livros que pirateou para treinar legalmente seus modelos, algo que certamente custa menos de $3.000 por livro. Mas como o New York Times observa, esse acordo não estabelecerá nenhum precedente legal que possa determinar casos futuros porque não irá a julgamento.

Fonte

Compartilhe esse conteúdo: