Anthropic chega a um acordo com editores de música sobre disputa de letras

A Anthropic fez um acordo para resolver partes de um processo de violação de direitos autorais movido contra a fabricante do modelo de IA Claude, por supostamente distribuir letras de músicas protegidas. O acordo foi assinado pela juíza do tribunal distrital dos EUA, Eumi Lee, na quinta-feira, exigindo que a Anthropic aplique barreiras existentes no treinamento de futuros modelos de IA e estabeleça um procedimento para que os editores de música intervenham quando a violação de direitos autorais for suspeita.

Em outubro de 2023, vários editores de música, incluindo Universal Music Group, ABKCO, Concord Music Group e Greg Nelson Music, processaram a Anthropic por supostamente treinar seu sistema de IA com letras de pelo menos 500 músicas protegidas. De acordo com a queixa, quando Claude foi solicitado a fornecer as letras de músicas como “Halo” de Beyoncé, “Uptown Funk” de Mark Ronson e “Moves like Jagger” do Maroon 5, o chatbot forneceu respostas “que contêm todas ou partes significativas dessas letras”.

Enquanto os editores de música reconheceram que plataformas como Genius já distribuem letras online, eles notaram que esses sites pagam uma taxa de licenciamento para usar as obras protegidas. A Anthropic “intencionalmente removeu ou alterou informações de gerenciamento de direitos autorais” das músicas afetadas ao ingerir dados encontrados nesses sites para treinar seus modelos de IA, de acordo com a apresentação do processo.

Sob o acordo assinado pela Anthropic na quinta-feira, a empresa de IA afirma que manterá as barreiras que já implementou para evitar que seus modelos de IA infrinjam conteúdos protegidos por direitos autorais. A Anthropic também aplicará suas barreiras existentes a quaisquer futuros sistemas de IA que desenvolver. Os editores de música e a Anthropic trabalharão juntos de “boa fé” para resolver quaisquer casos em que as barreiras sejam consideradas ineficazes, com o tribunal pronto para resolver quaisquer disputas.

Claude “não é projetado para ser usado para violação de direitos autorais, e temos vários processos em vigor projetados para evitar tal violação”, disse a Anthropic em um comunicado ao The Hollywood Reporter. “Nossa decisão de entrar neste estipulação é consistente com essas prioridades. Continuamos ansiosos para mostrar que, de acordo com a lei de direitos autorais existente, usar material potencialmente protegido no treinamento de modelos de IA generativa é um uso justo típico.”

Os editores de música por trás da queixa original solicitaram uma liminar preliminar para proibir a Anthropic de treinar futuros modelos com suas letras de músicas protegidas, com o tribunal previsto para emitir uma decisão nos próximos meses.

Fonte

Compartilhe esse conteúdo: