A Anthropic chegou a um acordo e concordou em parar de mostrar aos usuários letras de músicas baseadas em canções protegidas por direitos autorais de várias editoras musicais. Em 2023, a empresa de IA foi processada pela Universal Music Group, Concord Music Group e outros após ser descoberto que seu chatbot Claude retornava letras de músicas como “Halo” da Beyoncé quando solicitado.
A indústria do entretenimento é uma das mais litigiosas e luta vigorosamente para defender seus direitos autorais – basta olhar para casos históricos, desde a destruição do Napster até a batalha legal de vários anos que a Viacom travou contra o YouTube. Mais recentemente, o popular site de anotação de letras Rap Genius (agora apenas Genius) foi processado pela National Music Publishers Association por reproduzir letras de canções protegidas por direitos autorais.
As editoras musicais que processaram a Anthropic reconheceram que outros sites, como a plataforma de anotação de músicas Genius, distribuem letras online, mas observaram que a Genius acabou começando a pagar uma taxa de licença para publicá-las em seu site.
Neste último processo, as editoras musicais alegaram que a Anthropic raspou letras da web e removeu intencionalmente marcas d’água que são colocadas em sites de letras para ajudar a identificar de onde o material protegido por direitos autorais foi publicado. Depois que a Genius começou a licenciar letras de músicas das editoras musicais, ela inseriu astutamente apóstrofos extras nas letras para que, no caso de o material ser copiado de forma inadequada, a Genius soubesse que o material pelo qual explicitamente pagou havia sido roubado e pudesse exigir a remoção.
A Anthropic não concedeu as alegações, mas como parte do acordo concordou em manter melhor as barreiras que impedem seus modelos de IA de infringir material protegido por direitos autorais. Ela também trabalhará de boa-fé com as editoras musicais quando for constatado que as barreiras não estão funcionando.
A Anthropic defendeu o ato de usar letras de músicas e outros materiais protegidos por direitos autorais para treinar modelos de IA, dizendo ao The Hollywood Reporter: “Nossa decisão de entrar nesta estipulação está alinhada com essas prioridades. Continuamos ansiosos para mostrar que, de acordo com a legislação de direitos autorais existente, usar material potencialmente protegido por direitos autorais no treinamento de modelos de IA generativos é um uso justo essencial.” Esse argumento tem sido central na defesa das empresas de IA sobre a presença de material protegido por direitos autorais em seus modelos. Os defensores afirmam que remixar conteúdo protegido por direitos autorais de sites como o New York Times constitui um uso justo, desde que tenha sido materialmente alterado através de obras derivadas.
Publicadores de notícias e músicas discordam, e o processo contra a Anthropic ainda não acabou. As editoras musicais ainda buscam uma liminar judicial impedindo a Anthropic de treinar futuros modelos com qualquer letra de música protegida por direitos autorais.
A preocupação com o abuso decorre do potencial para que os modelos da Anthropic sejam usados na geração de músicas que causem a um músico a perda de controle sobre sua arte. Não é uma preocupação infundada, já que tem sido amplamente especulado que a OpenAI imitou a voz de Scarlett Johansson depois que ela se recusou a fornecer sua voz para seu modelo de voz de IA.
Empresas de tecnologia como a OpenAI e o Google ganham dinheiro em plataformas e efeitos de rede, não vendendo material protegido por direitos autorais, o que sempre levou a essa tensão entre Hollywood e Silicon Valley. A arte é meramente “conteúdo” destinado a servir ao maior propósito de gerar engajamento e vender anúncios. A sujeira de IA que está preenchendo o Facebook hoje é representativa de como as empresas de tecnologia veem tudo isso como intercambiável.
Publicadores como o Times têm lutado batalhas de alto perfil contra empresas como a OpenAI nos tribunais para impedi-las de absorver material protegido por direitos autorais. A OpenAI tentou responder licenciando material de algumas empresas, e outro jogador de IA, Perplexity, começou a testar um modelo de compartilhamento de receita. Mas os editores desejam mais controle e não querem ser forçados a esses acordos instáveis que poderiam acabar a qualquer momento e ainda afastar as pessoas de seus sites. O que tudo isso significa é que esta está longe de ser a última palavra quando se trata de disputas sobre material protegido por direitos autorais em grandes modelos de linguagem.