Você não pode difamar os mortos. Mas isso não significa que você deva criar deepfakes deles.

Zelda Williams, filha do falecido ator Robin Williams, tem uma mensagem tocante para os fãs de seu pai.

“Por favor, apenas parem de me enviar vídeos de IA do pai. Pare de acreditar que eu quero ver isso ou que eu vou entender. Eu não quero e não vou,” ela escreveu em uma postagem em sua história do Instagram na segunda-feira. “Se você tiver qualquer decência, apenas pare de fazer isso com ele e comigo, com todos, ponto final. É estúpido, é uma perda de tempo e energia, e acredite, não é o que ele gostaria.”

Provavelmente não é coincidência que Williams tenha sido movida a postar isso apenas alguns dias após o lançamento do modelo de vídeo Sora 2 da OpenAI e do aplicativo social Sora, que dá aos usuários o poder de gerar deepfakes altamente realistas de si mesmos, de seus amigos e de certos personagens de desenhos animados.

Isso também inclui pessoas mortas, que aparentemente são um alvo justo porque não é ilegal difamar os falecidos, de acordo com o Student Press Law Center.

O Sora não permitirá que você gere vídeos de pessoas vivas — a menos que seja de si mesmo ou de um amigo que tenha dado permissão para usar sua imagem (ou “cameo”, como a OpenAI chama). Mas esses limites não se aplicam aos mortos, que podem ser gerados na maioria das vezes sem obstáculos. O aplicativo, que ainda está disponível apenas por convite, foi inundado com vídeos de figuras históricas como Martin Luther King Jr., Franklin Delano Roosevelt e Richard Nixon, bem como de celebridades falecidas como Bob Ross, John Lennon, Alex Trebek e, sim, Robin Williams.

Como a OpenAI traça a linha sobre a geração de vídeos dos mortos não está claro. O Sora 2 não gerará, por exemplo, vídeos do ex-presidente Jimmy Carter, que morreu em 2024, ou de Michael Jackson, que morreu em 2009, embora tenha criado vídeos com a imagem de Robin Williams, que morreu em 2014, de acordo com testes do TechCrunch. E enquanto o recurso de cameo da OpenAI permite que as pessoas definam instruções sobre como aparecem em vídeos que outros geram delas — guardrails que surgiram em resposta a críticas iniciais ao Sora — os falecidos não têm essa opção. Aposto que Richard Nixon estaria se revirando em seu túmulo se pudesse ver o deepfake que fiz dele defendendo a abolição da polícia.

A OpenAI não respondeu ao pedido de comentário do TechCrunch sobre a permissibilidade de deepfakes de pessoas mortas. No entanto, é possível que criar deepfakes de celebridades falecidas como Williams esteja dentro das práticas aceitáveis da empresa; precedentes legais mostram que a empresa provavelmente não seria responsabilizada pela difamação de falecidos.

“Assistir os legados de pessoas reais serem reduzidos a ‘isso vagamente se parece e soa como eles, então isso é suficiente,’ apenas para que outras pessoas possam produzir uma porcaria horrível no TikTok manipulando-os é enlouquecedor,” escreveu Williams.

Os críticos da OpenAI acusam a empresa de adotar uma abordagem descuidada em tais questões, razão pela qual o Sora foi rapidamente inundado com clipes de IA de personagens protegidos por direitos autorais, como Peter Griffin e Pikachu, após seu lançamento. O CEO Sam Altman disse originalmente que estúdios de Hollywood e agências precisariam optar explicitamente por sair se não quisessem que sua propriedade intelectual fosse incluída em vídeos gerados pelo Sora. A Motion Picture Association já pediu à OpenAI que tome medidas sobre essa questão, declarando em um comunicado que “as leis de direitos autorais bem estabelecidas protegem os direitos dos criadores e se aplicam aqui.” Ele já disse que a empresa reverterá essa posição.

O Sora é, talvez, o modelo de IA capaz de deepfake mais perigoso acessível às pessoas até agora, dada a realismo de suas produções. Outras plataformas como a xAI ficam atrás, mas têm ainda menos restrições do que o Sora, tornando possível gerar deepfakes pornográficos de pessoas reais. À medida que outras empresas se igualam à OpenAI, estabeleceremos um precedente horrível se tratarmos pessoas reais — vivas ou mortas — como nossos próprios brinquedos pessoais.

Fonte

Compartilhe esse conteúdo: