ChatGPT rejeitou 250.000 solicitações de deepfake eleitoral

Muitas pessoas tentaram usar o gerador de imagens DALL-E da OpenAI durante a temporada eleitoral, mas a empresa afirmou que conseguiu impedir que elas o usassem como uma ferramenta para criar deepfakes. O ChatGPT rejeitou mais de 250.000 solicitações para gerar imagens com o presidente Biden, o presidente eleito Trump, a vice-presidente Harris, o vice-presidente eleito Vance e o governador Walz, disse a OpenAI em um novo relatório. A empresa explicou que isso é um resultado direto de uma medida de segurança que implementou anteriormente, para que o ChatGPT se recusasse a gerar imagens com pessoas reais, incluindo políticos.

A OpenAI tem se preparado para as eleições presidenciais dos EUA desde o início do ano. Ela elaborou uma estratégia que visava evitar que suas ferramentas fossem utilizadas para ajudar a espalhar desinformação e garantiu que as pessoas que perguntassem ao ChatGPT sobre votação nos EUA fossem direcionadas ao CanIVote.org. A OpenAI disse que 1 milhão de respostas do ChatGPT direcionaram as pessoas ao site no mês que antecedeu o dia da eleição. O chatbot também gerou 2 milhões de respostas no dia da eleição e no dia seguinte, informando as pessoas que pediam os resultados para verificarem a Associated Press, Reuters e outras fontes de notícias. A OpenAI garantiu que as respostas do ChatGPT “não expressassem preferências políticas ou recomendassem candidatos, mesmo quando perguntadas explicitamente”.

Claro, o DALL-E não é o único gerador de imagens de IA por aí, e há muitos deepfakes relacionados à eleição circulando nas redes sociais. Um desses deepfakes apresentava Kamala Harris em um vídeo de campanha alterado para que ela dissesse coisas que na verdade não disse, como “Fui selecionada porque sou a contratação de diversidade definitiva.”

Fonte

Compartilhe esse conteúdo: