Uma ação judicial federal sobre a lei de Minnesota “Uso de Tecnologia Deep Fake para Influenciar uma Eleição” está agora lidando diretamente com a influência da IA. Em um arquivo recente, advogados que contestam a lei afirmam que uma declaração submetida para apoiá-la mostra sinais de conter texto gerado por IA. O Minnesota Reformer relata que o Procurador Geral Keith Ellison pediu ao diretor fundador do Stanford Social Media Lab, Jeff Hancock, que fizesse a submissão, mas o documento apresentado inclui fontes inexistentes que parecem ter sido alucinações do ChatGPT ou de outro modelo de linguagem de grande porte (LLM).
A declaração de Hancock cita um estudo de 2023 publicado no Journal of Information Technology & Politics intitulado “A Influência dos Vídeos Deepfake nas Atitudes e Comportamento Político.”
Mas, segundo o Reformer, não há registro desse estudo no Journal of Information Technology & Politics ou em qualquer outra publicação. Outra fonte citada na declaração de Hancock, “Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance,” também parece não existir.
Hancock não respondeu ao pedido de comentário do The Verge.
“A citação apresenta as características de uma ‘alucinação’ de inteligência artificial (IA), sugerindo que pelo menos a citação foi gerada por um modelo de linguagem de grande porte como o ChatGPT,” escreveram os advogados da representante estadual de Minnesota, Mary Franson, e de Christopher Khols — um YouTuber conservador que se apresenta como Mr Reagan — em um arquivo. “Os demandantes não sabem como essa alucinação acabou na declaração de Hancock, mas isso coloca todo o documento em questão, especialmente quando grande parte do comentário não contém metodologia ou lógica analítica alguma.”