Como Impedimos que Deepfakes Enganem os Júris?

Refletindo sobre as evidências que passam por seu tribunal em Phoenix, Arizona, a juíza do tribunal superior Pamela Gates diz que está se tornando menos confiante de que a pessoa média pode distinguir a verdade.

Suponha que uma vítima apresente uma fotografia mostrando hematomas em seu braço e o réu argumente que as lesões foram adicionadas digitalmente à imagem. Ou talvez um autor apresente uma gravação incriminatória e o réu proteste que, embora a voz soe idêntica à sua, ele nunca disse aquelas palavras.

Em uma era em que qualquer um pode usar ferramentas de IA generativa gratuitas para criar imagens, vídeos e áudios convincentes, juízes como Gates estão cada vez mais preocupados que os tribunais não estão equipados para distinguir material autêntico de deepfakes.

“Você tinha uma melhor capacidade de avaliar [evidências no passado] apenas usando seu bom senso, a totalidade das circunstâncias e sua capacidade de verificar a autenticidade apenas olhando para isso”, disse Gates, que está presidindo um grupo de trabalho do tribunal estadual do Arizona examinando como lidar com evidências geradas por IA. “Essa capacidade de determinar com base na observação desapareceu.”

A explosão de sistemas de IA generativa baratos levou alguns acadêmicos jurídicos proeminentes a pedir mudanças nas regras que governaram as evidências nos tribunais dos EUA por 50 anos. Suas propostas, incluindo várias que foram revisadas por um comitê consultivo de tribunal federal no início deste mês, deslocariam o ônus de determinar a autenticidade longe dos júris e colocariam mais responsabilidade sobre os juízes para separar fato de ficção antes do início dos julgamentos.

“A maneira como as regras funcionam agora é que, se houver alguma dúvida sobre se a evidência é autêntica ou não, isso deve ir para o júri”, disse Maura Grossman, professora de ciência da computação e direito que, junto com o ex-juiz federal Paul Grimm, elaborou várias propostas de mudanças nas regras federais de evidência voltadas para deepfakes. “Estamos dizendo, espere um segundo, sabemos o quão impactante isso é no júri e eles não podem simplesmente apagar isso [de sua memória], então dê ao tribunal mais poder. E isso é uma grande mudança.”

Os jurados acham as evidências audiovisuais convincentes e difíceis de esquecer.

Rebecca Delfino, vice-dean e professora de direito na Loyola Law School que propôs suas próprias mudanças nas regras de evidência, aponta para estudos que mostram que a exposição a vídeos fabricados pode convencer as pessoas a dar depoimentos falsos sobre eventos que testemunharam e que jurados que veem evidências em vídeo além de ouvir depoimentos orais têm mais de seis vezes mais chances de reter informações do que se apenas ouvissem o depoimento.

Os juízes já têm algum poder para excluir evidências potencialmente falsas, mas o padrão que as partes devem atender para levar evidências contestadas a um júri é relativamente baixo. Sob as regras federais atuais, se uma parte alegar que uma gravação de áudio não era sua voz, a parte oposta precisaria apenas chamar uma testemunha familiarizada com sua voz para testemunhar sobre sua semelhança. Na maioria dos casos, isso seria suficiente para satisfazer o ônus da prova necessário para levar a gravação a um júri, disse Grossman.

Dada a qualidade atual de áudios e imagens deepfakes — que, como os golpistas demonstraram, podem enganar pais fazendo-os acreditar que estão ouvindo ou vendo seus filhos — os defensores de novas regras judiciais dizem que as fabricacões de IA passarão facilmente por essa barreira baixa.

Eles também querem proteger os júris do problema oposto: litigantes que alegam que evidências legítimas são falsas. Eles se preocupam que a abundância de conteúdo gerado por IA que as pessoas encontram online predisponha os jurados a acreditar nessas falsas acusações, que os acadêmicos chamaram de “dividendo do mentiroso”.

Vários réus já tentaram esse argumento em casos de alto perfil. Advogados de manifestantes que invadiram o Capitólio dos EUA em 6 de janeiro de 2021 argumentaram que evidências em vídeo críticas nos julgamentos poderiam ter sido falsas. E em um julgamento civil envolvendo um acidente fatal com um Tesla, advogados de Elon Musk sugeriram que vídeos de Musk se gabando sobre a segurança do recurso de piloto automático da marca poderiam ter sido gerados por IA.

“Sempre que você tem uma imagem audiovisual em um julgamento, que é o tipo mais comum de evidência apresentada em qualquer julgamento, há uma potencialidade para alguém fazer essa alegação”, disse Delfino. “Há um risco real de que isso não apenas prolongue e estenda os julgamentos, mas confunda e confunda os júris. E há um forte risco de que advogados inteligentes usem isso para confundir os júris até que eles levantem as mãos e digam ‘não sei’.”

As propostas

Em 8 de novembro, o Comitê Consultivo de Regras de Evidência federal revisou a mais recente proposta de regra de Grossman e Grimm, que daria aos juízes um papel de controle mais forte sobre as evidências.

Sob sua nova regra, um litigante que desafiasse a autenticidade de uma evidência teria que fornecer provas suficientes para convencer um juiz de que um júri “poderia razoavelmente concluir” que a evidência havia sido alterada ou fabricada. A partir daí, o ônus voltaria à parte que busca introduzir a evidência contestada para fornecer informações corroborativas. Finalmente, caberia ao juiz em uma audiência pré-julgamento decidir se o valor probativo da evidência — a luz que ela lança sobre o caso — supera o preconceito ou o potencial dano que seria causado se um júri a visse.

As propostas de Delfino, que ela expôs em uma série de artigos de revistas jurídicas, mas ainda não submeteu formalmente ao comitê, tirariam as questões de deepfake completamente das mãos do júri.

Sua primeira regra exigiria que a parte que afirma que uma peça de evidência é gerada por IA obtenha a opinião de um especialista forense sobre sua autenticidade muito antes do início de um julgamento. O juiz revisaria esse relatório e outros argumentos apresentados e, com base na preponderância das evidências, decidiria se o áudio ou a imagem em questão é real e, portanto, admissível. Durante o julgamento, o juiz então instruiria o júri a considerar a evidência como autêntica.

Além disso, Delfino propõe que a parte que faz a alegação de deepfake deve pagar pelo especialista forense — tornando caro gritar deepfake falsamente — a menos que o juiz determine que a parte não tem recursos financeiros suficientes para cobrir o custo do especialista e a outra parte deve pagar em vez disso.

Sem solução rápida

Quaisquer mudanças nas regras federais de evidência levariam anos para serem finalizadas e primeiro precisariam ser aprovadas por uma variedade de comitês e, em última instância, pela Suprema Corte.

Até agora, o Comitê Consultivo de Regras de Evidência optou por não avançar com quaisquer propostas voltadas para deepfakes. O professor da Fordham Law School, Daniel Capra, que é encarregado de investigar questões de evidência para o comitê, disse que pode ser sábio esperar e ver como os juízes lidam com casos de deepfake dentro das regras existentes antes de fazer uma mudança. Mas em seu relatório mais recente, ele acrescentou que “uma [nova] regra pode ser necessária porque deepfakes podem apresentar um verdadeiro momento divisor de águas.”

No Arizona, o comitê de Gates sobre evidências geradas por IA tem considerado se há uma solução tecnológica para o problema do deepfake que os tribunais poderiam implementar rapidamente.

Pesquisadores acadêmicos, especialistas forenses do governo e grandes empresas de tecnologia estão em uma corrida armamentista com desenvolvedores de IA generativa para construir ferramentas que possam detectar conteúdo falso ou adicionar marcas d’água digitais a ele no momento em que é criado.

“Não acho que nenhuma delas esteja pronta para uso no tribunal”, disse Gates sobre as ferramentas de detecção de IA que ela viu.

V.S. Subrahmanian, professor de ciência da computação e especialista em deepfake na Northwestern University, e seus colegas testaram recentemente o desempenho de quatro detectores de deepfake bem conhecidos. Os resultados não foram encorajadores: as ferramentas rotularam entre 71 e 99 por cento dos vídeos falsos como reais.

Subrahamanian disse que, pelo menos no curto prazo, não espera que as tecnologias de marcação sejam amplamente utilizadas ou confiáveis o suficiente para resolver o problema também. “Qualquer que seja a proteção, haverá alguém que quer descobrir como removê-la.”

Acesso à justiça

Até agora, houve poucos casos publicamente divulgados em que os tribunais tiveram que confrontar deepfakes ou alegações de que as evidências foram geradas por IA.

Além do julgamento dos manifestantes de 6 de janeiro e do processo civil de Musk, promotores da Pensilvânia em 2021 acusaram Raffaela Spone de assediar criminalmente membros da equipe de cheerleading de sua filha, alegadamente compartilhando vídeos deepfaked das meninas bebendo, fumando e quebrando regras da equipe. Spone negou que os vídeos fossem deepfakes, mas não tinha recursos financeiros para contratar um especialista forense, de acordo com seu advogado. No entanto, depois que seu caso ganhou notícias nacionais, uma equipe de especialistas forenses se ofereceu para examinar as evidências pro bono e determinou que os vídeos eram reais. Os promotores eventualmente desistiram das acusações de assédio contra Spone relacionadas à criação de deepfakes.

Nem todos terão essa sorte. Os juízes e acadêmicos jurídicos com quem a Gizmodo conversou disseram que estão mais preocupados com casos que provavelmente não farão manchetes, especialmente em tribunais de família onde os litigantes muitas vezes não têm advogados ou os recursos financeiros para contratar testemunhas especializadas.

“O que acontece agora quando um juiz de família está em tribunal e eu entro e digo: ‘meu marido está me ameaçando e ameaçando as crianças… eu tenho uma gravação dele nos ameaçando.'” disse Grossman. “O que diabos esse juiz deve fazer nessas circunstâncias? Que ferramentas eles têm? Eles não têm as ferramentas certas agora.

Fonte

Compartilhe esse conteúdo: