1 em cada 6 congressistas mulheres alvo de deepfakes sexualmente explícitos gerados por IA

Mais de duas dezenas de membros do Congresso foram vítimas de deepfakes sexualmente explícitos — e uma esmagadora maioria dos afetados são mulheres, de acordo com um novo estudo que destaca a acentuada disparidade de gênero nesta tecnologia e os riscos em evolução para a participação das mulheres na política e em outras formas de engajamento cívico.

O American Sunlight Project (ASP), um think tank que pesquisa desinformação e defende políticas que promovem a democracia, divulgou na quarta-feira descobertas que identificaram mais de 35.000 menções de imagens íntimas não consensuais (NCII) representando 26 membros do Congresso — 25 mulheres e um homem — que foram encontradas recentemente em sites de deepfake. A maior parte das imagens foi rapidamente removida, pois os pesquisadores compartilharam suas descobertas com os membros do Congresso afetados.

“Precisamos lidar com esse novo ambiente e o fato de que a internet abriu tantas dessas ameaças que estão direcionadas desproporcionalmente a mulheres e comunidades marginalizadas”, disse Nina Jankowicz, uma especialista em desinformação e assédio online que fundou o American Sunlight Project e é autora do estudo.

Imagens íntimas não consensuais, também conhecidas coloquialmente como pornografia deepfake, embora os defensores prefiram o termo anterior, podem ser criadas por meio de IA generativa ou sobrepondo fotos de rosto em mídias de performers adultos. Atualmente, há políticas limitadas para restringir sua criação e disseminação.

O ASP compartilhou as descobertas inéditas exclusivamente com o The 19th. O grupo coletou dados em parte desenvolvendo um mecanismo de busca personalizado para encontrar membros do 118º Congresso pelo primeiro e último nome, e abreviações ou apelidos, em 11 sites de deepfake bem conhecidos. Nenhuma afiliação partidária ou localização geográfica teve impacto na probabilidade de ser alvo de abuso, embora membros mais jovens tenham sido mais propensos a serem vitimados. O maior fator foi o gênero, com mulheres membros do Congresso sendo 70 vezes mais propensas a serem alvo.

O ASP não divulgou os nomes dos legisladores que foram retratados nas imagens, a fim de evitar incentivar buscas. Eles contataram os escritórios de todos os afetados para alertá-los e oferecer recursos sobre danos online e apoio à saúde mental. Os autores do estudo observam que, na sequência imediata, as imagens que visavam a maioria dos membros foram totalmente ou quase totalmente removidas dos sites — um fato que eles não conseguem explicar. Os pesquisadores notaram que tais remoções não impedem que o material seja compartilhado ou carregado novamente. Em alguns casos envolvendo legisladores, páginas de resultados de busca permaneceram indexadas no Google, apesar do conteúdo ter sido amplamente ou totalmente removido.

“A remoção pode ser coincidente. Independentemente do que exatamente levou à remoção desse conteúdo — seja cartas de ‘cessar e desistir’, reivindicações de violação de direitos autorais ou outro contato com os sites que hospedam o abuso de deepfake — isso destaca uma grande disparidade de privilégio”, de acordo com o estudo. “Pessoas, particularmente mulheres, que não têm os recursos oferecidos aos membros do Congresso, teriam alta probabilidade de não conseguir essa resposta rápida dos criadores e distribuidores de NCII gerados por IA se iniciassem um pedido de remoção por conta própria.”

De acordo com as descobertas iniciais do estudo, quase 16% de todas as mulheres que atualmente servem no Congresso — ou cerca de 1 em cada 6 congressistas mulheres — são vítimas de imagens íntimas não consensuais geradas por IA.

Jankowicz tem sido alvo de assédio e ameaças online por seu trabalho nacional e internacional no desmantelamento da desinformação. Ela também falou publicamente sobre ser vítima de abuso por deepfake — um fato que descobriu por meio de um alerta do Google em 2023.

“Você pode ser feito para parecer estar em situações íntimas comprometedoras, sem seu consentimento, e esses vídeos, mesmo que você busque uma reivindicação de direitos autorais contra o poster original, — como no meu caso — proliferam pela internet sem seu controle e sem algum tipo de consequência para as pessoas que estão amplificando ou criando pornografia deepfake”, disse ela. “Isso continua a ser um risco para qualquer pessoa que esteja em evidência pública, que participe do discurso público, mas em particular para mulheres e para mulheres de cor.”

O abuso sexual baseado em imagem pode ter efeitos devastadores na saúde mental das vítimas, que incluem pessoas comuns que não estão envolvidas na política — incluindo crianças. No ano passado, houve relatos de meninas do ensino médio sendo alvo de abuso sexual baseado em imagem em estados como Califórnia, Nova Jersey e Pensilvânia. Os funcionários escolares tiveram respostas de graus variados, embora o FBI também tenha emitido um novo aviso de que compartilhar tal imagem de menores é ilegal.

O impacto total dos deepfakes na sociedade ainda está se tornando claro, mas pesquisas já mostram que 41% das mulheres entre 18 e 29 anos se autocensuram para evitar assédio online.

“Isso é uma ameaça extremamente poderosa à democracia e à liberdade de expressão, se temos quase metade da população se silenciando porque tem medo do assédio que poderiam experimentar”, disse Sophie Maddocks, diretora de pesquisa no Center for Media at Risk da Universidade da Pensilvânia.

Não há uma lei federal que estabeleça penalidades criminais ou civis para alguém que gera e distribui imagens íntimas não consensuais geradas por IA. Cerca de uma dúzia de estados promulgaram leis nos últimos anos, embora a maioria inclua penalidades civis, não criminais.

Imagens íntimas não consensuais geradas por IA também abrem ameaças à segurança nacional, criando condições para chantagem e concessões geopolíticas. Isso pode ter efeitos em cascata sobre os formuladores de políticas, independentemente de serem ou não o alvo direto das imagens.

“Minha esperança aqui é que os membros sejam pressionados a agir quando reconhecem não apenas que isso está afetando as mulheres americanas, mas que está afetando a eles”, disse Jankowicz. “Está afetando seus próprios colegas. E isso está acontecendo simplesmente porque estão em evidência pública.”

O abuso sexual baseado em imagem é um risco único para mulheres que concorrem a cargos. Susanna Gibson perdeu por pouco sua corrida legislativa competitiva depois que um operante republicano compartilhou gravações não consensuais de transmissões ao vivo sexualmente explícitas envolvendo a democrata da Virgínia e seu marido com o The Washington Post. Nos meses após sua derrota, Gibson disse ao The 19th que ouviu de jovens mulheres desencorajadas a se candidatar a cargos por medo de que imagens íntimas fossem usadas para assediá-las. Gibson desde então começou uma organização sem fins lucrativos dedicada a combater o abuso sexual baseado em imagem e um comitê de ação política acompanhante para apoiar candidatas contra violações de privacidade íntima.

Maddocks estudou como mulheres que falam publicamente são mais propensas a experimentar violência sexual digital.

“Temos esse padrão muito mais longo, ‘as mulheres devem ser vistas e não ouvidas’ que me faz pensar sobre a escrita e pesquisa de Mary Beard sobre essa ideia de que a feminilidade é antitética ao discurso público. Então, quando as mulheres falam publicamente, é quase como, ‘Ok. Hora de envergonhá-las. Hora de despir-lhes. Hora de colocá-las de volta em casa. Hora de envergonhá-las até o silêncio.’ E essa motivação de silenciamento e envergonhamento… precisamos entender isso para entender como esse dano está se manifestando em relação às congressistas.”

O ASP está encorajando o Congresso a aprovar legislação federal. O Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024, também conhecido como DEFIANCE Act, permitiria que as pessoas processassem qualquer um que criasse, compartilhasse ou recebesse tal imagem. O Take It Down Act incluiria responsabilidade criminal por tal atividade e exigiria que as empresas de tecnologia removesse deepfakes. Ambos os projetos de lei passaram no Senado com apoio bipartidário, mas precisam navegar por preocupações em torno da liberdade de expressão e definições de dano, que são obstáculos típicos à política de tecnologia, na Câmara.

“Seria uma derrogação do dever para o Congresso deixar esta sessão passar sem aprovar pelo menos um desses projetos de lei”, disse Jankowicz. “É uma das maneiras que o dano da inteligência artificial está sendo sentido por americanos reais agora. Não é um dano futuro. Não é algo que precisamos imaginar.”

Na ausência de ação do Congresso, a Casa Branca colaborou com o setor privado para conceber soluções criativas para conter o abuso sexual baseado em imagem. Mas os críticos não estão otimistas sobre a capacidade da Big Tech de se autorregular, dada a história de danos causados por suas plataformas.

“É tão fácil para os perpetradores criar esse conteúdo, e o sinal não é apenas para a mulher individual sendo alvo”, disse Jankowicz. “É para mulheres em toda parte, dizendo: ‘Se você tomar esse passo, se você levantar sua voz, essa é uma consequência que você pode ter que lidar.'”

Se você foi vítima de abuso sexual baseado em imagem, a Cyber Civil Rights Initiative mantém uma lista de recursos legais.

Fonte

Compartilhe esse conteúdo: