Homem do Alasca Denunciou Alguém por CSAM de IA, Depois Foi Preso pela Mesma Coisa

Se você vai entrar em contato com a polícia e denunciar alguém por expressar interesse em material de abuso sexual infantil (CSAM) para você, talvez não seja a melhor ideia ter o mesmo material em seus próprios dispositivos. Ou ainda consentir com uma busca para que a lei possa coletar mais informações. Mas foi isso que, supostamente, um homem do Alasca fez. Isso acabou levando-o à custódia policial.

A 404 Media relatou esta semana sobre o homem, Anthaney O’Connor, que acabou sendo preso após uma busca policial em seus dispositivos ter revelado, supostamente, material de abuso sexual infantil gerado por IA (CSAM).

De acordo com documentos de acusação recém-apresentados, Anthaney O’Connor contatou as autoridades em agosto para alertá-las sobre um militar não identificado que compartilhou material de abuso sexual infantil (CSAM) com O’Connor. Durante a investigação do crime, e com o consentimento de O’Connor, autoridades federais buscaram seu telefone para obter mais informações. Uma revisão dos eletrônicos revelou que O’Connor supostamente ofereceu fazer CSAM em realidade virtual para o militar, de acordo com a queixa criminal.

Segundo a polícia, o militar não identificado compartilhou com O’Connor uma imagem que ele tirou de uma criança em um supermercado, e os dois discutiram como poderiam superpor o menor em um mundo virtual explícito.

As autoridades afirmam ter encontrado pelo menos seis imagens explícitas de CSAM geradas por IA nos dispositivos de O’Connor, que ele disse ter baixado intencionalmente, junto com várias “reais” que foram misturadas acidentalmente. Através de uma busca na casa de O’Connor, as autoridades descobriram um computador junto com vários discos rígidos escondidos em um duto da casa; uma revisão do computador revelou, supostamente, um vídeo de 41 segundos de estupro infantil.

Em uma entrevista com as autoridades, O’Connor disse que regularmente denunciava CSAM a provedores de serviços de internet “mas ainda se sentia sexualmente satisfeito com as imagens e vídeos.” Não está claro por que ele decidiu denunciar o militar às autoridades. Talvez ele tivesse uma consciência culpada ou talvez realmente acreditasse que seu CSAM gerado por IA não quebrava a lei.

Os geradores de imagens de IA são tipicamente treinados usando fotos reais; o que significa que imagens de crianças “geradas” por IA são fundamentalmente baseadas em imagens reais. Não há como separar as duas. O CSAM baseado em IA não é um crime sem vítimas nesse sentido.

A primeira prisão desse tipo pela posse de CSAM gerado por IA ocorreu apenas em maio, quando o FBI prendeu um homem por usar o Stable Diffusion para criar “milhares de imagens realistas de menores pré-púberes.”

Os defensores da IA dirão que sempre foi possível criar imagens explícitas de menores usando Photoshop, mas as ferramentas de IA tornam isso exponencialmente mais fácil para qualquer um. Um relatório recente descobriu que uma em cada seis congressistas foi alvo de pornografia deepfake gerada por IA. Muitos produtos têm barreiras para impedir os piores usos, semelhante à forma como impressoras não permitem a fotocópia de moeda. Implementar obstáculos pelo menos previne parte desse comportamento.

Fonte

Compartilhe esse conteúdo: