Microsoft Nomeia Desenvolvedores que Processou por Abusar de Seus Ferramentas de IA

A Microsoft está tentando demonstrar seu compromisso com a segurança da IA ao alterar uma ação judicial de um ano atrás para revelar os quatro desenvolvedores que, segundo a empresa, contornaram as barreiras em suas ferramentas de IA para gerar deepfakes de celebridades.

A empresa entrou com a ação em dezembro, e uma ordem judicial permitindo que a Microsoft apreendesse um site associado à operação ajudou a identificar os indivíduos.

Os quatro desenvolvedores fazem parte de uma rede global de cibercrime chamada Storm-2139: Arian Yadegarnia, também conhecido como “Fiz”, do Irã; Alan Krysiak, também conhecido como “Drago”, do Reino Unido; Ricky Yuen, também conhecido como “cg-dot”, de Hong Kong; e Phát Phùng Tấn, também conhecido como “Asakuri”, do Vietnã.

A Microsoft afirma que há outros que identificou como envolvidos no esquema, mas que não quer nomear ainda para não interferir em uma investigação em andamento. Segundo a Microsoft, o grupo comprometeu contas com acesso às suas ferramentas de IA generativa e conseguiu “burlar” essas ferramentas para criar os tipos de imagens que desejavam. O grupo então vendeu acesso a outros, que o usaram para criar deepfakes nudes de celebridades, entre outros abusos.

Após entrar com a ação e apreender o site do grupo, a Microsoft disse que os réus entraram em modo de pânico. “A apreensão deste site e a subsequente liberação dos processos legais em janeiro geraram uma reação imediata dos envolvidos, em alguns casos fazendo com que membros do grupo se voltassem uns contra os outros,” afirmou em seu blog.

Celebridades, incluindo Taylor Swift, têm sido alvos frequentes de pornografia deepfake, que pega o rosto de uma pessoa real e o sobrepõe de forma convincente em um corpo nu. Em janeiro de 2024, a Microsoft teve que atualizar seus modelos de texto para imagem depois que imagens falsas de Swift apareceram na web. A IA generativa torna extremamente fácil criar essas imagens com pouca habilidade técnica – o que já levou a uma epidemia de escândalos de deepfake em escolas secundárias em toda a EUA. Histórias recentes de vítimas de deepfakes ilustram como a criação das imagens não é um ato sem vítimas, pois ocorre digitalmente, mas traduz-se em danos no mundo real, fazendo com que os alvos se sintam ansiosos, com medo e violados ao saber que alguém lá fora está obcecado o suficiente para fazer isso.

Há um debate em andamento na comunidade de IA sobre o tema da segurança e se as preocupações são reais ou se visam ajudar grandes players como OpenAI a ganhar influência e vender seus produtos, superestimando o verdadeiro poder da inteligência artificial generativa. Um dos grupos argumenta que manter os modelos de IA sem código-fonte pode ajudar a prevenir os piores abusos, limitando a capacidade dos usuários de desligar os controles de segurança; aqueles do campo de código aberto acreditam que tornar os modelos livres para modificar e melhorar é necessário para acelerar o setor, e é possível abordar os abusos sem impedir a inovação. De qualquer forma, tudo isso parece um pouco como uma distração da ameaça mais imediata, que é que a IA tem preenchido a web com informações imprecisas e conteúdo de baixa qualidade.

Embora muitos medos sobre a IA pareçam exagerados e hipotéticos, e parece improvável que a IA generativa esteja pronta o suficiente para assumir uma agência própria, o uso indevido da IA para criar deepfakes é real. Meios legais são uma maneira pela qual esses abusos podem ser tratados hoje. Já houve uma onda de prisões nos EUA de indivíduos que usaram IA para gerar deepfakes de menores, e o NO FAKES Act, introduzido no Congresso no ano passado, tornaria crime gerar imagens baseadas na semelhança de alguém. O Reino Unido já penaliza a distribuição de pornografia deepfake, e em breve também será crime até mesmo produzi-la. A Austrália recentemente criminalizou a criação e o compartilhamento de deepfakes não consensuais.

Fonte

Compartilhe esse conteúdo: