Nova Jersey processa Discord por supostamente falhar em proteger crianças

O Discord está enfrentando um novo processo do estado de Nova Jersey, que afirma que o aplicativo de chat está envolvido em “práticas comerciais enganosas e inconscionáveis” que colocam seus usuários mais jovens em perigo.

O processo, apresentado na quinta-feira, vem após uma investigação de vários anos pelo Escritório do Procurador Geral de Nova Jersey. O escritório do AG afirma ter descoberto evidências de que, apesar das políticas do Discord para proteger crianças e adolescentes, o popular aplicativo de mensagens está colocando os jovens “em risco”.

“Somos o primeiro estado do país a processar o Discord”, diz o Procurador Geral Matthew Platkin à WIRED.

Platkin afirma que houve dois catalisadores para a investigação. Um é pessoal: há alguns anos, um amigo da família procurou Platkin, surpreso que seu filho de 10 anos conseguiu se inscrever no Discord, apesar de a plataforma proibir crianças com menos de 13 anos de se registrarem.

O segundo foi o tiroteio em massa em Buffalo, no estado vizinho de Nova York. O autor usou o Discord como seu diário pessoal na véspera do ataque e transmitiu ao vivo a carnificina diretamente para o aplicativo de chat e vídeo. (As imagens foram rapidamente removidas.)

“Essas empresas têm consistentemente, sabendo, colocado o lucro à frente do interesse e bem-estar de nossas crianças”, afirma Platkin.

O escritório do AG afirma no processo que o Discord violou a Lei de Fraude do Consumidor do estado. As alegações, que foram apresentadas na manhã de quinta-feira, giram em torno de um conjunto de políticas adotadas pelo Discord para manter crianças menores de 13 anos fora da plataforma e para manter adolescentes seguros de exploração sexual e conteúdo violento. O processo é apenas o mais recente em uma lista crescente de litígios de estados contra grandes empresas de mídia social — litígios que, até agora, têm se mostrado bastante ineficazes.

As políticas de segurança para crianças e adolescentes do Discord são claras: crianças menores de 13 anos são proibidas de usar o aplicativo de mensagens, enquanto proíbe mais amplamente qualquer interação sexual com menores, incluindo “autoexposição” juvenil. Além disso, possui filtros algorítmicos em funcionamento para impedir mensagens diretas sexuais indesejadas. A política de segurança da empresa, publicada em 2023, afirma “construímos o Discord para ser diferente e trabalhamos incansavelmente para torná-lo um espaço divertido e seguro para adolescentes.”

Mas Nova Jersey afirma que “as promessas do Discord falharam, e continuam a falhar”.

O procurador geral aponta que o Discord possui três níveis de segurança para prevenir que os jovens recebam mensagens indesejadas e exploratórias de adultos: “Mantenha-me seguro”, onde a plataforma escaneia todas as mensagens na caixa de entrada de um usuário; “meus amigos são legais”, onde não escaneia mensagens de amigos; e “não escanear”, onde não escaneia mensagens.

Mesmo para usuários adolescentes, o processo alega que a plataforma padrão é “meus amigos são legais”. O procurador geral afirma que isso é um design intencional que representa uma ameaça para usuários mais jovens. O processo também alega que o Discord está falhando ao não realizar verificação de idade para impedir que crianças menores de 13 anos se inscrevam no serviço.

Em 2023, o Discord adicionou novos filtros para detectar e bloquear conteúdo sexual indesejado, mas o escritório do AG afirma que a empresa deveria ter ativado a opção “mantenha-me seguro” por padrão.

“Considere-me pouco impressionado pela campanha de relações públicas deles”, diz Platkin. Ele argumenta que os novos recursos são insuficientes, fáceis de contornar e são menos do que a empresa disponibilizou para usuários em outros países. “Se você colocar batom em um porco”, diz ele, “ainda é um porco.”

A WIRED entrou em contato com o Discord para comentar sobre suas medidas de segurança infantil, mas não obteve resposta.

“Juntas, essas características de design abertas e configurações padrão fazem com que qualquer um possa ganhar acesso direto e privado a um usuário criança com apenas alguns cliques”, alegam os documentos. Mais adiante, o AG vai mais longe, escrevendo que “o Discord prometeu segurança aos pais, mas fez escolhas deliberadas para projetar seu aplicativo e estabelecer configurações padrão que tornaram essas promessas absolutamente sem sentido.”

O processo lista uma meia dúzia de casos criminais em que adultos supostamente usaram o Discord para atrair e explorar crianças, incluindo o caso de 764, um anel pedófilo digital de extrema direita.

O processo propõe várias soluções diferentes, incluindo uma liminar exigindo que o Discord melhore suas características de segurança e possíveis penalidades financeiras se for considerado falho em manter seus usuários seguros.

Embora este pareça ser o primeiro processo em nível estadual contra o Discord, várias firmas de advocacia privadas já atacaram a empresa em bases semelhantes. Em 2022, a família de uma menina de 11 anos entrou com uma ação coletiva contra o Discord, alegando que a plataforma não implementou salvaguardas suficientes para prevenir sua exploração por outros usuários. Um caso semelhante foi apresentado na Califórnia no início deste ano. Ambos os casos estão em andamento.

Mas esses processos estão se tornando cada vez mais comuns: a Meta, em particular, está enfrentando dois enormes processos, liderados por dezenas de estados, alegando que prejudicou seus usuários adolescentes. Um processo semelhante foi apresentado por uma coalizão de conselhos escolares na província canadense de Ontário. A União Europeia, por sua vez, elaborou um conjunto de regulamentos destinados a lidar com essas externalidades — mas, até agora, está tendo dificuldades para fazer com que os gigantes da tecnologia americana cumpram.

Platkin entrou com vários outros processos — mais recentemente contra o TikTok — em uma tentativa de forçar as gigantes das mídias sociais a melhorar suas medidas de proteção infantil.

“Eles não podem colocar deliberadamente um produto que é inseguro para crianças no mercado”, diz Platkin. “Não me importa se você é uma empresa de mídia social, um fabricante de opioides ou qualquer outra empresa que está dizendo ao público que seu produto é seguro quando não é. Vamos responsabilizar a empresa.”

Platkin diz que está esperançoso de que a administração Trump, que indicou alguma disposição para atacar grandes empresas de mídia social, esteja interessada em manter as crianças seguras — não apenas em atacar a suposta censura conservadora. “A esperança é eterna para mim”, diz Platkin.

Fonte

Compartilhe esse conteúdo: