‘Chat control’: A proposta legal controversa de varredura de CSAM da UE explicada

A União Europeia tem uma reputação de longa data por suas fortes leis de privacidade. Mas um plano legislativo para combater o abuso infantil — que o bloco apresentou formalmente em maio de 2022 — ameaça degradar a privacidade e a segurança de centenas de milhões de usuários de aplicativos de mensagens na região.

A Comissão Europeia, o órgão legislativo da UE que elaborou a proposta, a enquadra como um plano para proteger os direitos das crianças online, combatendo o uso indevido de ferramentas tecnológicas convencionais por abusadores que, segundo afirmam, estão cada vez mais utilizando aplicativos de mensagens para distribuir material de abuso sexual infantil (CSAM) e até mesmo acessar novas vítimas.

Talvez como resultado do lobby do setor de tecnologia de segurança infantil, a abordagem adotada pela UE é uma que se baseia em soluções tecnológicas. A iniciativa da Comissão foca na regulamentação de serviços digitais — principalmente aplicativos de mensagens — impondo a eles o dever legal de usar ferramentas tecnológicas para escanear as comunicações dos usuários a fim de detectar e relatar atividades ilegais.

Por vários anos, os aplicativos de mensagens convencionais tiveram uma derrogação temporária das regras de ePrivacidade do bloco, que tratam da confidencialidade das comunicações digitais — a derrogação é válida até maio de 2025, conforme sua última extensão — para que possam escanear voluntariamente as comunicações das pessoas em busca de CSAM em certos cenários.

No entanto, a regulamentação de abuso infantil criaria regras permanentes que essencialmente obrigariam a varredura de conteúdo baseada em IA em toda a UE.

Críticos da proposta argumentam que isso levaria a uma situação em que as plataformas de mensagens seriam forçadas a usar tecnologias imperfeitas para escanear a correspondência privada dos usuários por padrão — com consequências terríveis para a privacidade das pessoas. Eles também alertam que isso coloca a UE em rota de colisão com a forte criptografia, pois a lei forçaria aplicativos com criptografia de ponta a ponta (E2EE) a degradar sua segurança para cumprir as exigências de triagem de conteúdo.

As preocupações sobre a proposta são tão agudas que o próprio supervisor de proteção de dados do bloco alertou no ano passado que representa um ponto de virada para os direitos democráticos. Um serviço de assessoria jurídica ao Conselho Europeu também acredita que é incompatível com a lei da UE, de acordo com um vazamento de sua avaliação. A lei da UE proíbe a imposição de uma obrigação de monitoramento geral, portanto, se a lei for aprovada, é quase certo que enfrentará um desafio legal.

Até agora, os co-legisladores da UE não conseguiram chegar a um acordo sobre como proceder com o arquivo. Mas a lei proposta permanece em jogo — assim como todos os riscos que ela representa.

Ordens de detecção de CSAM abrangentes

A proposta original da Comissão contém um requisito de que as plataformas, uma vez notificadas com uma ordem de detecção, devem escanear as mensagens das pessoas, não apenas em busca de CSAM conhecido (ou seja, imagens de abuso infantil que foram identificadas anteriormente e codificadas para detecção), mas também em busca de CSAM desconhecido (ou seja, novas imagens de abuso). Isso aumentaria ainda mais o desafio técnico de detectar conteúdo ilegal com um alto grau de precisão e baixo número de falsos positivos.

Um componente adicional na proposta da Comissão exige que as plataformas identifiquem atividades de aliciamento em tempo real. Isso significa que, além de escanear uploads de imagens em busca de CSAM, os aplicativos precisariam ser capazes de analisar o conteúdo das comunicações dos usuários para tentar entender quando um usuário adulto pode estar tentando atrair um menor para participar de atividades sexuais.

Usar ferramentas automatizadas para detectar sinais de comportamento que possam prever futuros abusos em interações gerais entre usuários de aplicativos sugere um enorme potencial para interpretar erroneamente conversas inocentes. Juntas, as exigências abrangentes de detecção de CSAM da Comissão transformariam plataformas de mensagens convencionais em ferramentas de vigilância em massa, sugerem os opositores da proposta.

“Controle de chat” é o principal termo que eles criaram para abranger as preocupações sobre a UE aprovar uma lei que exige a varredura de mensagens digitais de cidadãos privados — incluindo a triagem de trocas de texto que as pessoas estão enviando.

E quanto à criptografia de ponta a ponta?

A proposta original da Comissão para uma regulamentação para combater o abuso sexual infantil não isenta plataformas E2EE dos requisitos de detecção de CSAM, também.

E está claro que, uma vez que o uso de E2EE significa que tais plataformas não têm a capacidade de acessar versões legíveis das comunicações dos usuários — porque não possuem as chaves de criptografia — os serviços de mensagens seguros enfrentariam um problema específico de conformidade se fossem legalmente obrigados a entender conteúdo que não podem ver.

Críticos do plano da UE, portanto, alertam que a lei forçará plataformas de mensagens E2EE a degradar as proteções de segurança de destaque que oferecem, implementando tecnologias arriscadas, como a varredura do lado do cliente, como medida de conformidade.

A proposta da Comissão não menciona tecnologias específicas que as plataformas devem implantar para a detecção de CSAM. As decisões são transferidas para um centro da UE para combater o abuso sexual infantil que a lei estabeleceria. Mas especialistas preveem que provavelmente seria usado para forçar a adoção da varredura do lado do cliente.

Outra possibilidade é que plataformas que implementaram criptografia forte poderiam optar por retirar seus serviços da região completamente; o Signal Messenger, por exemplo, já alertou que deixaria um mercado em vez de ser forçado por lei a comprometer a segurança do usuário. Essa perspectiva poderia deixar as pessoas na UE sem acesso a aplicativos convencionais que usam protocolos de segurança E2EE de padrão ouro para proteger comunicações digitais, como Signal, ou WhatsApp, da Meta, ou iMessage da Apple, para citar três.

Nenhuma das medidas que a UE elaborou teria o efeito pretendido de prevenir o abuso infantil, argumentam os opositores da proposta. Em vez disso, o impacto que eles preveem é horríveis consequências colaterais para os usuários de aplicativos, à medida que as comunicações privadas de milhões de europeus são expostas a algoritmos de varredura imperfeitos.

Isso, por sua vez, arrisca disparar uma série de falsos positivos; milhões de pessoas inocentes poderiam ser erroneamente implicadas em atividades suspeitas, sobrecarregando as forças de segurança com um fluxo de relatórios falsos.

O sistema que a proposta da UE prevê precisaria expor rotineiramente as mensagens privadas dos cidadãos a terceiros que estariam envolvidos na verificação de relatórios de conteúdo suspeito enviados a eles pelos sistemas de detecção das plataformas. Portanto, mesmo que uma peça específica de conteúdo sinalizado não acabe sendo encaminhada para a aplicação da lei para investigação, tendo sido identificada como não suspeita em um ponto anterior na cadeia de relatórios, ainda assim, necessariamente, teria sido analisada por alguém além do remetente e de seus destinatários pretendidos. Portanto, RIP, privacidade das comunicações.

Proteger comunicações pessoais que foram extraídas de outras plataformas também representaria um desafio contínuo de segurança, com o risco de que o conteúdo relatado pudesse ser exposto ainda mais se práticas de segurança inadequadas fossem aplicadas por qualquer um dos terceiros envolvidos no processamento de relatórios de conteúdo.

As pessoas usam E2EE por um motivo, e não ter um monte de intermediários lidando com seus dados está bem no topo.

Onde está esse plano assustador agora?

Normalmente, a elaboração de leis da UE é um assunto tripartite, com a Comissão propondo legislação e seus co-legisladores, no Parlamento Europeu e no Conselho, trabalhando com o executivo do bloco para tentar chegar a um compromisso que todos possam concordar.

No caso da regulamentação de abuso infantil, no entanto, as instituições da UE até agora tiveram visões muito diferentes sobre a proposta.

Um ano atrás, os legisladores no Parlamento Europeu concordaram com sua posição de negociação, sugerindo grandes revisões à proposta da Comissão. Parlamentares de todo o espectro político apoiaram emendas substanciais que visavam reduzir os riscos aos direitos — incluindo o apoio a uma isenção total para plataformas E2EE dos requisitos de varredura.

Eles também propuseram limitar a varredura para torná-la muito mais direcionada: adicionando uma provisão de que a triagem deve ocorrer apenas nas mensagens de indivíduos ou grupos suspeitos de abuso sexual infantil — ou seja, em vez de a lei impor varredura em massa a todos os seus usuários uma vez que uma plataforma é notificada com uma ordem de detecção.

Uma outra mudança apoiada pelos eurodeputados restringiria a detecção a CSAM conhecido e desconhecido, removendo o requisito de que as plataformas também identificassem atividades de aliciamento por meio da triagem de trocas de texto.

A versão da proposta do parlamento também pressionou por outros tipos de medidas a serem incluídas, como requisitos para que as plataformas melhorem as proteções de privacidade dos usuários, definindo por padrão perfis como não públicos para diminuir o risco de menores serem descobertos por adultos predadores.

No geral, a abordagem dos eurodeputados parece muito mais equilibrada do que a proposta original da Comissão. No entanto, desde então, as eleições da UE revisaram a composição do parlamento. As opiniões do novo grupo de eurodeputados são menos claras.

Ainda há também a questão de o Conselho Europeu, o órgão composto por representantes dos governos dos estados membros, o que fará. Ele ainda não concordou com um mandato de negociação sobre o arquivo, razão pela qual as discussões com o parlamento não puderam começar.

Qualquer um que optar pela privacidade seria rebaixado a um conjunto básico de recursos de telefone básico de texto e áudio apenas. Sim, isso é realmente o que os legisladores regionais estão considerando.

O Conselho ignorou os apelos dos eurodeputados no ano passado para alinhar-se com seu compromisso. Em vez disso, os estados membros parecem favorecer uma posição muito mais próxima da original da Comissão “varra tudo”. Mas também há divisões entre os estados membros sobre como proceder. E até agora, países suficientes se opuseram a textos de compromisso que lhes foram apresentados pela presidência do Conselho para concordar com um mandato.

Propostas que vazaram durante as discussões do Conselho sugerem que os governos dos estados membros ainda estão tentando preservar a capacidade de varredura em massa de conteúdo. Mas um texto de compromisso de maio de 2024 tentou ajustar a forma como isso foi apresentado — descrevendo eufemisticamente a exigência legal sobre as plataformas de mensagens como “moderação de upload”.

Isso provocou uma intervenção pública da presidente do Signal, Meredith Whittaker, que acusou os legisladores da UE de se entregarem a “jogos retóricos” na tentativa de obter apoio para a varredura em massa das comunicações dos cidadãos. Isso é algo que ela alertou em termos claros que “fundamentalmente minaria a criptografia”.

O texto que vazou para a imprensa naquela época também relatou que as plataformas de aplicativos de mensagens poderiam ser solicitadas a obter o consentimento de seus usuários para que seu conteúdo fosse escaneado. No entanto, os usuários que não concordassem com a triagem teriam recursos principais de seu aplicativo desativados, significando que não poderiam enviar imagens ou URLs.

Sob esse cenário, os usuários de aplicativos de mensagens na UE seriam essencialmente forçados a escolher entre proteger sua privacidade ou ter uma experiência moderna de aplicativo de mensagens. Qualquer um que optasse pela privacidade seria rebaixado a um conjunto básico de recursos de telefone básico de texto e áudio apenas. Sim, isso é realmente o que os legisladores regionais estão considerando.

Mais recentemente, há sinais de que o apoio pode estar diminuindo dentro do Conselho para pressionar pela vigilância em massa das mensagens dos cidadãos. No início deste mês, o Netzpolitik cobriu um anúncio do governo holandês dizendo que se absteria em outro compromisso ajustado, citando preocupações sobre as implicações para a E2EE, bem como os riscos de segurança apresentados pela varredura do lado do cliente.

No início deste mês, a discussão sobre a regulamentação também foi retirada de outra agenda do Conselho, aparentemente devido à falta de uma maioria qualificada.

Mas há um grande número de países da UE que continuam apoiando a pressão da Comissão pela varredura em massa das mensagens. E a atual presidência do Conselho da Hungria parece comprometida em continuar tentando encontrar um compromisso. Portanto, o risco não desapareceu.

Os estados membros ainda poderiam chegar a uma versão de uma proposta que satisfaça o suficiente de seus governos para abrir a porta para conversas com os eurodeputados, o que colocaria tudo em jogo no processo de discussões fechadas do trilogo da UE. Portanto, as apostas para os direitos dos cidadãos europeus — e a reputação do bloco como um campeão da privacidade — permanecem altas.

Fonte