A desinformação está se espalhando a uma velocidade alarmante, em grande parte devido às ferramentas de IA disponíveis publicamente. Em uma pesquisa recente, 85% das pessoas disseram que se preocupam com a desinformação online, e o Fórum Econômico Mundial nomeou a desinformação gerada por IA como um dos principais riscos globais.
Alguns exemplos de alto perfil de campanhas de desinformação este ano incluem uma rede de bots no X visando as eleições federais dos EUA, e uma deepfake de mensagem de voz do presidente Joe Biden desencorajando certos residentes a votarem. No exterior, candidatos em países do sul da Ásia inundaram a web com vídeos, imagens e artigos de notícias falsos. Uma deepfake do prefeito de Londres, Sadiq Khan, até incitou violência em uma marcha pró-Palestina.
Então, o que pode ser feito?
Bem, a IA pode ajudar a combater a desinformação, assim como criá-la, afirma Pamela San Martín, co-presidente do Conselho de Supervisão da Meta. Estabelecido em 2020, o Conselho é uma organização semi-autônoma que revisa reclamações sobre as políticas de moderação da Meta e emite recomendações sobre suas políticas de conteúdo.
San Martín reconhece que a IA não é perfeita. Por exemplo, o produto de IA da Meta erroneamente sinalizou postagens do Museu de Auschwitz como ofensivas e classificou indevidamente sites de notícias independentes como spam. Mas ela está convencida de que isso melhorará com o tempo.
“A maioria do conteúdo nas redes sociais é moderada por automação, e a automação usa IA para sinalizar certos conteúdos para que sejam revisados por humanos ou para sinalizar certos conteúdos para serem ‘acionados’ — colocando uma tela de aviso, removendo, rebaixando nos algoritmos, etc.”, disse San Martín na semana passada durante um painel sobre desinformação em IA no TechCrunch Disrupt 2024. “É esperado que [os modelos de moderação de IA] melhorem, e se eles melhorarem, podem se tornar muito úteis para abordar [a desinformação].”
Claro, com o custo de semear desinformação diminuindo graças à IA, é possível que mesmo modelos de moderação aprimorados não consigam acompanhar.
Outro participante do painel, Imran Ahmed, CEO do Centro para Combater o Ódio Digital, também observou que os feeds sociais que amplificam conteúdo desinformativo agravam seus danos. Plataformas como o X efetivamente incentivam a desinformação por meio de programas de compartilhamento de receita — o BBC relatou que o X está pagando usuários milhares de dólares por postagens bem-sucedidas que incluem teorias da conspiração e imagens geradas por IA.
“Você tem uma máquina de desinformação perpétua”, disse Ahmed. “Isso é bastante preocupante. Não tenho certeza se deveríamos criar isso dentro de democracias que dependem de um certo grau de verdade.”
San Martín argumentou que o Conselho de Supervisão teve algum impacto aqui, por exemplo, incentivando a Meta a rotular conteúdo gerado por IA enganoso. O Conselho de Supervisão também sugeriu que a Meta facilite a identificação de casos de imagens deepfake sexuais não consensuais, um problema crescente.
Mas tanto Ahmed quanto a panelista Brandie Nonnecke, professora da UC Berkeley que estuda a interseção da tecnologia emergente e direitos humanos, contestaram a noção de que o Conselho de Supervisão e a autorregulação, de forma geral, podem sozinhos conter a maré da desinformação.
“Fundamentalmente, a autorregulação não é regulação, porque o Conselho de Supervisão em si não pode responder às cinco perguntas fundamentais que você deve sempre fazer a alguém que tem poder”, disse Ahmed. “Que poder você tem, quem lhe deu esse poder, em benefício de quem você exerce esse poder, a quem você é responsável e como podemos nos livrar de você se você não estiver fazendo um bom trabalho. Se a resposta a cada uma dessas perguntas é [Meta], então você não é qualquer tipo de verificação ou equilíbrio. Você é meramente um pouco de marketing.”
A opinião de Ahmed e Nonnecke não é uma opinião marginal. Em uma análise em junho, o Brennan Center da NYU escreveu que o Conselho de Supervisão está confinado a influenciar apenas uma fração das decisões da Meta porque a empresa controla se deve implementar mudanças de política e não fornece acesso a seus algoritmos.
A Meta também ameaçou privadamente reduzir o apoio ao Conselho de Supervisão, destacando a natureza precária das operações do conselho. Embora o Conselho de Supervisão seja financiado por um fundo irrevogável, a Meta é o único contribuinte desse fundo.
Em vez de autorregulação — que plataformas como o X são improváveis de adotar em primeiro lugar — Ahmed e Nonnecke veem a regulamentação como a solução para o dilema da desinformação. Nonnecke acredita que a responsabilidade por produtos defeituosos é uma maneira de responsabilizar as plataformas, já que a doutrina mantém as empresas responsáveis por lesões ou danos causados por seus produtos “defeituosos”.
Nonnecke também apoiou a ideia de conteúdo de IA com marca d’água para que seja mais fácil saber qual conteúdo foi gerado por IA. (A marca d’água tem seus próprios desafios, é claro.) Ela sugeriu que provedores de pagamento poderiam bloquear compras de desinformação de natureza sexual e que hospedagens de sites poderiam dificultar a inscrição de maus atores em planos.
Os formuladores de políticas que tentam trazer a indústria ao controle sofreram revezes recentemente nos EUA. Em outubro, um juiz federal bloqueou uma lei da Califórnia que obrigaria os operadores de deepfakes de IA a removê-los ou enfrentar possíveis penalidades monetárias.
Mas Ahmed acredita que há motivos para otimismo. Ele citou movimentos recentes de empresas de IA como a OpenAI para marcar suas imagens geradas por IA e leis de moderação de conteúdo como a Lei de Segurança Online no Reino Unido.
“É inevitável que haverá necessidade de regulamentação para algo que pode causar tanto dano às nossas democracias — à nossa saúde, às nossas sociedades, a nós como indivíduos”, disse Ahmed. “Acho que há enormes razões para esperança.”