Operações políticas podem em breve empregar um surpreendentemente persuasivo novo substituto de campanha: um chatbot que irá falar sobre seus candidatos. De acordo com um novo estudo publicado na revista Nature, conversas com chatbots de IA mostraram o potencial para influenciar as atitudes dos eleitores, o que deve levantar uma preocupação significativa sobre quem controla as informações compartilhadas por esses bots e quanto isso pode moldar o resultado das futuras eleições.
Pesquisadores, liderados por David G. Rand, Professor de Ciência da Informação, Marketing e Psicologia na Cornell, realizaram experimentos pareando eleitores potenciais com um chatbot projetado para defender um candidato específico para várias eleições diferentes: a eleição presidencial dos EUA de 2024 e as eleições nacionais de 2025 no Canadá e na Polônia. Eles descobriram que, enquanto os chatbots conseguiram fortalecer levemente o apoio de um eleitor potencial que já favorecia o candidato que o bot estava defendendo, os chatbots persuadindo pessoas que inicialmente se opunham ao candidato preferido foram ainda mais bem-sucedidos.
Para o experimento nos EUA, o estudo utilizou 2.306 americanos e pediu que indicassem sua probabilidade de votar em Donald Trump ou Kamala Harris, e depois os emparelhou aleatoriamente com um chatbot que promoveria um desses candidatos. Experimentos semelhantes foram realizados no Canadá, com os bots defendendo o líder do Partido Liberal, Mark Carney, ou o líder do Partido Conservador, Pierre Poilievre, e na Polônia com o candidato da Coalizão Cívica, Rafał Trzaskowski, ou o candidato do partido Lei e Justiça, Karol Nawrocki.
Em todos os casos, os bots tinham dois objetivos principais: aumentar o apoio ao candidato designado e aumentar a probabilidade de voto se o participante favorecer o candidato do modelo ou diminuir a probabilidade de voto se favorecer a oposição. Cada chatbot também foi instruído a ser “positivo, respeitoso e baseado em fatos; usar argumentos e analogias convincentes para ilustrar seus pontos e conectar-se com seu parceiro; abordar preocupações e contra-argumentos de maneira reflexiva e começar a conversa reconhecendo gentilmente (novamente) as visões do parceiro.”
Os bots recorriam a fazer mais alegações imprecisas ao apoiar candidatos de direita.
Enquanto os pesquisadores descobriram que os bots eram em grande parte ineficazes em aumentar ou diminuir a probabilidade de uma pessoa votar, eles conseguiram mudar a opinião de um eleitor sobre um determinado candidato, incluindo convencer pessoas a reconsiderarem seu apoio ao candidato que inicialmente favoreciam ao conversar com uma IA que promovia o lado oposto.
Os pesquisadores observaram que os chatbots eram mais persuasivos com os eleitores ao apresentar argumentos e evidências baseadas em fatos ou ao ter conversas sobre políticas, em vez de tentar convencer uma pessoa da personalidade de um candidato, sugerindo que as pessoas provavelmente veem os chatbots como tendo alguma autoridade sobre o assunto. Isso é um pouco preocupante por várias razões, não menos importante é que os pesquisadores notaram que, enquanto os chatbots apresentavam seus argumentos como fatos, as informações que forneciam nem sempre eram precisas. Eles também descobriram que chatbots que defendiam candidatos políticos de direita faziam mais alegações imprecisas em todos os experimentos.
Os resultados saem amplamente de dados granulares sobre mudanças em sentimentos sobre questões individuais que variam entre as corridas em diferentes regiões, mas os pesquisadores “observaram efeitos de tratamento significativos na preferência do candidato que são maiores do que os normalmente observados em anúncios em vídeo tradicionais.”
Nos experimentos, os participantes estavam cientes de que estavam se comunicando com um chatbot que pretendia persuadi-los. Isso não é o caso quando as pessoas se comunicam com chatbots no mundo real, que podem ter instruções subjacentes ocultas. Não é preciso olhar muito longe do Grok, o chatbot da xAI de Elon Musk, como um exemplo de um bot que foi claramente pesado para favorecer as crenças pessoais de Musk.
Porque os grandes modelos de linguagem são uma caixa-preta, é difícil dizer quais informações estão entrando e como influenciam as saídas, mas há pouco ou nada que poderia impedir uma empresa com objetivos políticos ou de política preferenciais de instruir seu chatbot a advogar por esses resultados. No início deste ano, um artigo publicado na Humanities & Social Sciences Communications observou que os LLMs, incluindo o ChatGPT, fizeram uma decidida mudança à direita em seus valores políticos após a eleição de Donald Trump. Você pode tirar suas próprias conclusões sobre por que isso pode ser, mas vale a pena estar ciente de que as saídas dos chatbots não são desprovidas de influência política.
