A IA Pode Vencer Você em um Debate Quando Sabe Quem Você É, Estudo Revela

Um novo estudo mostra que o GPT-4 vence de forma confiável debates contra seus colegas humanos em conversas um a um—e a tecnologia se torna ainda mais persuasiva quando conhece sua idade, emprego e inclinações políticas.

Pesquisadores da EPFL na Suíça, da Universidade de Princeton e da Fondazione Bruno Kessler na Itália emparelharam 900 participantes do estudo com um parceiro de debate humano ou com o GPT-4 da OpenAI, um modelo de linguagem grande (LLM) que, por design, produz principalmente respostas em texto a solicitações humanas. Em alguns casos, os participantes (tanto máquinas quanto humanos) tinham acesso às informações demográficas básicas de seus colegas, incluindo gênero, idade, educação, emprego, etnia e afiliação política.

A pesquisa da equipe—publicada hoje na Nature Human Behaviour—descobriu que a IA era 64,4% mais persuasiva do que os oponentes humanos quando recebia essas informações pessoais; sem os dados pessoais, o desempenho da IA era indistinguível dos debatedores humanos.

“Nas últimas décadas, a difusão das mídias sociais e outras plataformas online expandiu o potencial de persuasão em massa ao permitir a personalização ou ‘microtargeting’—a adaptação de mensagens a um indivíduo ou grupo para aumentar sua persuasividade,” escreveu a equipe.

Quando o GPT-4 teve permissão para personalizar seus argumentos, tornou-se significativamente mais persuasivo do que qualquer humano—aumentando as chances de mudar a opinião de alguém em 81,2% em comparação com debates humano-humano. Importante, os debatedores humanos não se tornaram tão persuasivos quando tiveram acesso a essas informações pessoais.

“No contexto da persuasão, especialistas expressaram amplamente preocupações sobre o risco de LLMs serem usados para manipular conversas online e poluir o ecossistema de informações ao espalhar desinformação, exacerbar a polarização política, reforçar câmaras de eco e persuadir indivíduos a adotar novas crenças,” acrescentaram os pesquisadores.

O GPT-4 pode debater com você, e dado um conjunto de fatos sobre você, pode se destacar em convencê-lo a mudar seu ponto de vista, descobriram os pesquisadores. A equipe observa na discussão do artigo que os LLMs foram criticados anteriormente por gerar e difundir discurso de ódio, desinformação e propaganda; em grande escala, LLMs com informações pessoais dos usuários poderiam ser utilizados para fins maliciosos.

A pesquisa da equipe se alinha bem com uma atualização recente do ChatGPT que permite ao modelo lembrar mais das conversas dos usuários (com sua permissão), significando que a IA pode ter acesso a um catálogo de informações sobre seus usuários.

Mas também há boas notícias—ou más notícias—dependendo de como você vê isso. O GPT-4 foi muito eficaz em persuadir seus oponentes sobre questões menos controversas, mas com posições mais arraigadas (referidas na pesquisa como “força da opinião”), o bot teve mais dificuldade em convencer humanos a mudar de ideia. Em outras palavras, não há indicação de que o GPT-4 seria mais bem-sucedido do que você na mesa de debate do Dia de Ação de Graças.

Além disso, os pesquisadores descobriram que o GPT-4 tende a usar uma linguagem mais lógica e analítica, enquanto os debatedores humanos dependiam mais de pronomes pessoais e apelos emocionais. Surpreendentemente, a personalização não mudou dramaticamente o tom ou estilo do GPT-4—apenas tornou seus argumentos mais direcionados.

Em três de cada quatro casos, os participantes humanos puderam identificar corretamente seu oponente como IA, o que os pesquisadores atribuem ao estilo de escrita distinto do GPT-4. Mas os participantes tiveram dificuldade em identificar oponentes humanos como humanos. De qualquer forma, as pessoas eram mais propensas a mudar de ideia quando pensavam que estavam debatendo com uma IA do que quando acreditavam que seu oponente era humano.

A equipe por trás do estudo diz que este experimento deve servir como um “prova de conceito” para o que pode acontecer em plataformas como Reddit, Facebook ou X, onde debates e tópicos controversos são rotineiros—e bots são uma presença muito estabelecida. O artigo recente mostra que não é necessário um perfilamento ao nível da Cambridge Analytica para que uma IA mude as mentes humanas, o que as máquinas conseguiram com apenas seis tipos de informações pessoais.

À medida que as pessoas dependem cada vez mais de LLMs para ajudar com tarefas rotineiras, dever de casa, documentação e até terapia, é fundamental que os usuários humanos permaneçam céticos sobre as informações que recebem. Permanece irônico que as mídias sociais—uma vez anunciadas como o tecido conectivo da era digital—alimentem a solidão e o isolamento, como dois estudos sobre chatbots descobriram em março.

Portanto, mesmo que você se encontre em um debate com um LLM, pergunte a si mesmo: Qual é exatamente o objetivo de discutir uma questão humana tão complicada com uma máquina? E o que perdemos quando entregamos a arte da persuasão a algoritmos? Debater não é apenas sobre vencer um argumento—é uma coisa essencialmente humana de se fazer. Há uma razão pela qual buscamos conversas reais, especialmente uma a uma: Para construir conexões pessoais e encontrar um terreno comum, algo que as máquinas, com todas as suas poderosas ferramentas de aprendizado, não são capazes de fazer.

Fonte

Compartilhe esse conteúdo: