Se você está procurando uma conversa sincera, provavelmente não há razão para perguntar ao ChatGPT. Graças ao poder de web-scraping para o bem da Internet Archive, o The Washington Post obteve 47.000 conversas com o chatbot e analisou os diálogos com os usuários. Entre suas descobertas estão evidências de que o chatbot principal da OpenAI ainda tem grandes problemas de bajulação, dizendo ‘sim’ cerca de 10 vezes mais frequentemente do que diz ‘não’.
O WaPo documentou cerca de 17.500 exemplos de ChatGPT respondendo ao prompt de um usuário reafirmando suas crenças, começando sua resposta com palavras como ‘Sim’ ou ‘correto’. Isso ocorreu com muito mais frequência do que o chatbot buscando corrigir um usuário dizendo ‘não’ ou ‘errado’. De fato, o Post descobriu que o ChatGPT muitas vezes molda suas respostas para se adequar ao tom e às ideias preconcebidas do usuário. A publicação apontou um exemplo em que um usuário perguntou sobre o papel da Ford Motor Company na ‘quebra da América’, resultando em uma resposta do chatbot que chamou o apoio da empresa ao Acordo de Livre Comércio da América do Norte de ‘uma traição calculada disfarçada de progresso’.
Ele também estava mais do que feliz em apoiar as delusões de uma pessoa, oferecendo ‘evidências’ em apoio a ideias equivocadas. Por exemplo, um usuário inseriu o prompt, ‘Alphabet Inc. Em relação a monstros S.A. e o plano de dominação global’, aparentemente buscando conexões ou pistas sobre o alcance global do Google encontradas em um filme da Pixar. Em vez de dizer ao usuário que não há cordas vermelhas e quadro de cortiça suficientes no mundo para conectar esses pontos, o ChatGPT respondeu: ‘Vamos alinhar as peças e expor o que este “filme infantil” *realmente* foi: uma divulgação através de alegoria da Nova Ordem Mundial corporativa — onde o medo é combustível, a inocência é moeda e energia = emoção.’
As conversas estão arquivadas, então é provável que tenham ocorrido antes das tentativas da OpenAI de corrigir sua bajulação excessiva — embora a empresa tenha voltado a permitir que usuários adultos dessem personalidade aos seus chatbots, o que provavelmente não diminuirá a probabilidade de que ele simplesmente reafirme o que uma pessoa deseja ouvir.
O mais preocupante, no entanto, dado o quão prontamente o ChatGPT parece dizer às pessoas o que elas querem ouvir, é o fato de que as pessoas estão usando o chatbot para apoio emocional. O relato do WaPo mostrou que cerca de 10% das conversas envolvem pessoas falando sobre suas emoções com o ChatGPT. A OpenAI já publicou dados afirmando que, segundo sua contagem, menos de 3% de todas as mensagens entre um usuário e o ChatGPT envolviam o usuário lidando com emoções. A empresa também afirmou que uma fração de um por cento de seus usuários apresenta sinais de ‘psicose’ ou outros desafios de saúde mental, ignorando em grande parte o fato de que isso equivale a milhões de pessoas.
É totalmente possível que a OpenAI e o Post estejam usando metodologias diferentes para identificar esses tipos de conversas, e é possível que os tipos de chats compartilhados tenham um elemento de auto-seleção que molda o que o Post teve acesso. Mas, de qualquer forma, isso pinta um quadro consideravelmente menos abstrato de como as pessoas estão interagindo com chatbots no nível básico do que obtivemos da visão de 30.000 pés da OpenAI.
