Aqui está uma nova maneira de perder um argumento online: o apelo à IA

Ao longo dos últimos 20 anos como jornalista, vi e escrevi sobre várias coisas que mudaram irrevogavelmente minha visão da humanidade. Mas não foi até recentemente que algo me fez curto-circuitar.

Estou falando de um fenômeno que você também pode ter notado: o apelo à IA.

É bem provável que você tenha visto alguém usando o apelo à IA online, até mesmo ouvido em voz alta. É uma falácia lógica que pode ser resumida em três palavras: “Eu perguntei ao ChatGPT.”

Eu perguntei ao ChatGPT para me ajudar a descobrir minha doença misteriosa.

Eu perguntei ao ChatGPT para me dar conselhos duros que eles acham que eu mais preciso para crescer como pessoa.

Eu usei o ChatGPT para criar uma rotina de cuidados com a pele personalizada.

O ChatGPT forneceu um argumento de que o afastamento relacional de Deus (ou seja, a condenação) é necessariamente possível, com base em princípios lógicos e metafísicos abstratos, ou seja, o Meio Excluído, sem apelar para a natureza dos relacionamentos, amor genuíno, livre arbítrio ou respeito.

Tantas agências governamentais existem que até mesmo o governo não sabe quantas há! [baseado inteiramente em uma resposta do Grok, que está capturada na tela]

Nem todos os exemplos usam essa formulação exata, embora seja a maneira mais simples de resumir o fenômeno. As pessoas podem usar o Google Gemini, ou o Microsoft Copilot, ou sua namorada chatbot, por exemplo. Mas o elemento comum é colocar uma confiança reflexiva e injustificada em um sistema técnico que não foi projetado para fazer o que você está pedindo, e então esperar que outras pessoas também aceitem isso.

Se eu ainda comentasse em fóruns, isso seria o tipo de coisa que eu flamejaria.

E toda vez que vejo esse apelo à IA, meu primeiro pensamento é o mesmo: Você é estúpido ou algo assim? Por algum tempo, “Eu perguntei ao ChatGPT” como uma frase foi suficiente para me fazer desistir — eu não tinha mais interesse no que aquela pessoa tinha a dizer. Eu mentalmente arquivei isso ao lado das falácias lógicas, você conhece aquelas: o espantalho, o ad hominem, o Gish gallop e o nenhum verdadeiro escocês. Se eu ainda comentasse em fóruns, isso seria o tipo de coisa que eu flamejaria. Mas o apelo à IA está começando a acontecer com tanta frequência que vou apertar os dentes e tentar entendê-lo.

Começarei pelo mais simples: o exemplo Musk — o último — é um homem anunciando seu produto e engajando em propaganda ao mesmo tempo. Os outros são mais complexos.

Para começar, acho esses exemplos tristes. No caso da doença misteriosa, o escritor recorre ao ChatGPT para o tipo de atenção — e respostas — que eles não conseguiram obter de um médico. No caso do conselho de “amor duro”, o perguntador diz que está “chocado e surpreso com a precisão das respostas”, mesmo que as respostas sejam todas genéricas, que você pode obter de qualquer programa de rádio, até chegar a “os aplicativos de namoro não são o problema, seu medo de vulnerabilidade é.” No caso da rotina de cuidados com a pele, o escritor poderia muito bem ter obtido uma de uma revista feminina — não há nada especialmente sob medida sobre isso.

Quanto ao argumento sobre a condenação: o inferno é real e eu já estou aqui.

O texto do ChatGPT soa confiante, e as respostas são detalhadas. Isso não é o mesmo que estar certo, mas tem os significadores de estar certo.

Sistemas como o ChatGPT, como qualquer um familiarizado com grandes modelos de linguagem sabe, preveem respostas prováveis para os prompts gerando sequências de palavras com base em padrões em uma biblioteca de dados de treinamento. Há uma enorme quantidade de informações criadas por humanos online, e assim essas respostas estão frequentemente corretas: pergunte a ele “qual é a capital da Califórnia”, por exemplo, e ele responderá com Sacramento, mais uma frase desnecessária. (Entre minhas objeções menores ao ChatGPT: suas respostas soam como um aluno da sexta série tentando atingir um número mínimo de palavras.) Mesmo para consultas mais abertas como as acima, o ChatGPT pode construir uma resposta plausível com base nos dados de treinamento. O amor e os conselhos de cuidados com a pele são genéricos porque inúmeros escritores online deram conselhos exatamente assim.

O problema é que o ChatGPT não é confiável. O texto do ChatGPT soa confiante, e as respostas são detalhadas. Isso não é o mesmo que estar certo, mas tem os significadores de estar certo. Não é sempre obviamente incorreto, particularmente quando se trata de respostas — como com o conselho de amor — onde o perguntador pode facilmente projetar. O viés de confirmação é real e verdadeiro e meu amigo. Já escrevi sobre os tipos de problemas que as pessoas encontram quando confiam em um sistema de autopredição com perguntas factuais complexas. No entanto, apesar de quão frequentemente esses problemas surgem, as pessoas continuam fazendo exatamente isso.

Como se estabelece a confiança é uma questão espinhosa. Como jornalista, gosto de mostrar meu trabalho — digo a você quem disse o quê para mim quando, ou mostro o que fiz para tentar confirmar que algo é verdade. Com os perdões presidenciais falsos, mostrei quais fontes primárias usei para que você pudesse fazer uma consulta você mesmo.

Mas a confiança também é uma heurística, uma que pode ser facilmente abusada. Em fraudes financeiras, por exemplo, a presença de um fundo de capital de risco específico em uma rodada pode sugerir a outros fundos de capital de risco que alguém já fez a devida diligência necessária, levando-os a pular o processo intensivo por conta própria. Um apelo à autoridade depende da confiança como uma heurística — é uma medida prática, embora às vezes falha, que pode economizar trabalho.

Há quanto tempo ouvimos os capitães da indústria dizer que a IA será capaz de pensar em breve?

A pessoa perguntando sobre a doença misteriosa está fazendo um apelo à IA porque os humanos não têm respostas e eles estão desesperados. A questão dos cuidados com a pele parece pura preguiça. Com a pessoa pedindo conselhos sobre amor, eu apenas me pergunto como eles chegaram ao ponto em suas vidas em que não tinham uma pessoa humana para perguntar — como foi que eles não tinham um amigo que assistisse a eles interagirem com outras pessoas. Com a questão do inferno, há um cheiro de “a máquina considerou a condenação lógica”, o que é simplesmente embaraçoso.

O apelo à IA é distinto das histórias de “eu perguntei ao ChatGPT” sobre, digamos, contar os “r”s em “morango” — não é testar os limites do chatbot ou se engajar com ele de alguma outra maneira autoconsciente. Existem talvez duas maneiras de entender isso. A primeira é “eu perguntei à caixa mágica de respostas e ela me disse”, no mesmo tom de “bem, o Oráculo de Delfos disse…”. A segunda é, “eu perguntei ao ChatGPT e não posso ser responsabilizado se estiver errado.”

A segunda é preguiçosa. A primeira é alarmante.

Sam Altman e Elon Musk, entre outros, compartilham a responsabilidade pelo apelo à IA. Há quanto tempo ouvimos os capitães da indústria dizer que a IA será capaz de pensar em breve? Que ela superará os humanos e tomará nossos empregos? Há uma lógica bovina em jogo aqui: Elon Musk e Sam Altman são muito ricos, então eles devem ser muito inteligentes — eles são mais ricos do que você, e portanto são mais inteligentes do que você. E eles estão dizendo que a IA pode pensar. Por que você não acreditaria neles? E além disso, o mundo não é muito mais legal se eles estiverem certos?

Infelizmente para o Google, o ChatGPT é uma bola de cristal mais bonita.

Há também uma grande recompensa de atenção por fazer uma história de apelo à IA; a história inane do chatbot Bing de Kevin Roose é um exemplo. Claro, é crédula e tola — mas ver os comentaristas falharem no teste do espelho tende a atrair a atenção das pessoas. (Tanto assim, na verdade, que Roose depois escreveu uma segunda história onde perguntou aos chatbots o que eles pensavam sobre ele.) Nas redes sociais, há um incentivo para colocar o apelo à IA em primeiro plano para engajamento; há toda uma seita de influenciadores de IA estranhos que estão mais do que felizes em impulsionar essas coisas. Se você fornecer recompensas sociais para comportamentos estúpidos, as pessoas se envolverão em comportamentos estúpidos. É assim que as modas funcionam.

Há mais uma coisa e é o Google. O Google Search começou como um diretório online incomumente bom, mas por anos, o Google incentivou a vê-lo como uma bola de cristal que fornece a única resposta verdadeira sob comando. Esse foi o ponto dos Snippets antes do surgimento da IA generativa, e agora, a integração de respostas de IA deu um passo ainda mais longe.

Infelizmente para o Google, o ChatGPT é uma bola de cristal mais bonita. Digamos que eu queira substituir a borracha dos meus limpadores de para-brisa. Um retorno de pesquisa do Google para “substituir borracha do limpador de para-brisa” me mostra uma ampla variedade de lixo, começando com a visão geral da IA. Ao lado está um vídeo do YouTube. Se eu rolar mais para baixo, há um snippet; ao lado dele está uma foto. Abaixo disso estão pesquisas sugeridas, depois mais sugestões de vídeo, depois respostas de fóruns do Reddit. É ocupado e bagunçado.

Agora vamos para o ChatGPT. Perguntando “Como eu substituo a borracha do limpador de para-brisa?” obtenho um layout mais limpo: uma resposta com subtítulos e etapas. Não tenho nenhum link imediato para fontes e nenhuma maneira de avaliar se estou recebendo um bom conselho — mas tenho uma resposta clara, que soa autoritária, em uma interface limpa. Se você não sabe ou não se importa como as coisas funcionam, o ChatGPT parece melhor.

Acontece que o futuro foi previsto por Jean Baudrillard o tempo todo.

O apelo à IA é o exemplo perfeito da lei de Arthur Clarke: “Qualquer tecnologia suficientemente avançada é indistinguível da mágica.” A tecnologia por trás de um LLM é suficientemente avançada porque as pessoas que a utilizam não se deram ao trabalho de entendê-la. O resultado foi um novo e deprimente gênero de história de notícias: a pessoa depende da IA generativa apenas para obter resultados inventados. Também acho deprimente que não importa quantos desses haja — sejam perdões presidenciais falsos, citações falsas, jurisprudência inventada ou citações de filmes fabricadas — eles parecem não ter impacto. Inferno, até mesmo a cola na pizza não impediu “Eu perguntei ao ChatGPT.”

Que isso seja uma máquina de bullshit — no sentido filosófico — não parece incomodar muitos perguntadores. Um LLM, por sua natureza, não pode determinar se o que está dizendo é verdadeiro ou falso. (Pelo menos um mentiroso sabe qual é a verdade.) Ele não tem acesso ao mundo real, apenas a representações escritas do mundo que “vê” através de tokens.

Portanto, o apelo à IA, então, é o apelo aos significadores de autoridade. O ChatGPT soa confiante, mesmo quando não deveria, e suas respostas são detalhadas, mesmo quando estão erradas. A interface é limpa. Você não precisa fazer uma chamada de julgamento sobre qual link clicar. Alguns caras ricos disseram a você que isso seria mais inteligente do que você em breve. Um repórter do New York Times está fazendo exatamente isso. Então, por que pensar, quando o computador pode fazer isso por você?

Não consigo dizer quanta disso é confiança ingênua e quanta é puro niilismo de luxo. De certa forma, “o robô me dirá a verdade” e “ninguém nunca consertará nada e o Google está errado de qualquer maneira, então por que não confiar no robô” equivalem à mesma coisa: uma falta de fé no esforço humano, um desprezo pelo conhecimento humano e a incapacidade de confiar em nós mesmos. Não posso deixar de sentir que isso está indo a algum lugar muito sombrio. Pessoas importantes estão falando sobre proibir a vacina contra a poliomielite. Residentes de Nova Jersey estão apontando lasers para aviões durante o período de viagem mais movimentado do ano. Toda a eleição presidencial estava cheia de teorias da conspiração. Além disso, não é mais divertido se os alienígenas são reais, se há um cabal secreto controlando o mundo e se a IA é realmente inteligente?

Nesse contexto, talvez seja fácil acreditar que há uma caixa mágica de respostas no computador, e que ela é totalmente autoritária, assim como nosso velho amigo a Sibila de Delfos. Se você acredita que o computador é infalivelmente conhecedor, está pronto para acreditar em qualquer coisa. Acontece que o futuro foi previsto por Jean Baudrillard o tempo todo: quem precisa da realidade quando temos significadores? O que a realidade já fez por mim, de qualquer maneira?

Fonte

Compartilhe esse conteúdo: