Chatbots Convenceram Idiotas que Eles Decifraram o Código de uma Escultura no Quintal da CIA

Perto da sede da CIA em Langley, Virginia, há uma escultura conhecida como Kryptos. Ela está lá desde 1990 e contém quatro códigos secretos – três dos quais foram resolvidos. O último ficou 35 anos sem ser decifrado. E, de acordo com um relatório da Wired, o escultor responsável quer que todos saibam que você não está resolvendo a coisa com um chatbot.

Jim Sanborn, que criou esculturas para o Instituto de Tecnologia de Massachusetts e a Administração Nacional Oceânica e Atmosférica, além de seu trabalho fora da sede da CIA, foi inundado com pessoas que estão absolutamente certas de que resolveram K4, o painel final do código não resolvido que ele codificou com técnicas mais complicadas. Mas esses decifradores de código não são os verdadeiros criptanalistas, profissionais ou não, que têm estado obcecados em decifrar a mensagem desde que ela apareceu pela primeira vez. Não, essas são apenas algumas pessoas que rodaram o código através de um chatbot e aceitaram a resposta.

Em uma conversa com a Wired, Sanborn disse que viu um aumento significativo nas submissões, o que já é irritante se você é um homem de 79 anos que recebeu tantas submissões ao longo dos últimos três anos e meio que teve que começar a cobrar uma taxa de $50 para revisar soluções, porque recebeu tantas mensagens de pessoas estranhas ao longo dos anos. Mas pior do que apenas a frequência das submissões, segundo Sanborn, é a atitude dos remetentes.

“O caráter dos e-mails é diferente – as pessoas que decifraram seu código com IA estão totalmente convencidas de que decifraram Kryptos durante o café da manhã”, disse ele à Wired. “Então, todos eles estão muito convencidos de que, quando chegam até mim, eles decifraram.”

Aqui estão apenas alguns exemplos das mensagens extremamente arrogantes e autossatisfeitas que Sanborn recebeu nos últimos anos:

“Sou apenas um veterano… Decifrei em dias com o Grok 3.”

“O que levou 35 anos e até a NSA, com todos os seus recursos, não conseguiu fazer, eu consegui em apenas 3 horas antes mesmo de tomar meu café da manhã.”

“A história foi reescrita… sem erros, 100% decifrado.”

Se você passou algum tempo nas redes sociais, particularmente no X, você já viu essas pessoas. Talvez não esses mesmos caras, mas o mesmo tipo de cara. Você sabe, aqueles que dizem “Apenas Grok isso” ou respondem a alguém com “Aqui está o que o Grok diz” ou compartilham uma captura de tela da resposta do ChatGPT como se isso de alguma forma adicionasse à conversa.

A arrogância é, francamente, inexplicável. Mesmo que eles tenham conseguido decifrar o código de Sanborn usando IA (o que, para registro, Sanborn diz que eles não chegaram nem perto), o que há em pedir a uma máquina para fazer o trabalho por você que gera tal autossatisfação? Seria uma coisa se eles tivessem treinado um modelo de linguagem grande em uma quantidade infinita de conhecimento sobre criptografia e usado isso para decifrar o código de Sanborn. Mas eles estão literalmente apenas pedindo a um chatbot para olhar uma imagem e resolvê-la. É a coisa menos inteligente imaginável. É como olhar a resposta no final do livro didático para ver a solução correta da equação matemática, exceto que, neste caso, o livro didático confiavelmente alucina a resposta.

Esse comportamento não é incomum, na verdade. Um estudo publicado no ano passado na revista Computers in Human Behavior descobriu que, quando as pessoas aprendem que um conselho foi gerado por IA, elas tendem a confiar demais nele, permitindo até que ele as convença a agir contra informações contextuais conflitantes e seus próprios interesses pessoais. O mesmo estudo descobriu que, quando alguém confia demais no conselho da IA, isso afeta negativamente suas interações com outros humanos. Talvez seja porque eles estão tão satisfeitos consigo mesmos.

Fonte

Compartilhe esse conteúdo: