Por que o algoritmo do ChatGPT ‘pensa’ em chinês?

A OpenAI recentemente revelou um novo algoritmo, o1, que a empresa chama de seu modelo de “raciocínio”. A ideia por trás do algoritmo é que ele passa “mais tempo pensando” antes de responder, assim entregando melhores respostas. No entanto, o algoritmo parece “pensar” não apenas em inglês, mas em várias outras línguas. Usuários da web recentemente notaram que o programa estava exibindo aleatoriamente caracteres chineses, bem como código que parecia estar escrito em várias outras línguas.

A maioria das pessoas prestará atenção apenas na saída final que o ChatGPT produz, mas os usuários têm a opção de ver como o modelo está raciocinando para chegar a uma resposta. É aí que muitas pessoas notaram que o LLM havia começado a incorporar mandarim e cantonês em seu processo.

“Por que o o1 pro começou a pensar em chinês aleatoriamente?” perguntou Rishab Jain, via X. “Nenhuma parte da conversa (mais de 5 mensagens) estava em chinês… muito interessante… influência dos dados de treinamento.”

Antes disso, em 5 de janeiro, outro usuário da web, Nero, escreveu no X: “uhmm, por que meu gpt o1 está pensando em chinês, lol.” Ele marcou tanto a OpenAI quanto o ChatGPT em sua mensagem, mas não recebeu resposta.

A resposta óbvia pareceria ser que o algoritmo foi provavelmente treinado em grandes quantidades de dados chineses e, assim, esses dados estão influenciando a saída do algoritmo.

“Explicações mais prováveis – certos idiomas podem oferecer eficiências de tokenização ou mapeamentos mais fáceis para tipos específicos de problemas,” disse Rohan Paul, um engenheiro de IA. “Portanto, o o1 pode estar trocando de idiomas porque sua representação interna do conhecimento descobre que usar chinês pode levar a caminhos de computação mais otimizados ao lidar com certos problemas.”

Outro comentarista online, Raj Mehta, deu uma explicação semelhante: “o1, como muitos grandes modelos de linguagem (LLMs), opera em um espaço latente compartilhado onde os conceitos são abstratos, não atados a idiomas específicos. Ele pode “raciocinar” na língua que mapeia de forma mais eficiente para o problema em questão.”

A Gizmodo entrou em contato com a OpenAI para comentar, mas não recebeu uma explicação imediata.

Há muita especulação voando sobre por que isso está acontecendo, embora a TechCrunch tenha entrevistado Luca Soldaini, um cientista de pesquisa do Allen Institute for AI, que parecia oferecer a melhor resposta para o enigma. Soldaini disse que, devido à natureza opaca dos algoritmos da empresa, realmente não há como saber por que o programa está se comportando da maneira que está. “Esse tipo de observação em um sistema de IA implantado é impossível de confirmar devido à opacidade desses modelos,” disse Soldaini ao veículo. “É um dos muitos casos que mostram por que a transparência na forma como os sistemas de IA são construídos é fundamental.”

De fato, a natureza de caixa-preta dos algoritmos de IA corporativa é particularmente irônica, dado a missão autodeclarada da OpenAI de desenvolvimento tecnológico transparente. “A OpenAI não é tão aberta, o que significa que quando seus algoritmos fazem coisas estranhas, como falar chinês, tudo o que podemos realmente fazer é coçar a cabeça e nos perguntar por quê.

Fonte

Compartilhe esse conteúdo: