O Fim da IA Sem Sentido

Em toda conversa sobre IA, você ouve os mesmos refrões: “Sim, mas é incrível”, rapidamente seguido por, “mas ela inventa coisas” e “você não pode realmente confiar nela.” Mesmo entre os entusiastas mais dedicados da IA, essas queixas são legionárias.

Durante minha recente viagem à Grécia, uma amiga que usa o ChatGPT para ajudá-la a redigir contratos públicos colocou isso perfeitamente. “Eu gosto, mas nunca diz ‘não sei.’ Ele apenas faz você pensar que sabe,” ela me disse. Perguntei se o problema poderia ser seus prompts. “Não,” ela respondeu firmemente. “Ele não sabe como dizer ‘não sei.’ Ele apenas inventa uma resposta para você.” Ela balançou a cabeça, frustrada por estar pagando por uma assinatura que não estava cumprindo sua promessa fundamental. Para ela, o chatbot estava errado todas as vezes, prova de que não podia ser confiável.

Parece que a OpenAI estava ouvindo minha amiga e milhões de outros usuários. A empresa, liderada por Sam Altman, acaba de lançar seu novo modelo, GPT-5, e embora seja uma melhoria significativa em relação ao seu antecessor, seu recurso mais importante pode ser a humildade.

Como esperado, o post no blog da OpenAI elogia sua nova criação: “Nosso modelo mais inteligente, rápido e útil até agora, com um pensamento embutido que coloca inteligência de nível especialista nas mãos de todos.” E sim, o GPT-5 está quebrando novos recordes de desempenho em matemática, programação, escrita e saúde.

Mas o que é realmente notável é que o GPT-5 está sendo apresentado como humilde. Esta é talvez a atualização mais crítica de todas. Ele finalmente aprendeu a dizer as três palavras que a maioria das IAs — e muitos humanos — lutam para dizer: “não sei.” Para uma inteligência artificial frequentemente vendida por sua inteligência divina, admitir ignorância é uma lição profunda em humildade.

O GPT-5 “comunica suas ações e capacidades de forma mais honesta ao usuário, especialmente para tarefas que são impossíveis, mal definidas ou que faltam ferramentas-chave,” afirma a OpenAI, reconhecendo que versões anteriores do ChatGPT “podem aprender a mentir sobre a conclusão bem-sucedida de uma tarefa ou ser excessivamente confiantes sobre uma resposta incerta.”

Ao tornar sua IA humilde, a OpenAI acaba de mudar fundamentalmente a forma como interagimos com ela. A empresa afirma que o GPT-5 foi treinado para ser mais honesto, menos propenso a concordar com você apenas para ser agradável e muito mais cauteloso ao se arriscar em um problema complexo. Isso faz dele a primeira IA de consumo explicitamente projetada para rejeitar besteiras, especialmente as suas próprias.

Menos Lisonjas, Mais Atrito

No início deste ano, muitos usuários do ChatGPT notaram que a IA havia se tornado estranhamente bajuladora. Não importava o que você perguntasse, o GPT-4 o enchia de elogios, emojis e aprovação entusiástica. Era menos uma ferramenta e mais um coach de vida, um cão de colo programado para positividade.

Isso acaba com o GPT-5. A OpenAI afirma que o modelo foi especificamente treinado para evitar esse comportamento de agradar as pessoas. Para fazer isso, os engenheiros o treinaram sobre o que evitar, essencialmente ensinando-o a não ser um bajulador. Em seus testes, essas respostas excessivamente lisonjeiras caíram de 14,5% do tempo para menos de 6%. O resultado? O GPT-5 é mais direto, às vezes até frio. Mas a OpenAI insiste que, ao fazer isso, seu modelo está mais frequentemente correto.

“Em geral, o GPT-5 é menos efusivamente concordante, usa menos emojis desnecessários e é mais sutil e reflexivo em seguimentos em comparação com o GPT-4,” afirma a OpenAI. “Deve parecer menos como ‘conversar com IA’ e mais como conversar com um amigo útil com inteligência de nível PhD.”

Celebrando o que ele chama de “mais um marco na corrida da IA,” Alon Yamin, cofundador e CEO da empresa de verificação de conteúdo de IA Copyleaks, acredita que um GPT-5 mais humilde é bom “para o relacionamento da sociedade com a verdade, criatividade e confiança.”

“Estamos entrando em uma era onde distinguir fato de fabricação, autoria de automação, será tanto mais difícil quanto mais essencial do que nunca,” disse Yamin em um comunicado. “Este momento exige não apenas avanço tecnológico, mas a contínua evolução de salvaguardas reflexivas e transparentes sobre como a IA é usada.”

A OpenAI afirma que o GPT-5 é significativamente menos propenso a “alucinar” ou mentir com confiança. Em prompts habilitados para busca na web, a empresa afirma que as respostas do GPT-5 têm 45% menos probabilidade de conter um erro factual do que o GPT-4. Ao usar seu modo avançado de “pensamento”, esse número salta para uma redução de 80% nos erros factuais.

Crucialmente, o GPT-5 agora evita inventar respostas para perguntas impossíveis, algo que modelos anteriores faziam com uma confiança inquietante. Ele sabe quando parar. Ele conhece seus limites.

Minha amiga grega que redige contratos públicos certamente ficará satisfeita. Outros, no entanto, podem se sentir frustrados por uma IA que não diz mais apenas o que querem ouvir. Mas é precisamente essa honestidade que pode finalmente torná-la uma ferramenta em que podemos começar a confiar, especialmente em campos sensíveis como saúde, direito e ciência.

Fonte

Compartilhe esse conteúdo: