A OpenAI não alcançou seu objetivo de desenvolver uma superinteligência ou inteligência artificial geral, nem conseguiu resolver a construção planejada de um “pesquisador de IA” autônomo. Mas descobriu como fazer o ChatGPT parar de usar mal o traço em. Então, isso é algo.
Em uma postagem no X, o CEO Sam Altman anunciou: “Se você disser ao ChatGPT para não usar traços em suas instruções personalizadas, ele finalmente faz o que deve fazer!” Ele chamou o desenvolvimento de uma “pequena, mas feliz vitória”. A empresa confirmou a capacidade de cortar a dependência do chatbot pelo sinal de pontuação em uma postagem no Threads, onde fez o ChatGPT escrever um pedido formal de desculpas por “estragar o traço em”. Notavelmente, o chatbot não conseguiu escrever o pedido de desculpas sem usar um traço em.
Nesse ponto, parece haver uma distinção notável a ser feita aqui. A OpenAI não descobriu como fazer o ChatGPT usar o traço em de maneira mais apropriada ou usá-lo de forma mais moderada por padrão. Em vez disso, simplesmente deu aos usuários a capacidade de dizer ao ChatGPT para não usá-lo, uma mudança que pode ser feita nas configurações de personalização do chatbot.
Essa habilidade segue o lançamento do GPT-5.1, o modelo mais recente da OpenAI. Um dos principais pontos de melhoria que a empresa enfatizou em seu lançamento do novo modelo foi o fato de que o GPT-5.1 é aparentemente melhor em seguir instruções e oferece mais recursos de personalização. Portanto, a restrição do traço em parece ser apenas um exemplo de como os usuários podem aproveitar as sensibilidades mais conformistas do modelo, em vez de uma correção para a saída geral do modelo subjacente.
O fato de que a correção do traço em é algo que precisa acontecer em uma base de usuário por usuário provavelmente fala sobre o quanto a maioria dos LLMs é uma caixa-preta. Na verdade, há usuários nas respostas de Altman no X mostrando que, apesar da instrução, sua instância do ChatGPT continua a produzir traços em. A apresentação da personalização pela OpenAI como uma solução parece sugerir que encontrar uma solução em escala ainda é muito, muito difícil.
A empresa aparentemente descobriu uma maneira de pesar as instruções personalizadas mais pesadamente dentro de seus cálculos ao produzir uma resposta a um prompt, o que pode produzir um resultado como a versão de uma pessoa do ChatGPT não usando traços em. Mas ainda parece que a empresa não consegue descobrir por que o problema aconteceu em primeiro lugar ou persiste. Não é de admirar que a empresa esteja se concentrando fortemente na personalização e falando menos sobre AGI ultimamente.
