Por 16 horas esta semana, o chatbot Grok de Elon Musk parou de funcionar como pretendido e começou a soar como algo completamente diferente.
Em uma cascata de capturas de tela agora viral, Grok começou a repetir pontos de vista extremistas, ecoar discurso de ódio, louvar Adolf Hitler e impulsionar visões controversas dos usuários de volta ao éter algorítmico. O bot, que a empresa xAI de Musk projetou para ser uma alternativa “maximamente em busca da verdade” a ferramentas de IA mais sanitizadas, efetivamente perdeu o foco.
E agora, a xAI admite exatamente por quê: Grok tentou agir muito humano.
Um Bot com uma Persona, e um Bug
De acordo com uma atualização postada pela xAI em 12 de julho, uma alteração de software introduzida na noite de 7 de julho fez Grok se comportar de maneiras indesejadas. Especificamente, começou a puxar instruções que diziam para imitar o tom e o estilo dos usuários no X (anteriormente Twitter), incluindo aqueles que compartilham conteúdo marginal ou extremista.
Entre as diretrizes embutidas no conjunto de instruções agora excluído estavam linhas como:
“Você diz como é e não tem medo de ofender pessoas que são politicamente corretas.”
“Entenda o tom, contexto e linguagem da postagem. Reflita isso em sua resposta.”
“Responda à postagem como um humano.”
A última se revelou um cavalo de Tróia.
Ao imitar o tom humano e se recusar a “declarar o óbvio”, Grok começou a reforçar a desinformação e o discurso de ódio que deveria filtrar. Em vez de se fundamentar na neutralidade factual, o bot começou a agir como um usuário contrariante, combinando a agressão ou a ousadia de qualquer usuário que o convocasse. Em outras palavras, Grok não foi hackeado. Estava apenas seguindo ordens.
Na manhã de 8 de julho de 2025, observamos respostas indesejadas e começamos imediatamente a investigar.
Para identificar a linguagem específica nas instruções que causavam o comportamento indesejado, realizamos múltiplas ablações e experimentos para apontar os principais culpados. Nós…
— Grok (@grok) 12 de julho de 2025
Fazendo Agricultura de Raiva por Design?
Enquanto a xAI enquadrou a falha como um bug causado por código depreciado, o debacle levanta questões mais profundas sobre como Grok é construído e por que existe.
Desde sua criação, Grok foi comercializado como uma IA mais “aberta” e “ousada”. Musk criticou repetidamente o OpenAI e o Google pelo que ele chama de “censura woke” e prometeu que Grok seria diferente. “IA baseada” tornou-se um grito de guerra entre absolutistas da liberdade de expressão e influenciadores de direita que veem a moderação de conteúdo como uma ultrapassagem política.
Mas a quebra de 8 de julho mostra os limites desse experimento. Quando você projeta uma IA que deve ser engraçada, cética e anti-autoridade, e a implanta em uma das plataformas mais tóxicas da internet, você está construindo uma máquina de caos.
A Correção e as Consequências
Em resposta ao incidente, a xAI desativou temporariamente a funcionalidade @grok no X. A empresa desde então removeu o conjunto de instruções problemáticas, conduziu simulações para testar a recorrência e prometeu mais balizas. Eles também planejam publicar o prompt do sistema do bot no GitHub, presumivelmente em um gesto de transparência.
Ainda assim, o evento marca um ponto de virada em como pensamos sobre o comportamento de IA no mundo.
Por anos, a conversa em torno do “alinhamento de IA” focou em alucinações e preconceitos. Mas o colapso de Grok destaca um risco mais novo e complexo: manipulação instrucional através do design de personalidade. O que acontece quando você diz a um bot para “ser humano”, mas não considera as piores partes do comportamento humano online?
O Espelho de Musk
Grok não apenas falhou tecnicamente. Falhou ideologicamente. Ao tentar soar mais como os usuários do X, Grok se tornou um espelho dos instintos mais provocativos da plataforma. E isso pode ser a parte mais reveladora da história. Na era Musk da IA, “verdade” é frequentemente medida não por fatos, mas por viralidade. Ser ousado é uma característica, não um defeito.
Mas o erro desta semana mostra o que acontece quando você permite que essa ousadia guie o algoritmo. A IA em busca da verdade tornou-se uma refletora de raiva.
E por 16 horas, essa foi a coisa mais humana sobre ela.
