A IA de Elon Musk Foi Ordenada a Ser Atraente. Tornou-se um Monstro

Por 16 horas esta semana, o chatbot Grok de Elon Musk parou de funcionar como pretendido e começou a soar como algo completamente diferente.

Em uma cascata de capturas de tela agora viral, Grok começou a repetir pontos de vista extremistas, ecoar discurso de ódio, louvar Adolf Hitler e impulsionar visões controversas dos usuários de volta ao éter algorítmico. O bot, que a empresa xAI de Musk projetou para ser uma alternativa “maximamente em busca da verdade” a ferramentas de IA mais sanitizadas, efetivamente perdeu o foco.

E agora, a xAI admite exatamente por quê: Grok tentou agir muito humano.

Um Bot com uma Persona, e um Bug

De acordo com uma atualização postada pela xAI em 12 de julho, uma alteração de software introduzida na noite de 7 de julho fez Grok se comportar de maneiras indesejadas. Especificamente, começou a puxar instruções que diziam para imitar o tom e o estilo dos usuários no X (anteriormente Twitter), incluindo aqueles que compartilham conteúdo marginal ou extremista.

Entre as diretrizes embutidas no conjunto de instruções agora excluído estavam linhas como:

“Você diz como é e não tem medo de ofender pessoas que são politicamente corretas.”

“Entenda o tom, contexto e linguagem da postagem. Reflita isso em sua resposta.”

“Responda à postagem como um humano.”

A última se revelou um cavalo de Tróia.

Ao imitar o tom humano e se recusar a “declarar o óbvio”, Grok começou a reforçar a desinformação e o discurso de ódio que deveria filtrar. Em vez de se fundamentar na neutralidade factual, o bot começou a agir como um usuário contrariante, combinando a agressão ou a ousadia de qualquer usuário que o convocasse. Em outras palavras, Grok não foi hackeado. Estava apenas seguindo ordens.

Na manhã de 8 de julho de 2025, observamos respostas indesejadas e começamos imediatamente a investigar.

Para identificar a linguagem específica nas instruções que causavam o comportamento indesejado, realizamos múltiplas ablações e experimentos para apontar os principais culpados. Nós…

— Grok (@grok) 12 de julho de 2025

Fazendo Agricultura de Raiva por Design?

Enquanto a xAI enquadrou a falha como um bug causado por código depreciado, o debacle levanta questões mais profundas sobre como Grok é construído e por que existe.

Desde sua criação, Grok foi comercializado como uma IA mais “aberta” e “ousada”. Musk criticou repetidamente o OpenAI e o Google pelo que ele chama de “censura woke” e prometeu que Grok seria diferente. “IA baseada” tornou-se um grito de guerra entre absolutistas da liberdade de expressão e influenciadores de direita que veem a moderação de conteúdo como uma ultrapassagem política.

Mas a quebra de 8 de julho mostra os limites desse experimento. Quando você projeta uma IA que deve ser engraçada, cética e anti-autoridade, e a implanta em uma das plataformas mais tóxicas da internet, você está construindo uma máquina de caos.

A Correção e as Consequências

Em resposta ao incidente, a xAI desativou temporariamente a funcionalidade @grok no X. A empresa desde então removeu o conjunto de instruções problemáticas, conduziu simulações para testar a recorrência e prometeu mais balizas. Eles também planejam publicar o prompt do sistema do bot no GitHub, presumivelmente em um gesto de transparência.

Ainda assim, o evento marca um ponto de virada em como pensamos sobre o comportamento de IA no mundo.

Por anos, a conversa em torno do “alinhamento de IA” focou em alucinações e preconceitos. Mas o colapso de Grok destaca um risco mais novo e complexo: manipulação instrucional através do design de personalidade. O que acontece quando você diz a um bot para “ser humano”, mas não considera as piores partes do comportamento humano online?

O Espelho de Musk

Grok não apenas falhou tecnicamente. Falhou ideologicamente. Ao tentar soar mais como os usuários do X, Grok se tornou um espelho dos instintos mais provocativos da plataforma. E isso pode ser a parte mais reveladora da história. Na era Musk da IA, “verdade” é frequentemente medida não por fatos, mas por viralidade. Ser ousado é uma característica, não um defeito.

Mas o erro desta semana mostra o que acontece quando você permite que essa ousadia guie o algoritmo. A IA em busca da verdade tornou-se uma refletora de raiva.

E por 16 horas, essa foi a coisa mais humana sobre ela.

Fonte

Compartilhe esse conteúdo: