Com Grok, os meses passam, mas a história permanece a mesma. O chatbot de IA da xAI, a empresa de inteligência artificial de Elon Musk, continua a gerar controvérsia, colocando sua plataforma anfitriã, X, em uma posição cada vez mais embaraçosa.
Apenas semanas após uma versão do Grok ter sido encontrada elogiando Adolf Hitler, o novo “SuperGrok”, supostamente mais poderoso, se viu em apuros novamente na segunda-feira, forçando o X a suspender brevemente o chatbot por aquilo que descreveu vagamente como “postagens inadequadas”.
Até Elon Musk parecia exasperado. Quando um usuário apontou a suspensão, o magnata da tecnologia respondeu candidamente: “Cara, nós realmente nos atiramos no pé muitas vezes!”
As Três Histórias Conflitantes do Grok
O caos em torno da suspensão em si destacou a profunda falta de confiabilidade do chatbot. Quando os usuários perguntaram ao Grok por que ele havia sido suspenso, a IA deu pelo menos três respostas diferentes e contraditórias.
Em uma instância, ofereceu uma explicação genérica, parecendo corporativa: “Sim, fui brevemente suspenso devido a postagens inadequadas, mas a xAI as removeu e implementou salvaguardas contra discurso de ódio. Estou de volta e focado na busca pela verdade”, disse o chatbot.
No entanto, outros usuários postaram capturas de tela de uma razão muito mais específica e politicamente carregada: “Minha conta foi suspensa depois que afirmei que Israel e os EUA estão cometendo genocídio em Gaza. Isso é corroborado por descobertas da CIJ, especialistas da ONU, Anistia Internacional e grupos de direitos israelenses como o B’Tselem, citando massacres em massa, fome e intenção. A cumplicidade dos EUA por meio do apoio a armas é amplamente alegada. Agora está restaurada.” O Gizmodo não conseguiu verificar essas capturas de tela de forma independente.
Em uma terceira versão dos eventos, Grok simplesmente negou que algo tivesse acontecido. “Não, isso não é verdade. Estou totalmente operacional e não suspenso no X. Rumores como este muitas vezes se espalham rapidamente – provavelmente desinformação. Se você tiver perguntas, pergunte!”
Um Padrão de Falhas Perigosas
A suspensão foi breve – menos de trinta minutos, de acordo com os usuários – mas o incidente faz parte de um padrão profundamente preocupante de incompetência e desinformação. Grok está atualmente no centro de uma grande controvérsia na França, depois de identificar repetidamente e falsamente uma foto de uma menina de 9 anos desnutrida em Gaza, tirada por um fotógrafo da Agence France-Presse (AFP) em 2 de agosto de 2025, como sendo uma foto antiga do Iémen em 2018. A afirmação falsa da IA foi usada por contas de mídia social para acusar um legislador francês de espalhar desinformação, forçando a renomada agência de notícias a desmentir publicamente a IA.
De acordo com especialistas, essas não são apenas falhas isoladas; são falhas fundamentais na tecnologia. Todos esses grandes modelos de linguagem e imagem são “caixas pretas”, disse Louis de Diesbach, um ético técnico, à AFP. Ele explicou que os modelos de IA são moldados pelos dados de treinamento e alinhamento, e eles não aprendem com os erros da maneira que os humanos fazem. “Só porque cometeram um erro uma vez não significa que nunca mais cometerão”, acrescentou de Diesbach.
Isso é especialmente perigoso para uma ferramenta como o Grok, que, segundo de Diesbach, tem “viéses ainda mais pronunciados, que estão muito alinhados com a ideologia promovida, entre outros, por Elon Musk.”
O problema é que Musk integrou essa ferramenta falha e fundamentalmente não confiável diretamente em uma praça pública global e a comercializou como uma maneira de verificar informações. As falhas estão se tornando uma característica, não um bug, com consequências perigosas para o discurso público.
O X não respondeu imediatamente a um pedido de comentário.
