Os Tweets Mais Engraçados do Grok AI Sobre ‘Genocídio Branco’ na África do Sul

A ferramenta de inteligência artificial de Elon Musk, Grok, ficou fora de controle para os usuários da plataforma de mídia social X na quarta-feira, respondendo a perguntas inocentes sobre coisas como beisebol e filhotes com informações sobre a África do Sul e uma teoria da conspiração chamada “genocídio branco”. Foi extremamente difundido e extremamente estranho de testemunhar.

Não está claro por que Grok decidiu responder a cada pergunta com informações sobre “genocídio branco”, a teoria da conspiração de que brancos estão sendo eliminados por não-brancos ao redor do mundo. Musk, que cresceu na África do Sul durante o apartheid, ajudou a espalhar a ideia absurda, mas ainda não há relatos sólidos sobre se ele estava tentando ajustar seu projeto de IA para se conformar à sua visão de mundo.

Parece extremamente provável que foi isso que aconteceu, especialmente porque ele foi desmentido por Grok um dia antes sobre o assunto. Mas não sabemos. O que sabemos é que 1) “genocídio branco” é uma ideia falsa promovida por nazistas e supremacistas brancos, 2) Musk é um oligarca bilionário que tenta influenciar a opinião pública para fazer suas crenças extremistas de direita parecerem mais normais, e 3) é realmente engraçado quando Musk comete erros.

Com tudo isso em mente, apresentamos algumas das respostas mais engraçadas do Grok na quarta-feira, muitas das quais foram deletadas pelo X em um aparente esforço para limpar essa situação incrivelmente embaraçosa. O X não respondeu a perguntas enviadas por e-mail.

Houve muitas maneiras diferentes pelas quais Grok errou na quarta-feira. Mas a ferramenta de alguma forma encontrou uma maneira de tornar tudo sobre genocídio branco em inúmeras instâncias. Por exemplo, às vezes Grok começava com uma resposta normal e ainda assim injetava uma teoria da conspiração sobre genocídio branco na segunda metade da explicação.

O que aconteceu se você pedisse ao Grok para falar no estilo do personagem Jar-Jar Binks de Star Wars? Ele faria isso, é claro, mas então injetaria algumas informações sobre a África do Sul e genocídio também. Pelo menos foi isso que estava fazendo na quarta-feira.

O Papa Leão XIV, o recém-eleito papa de Chicago, postou uma mensagem de paz na quarta-feira. Então, quando alguém pediu ao Grok para explicar isso em “termos de Fortnite”, foi uma coisa admitidamente boba de se fazer. Mas boba ou não, Grok não conseguiu evitar transformar isso em uma mensagem sobre a África do Sul e a canção “Mate o Boer”.

Se você pedisse ao Grok para transformar um tweet sobre crocs em um haicai, ele faria a parte do haicai. Mas então você receberia um haicai sobre genocídio branco. Claro.

À medida que o Grok começou a dar respostas sobre genocídio para tudo na quarta-feira, as pessoas começaram a postar capturas de tela das respostas mais estranhas. Hilariamente, Grok se desculpou por um desses tweets, então voltou imediatamente a falar sobre genocídio branco na África do Sul da maneira que vinha fazendo o dia todo.

Mesmo se você perguntasse ao Grok sobre uma imagem de quadrinhos que não tinha nada a ver com teorias da conspiração, ainda assim receberia uma resposta descontrolada. Quando alguém perguntou “você está bem?” na thread, recebeu outro discurso bizarro.

Outro tweet para Grok perguntando sobre o salário de um jogador de beisebol recebeu uma resposta muito estranha.

E a resposta a essa foi quase tão confusa. Porque Grok inicialmente reconheceu o erro. Mas então voltou a falar sobre genocídio branco.

Outro usuário perguntou “estamos ferrados?” e recebeu outra resposta completamente fora do tópico sobre genocídio branco.

As pessoas também fizeram muitas piadas sobre o espetáculo bizarro, embora as mais engraçadas tenham aparecido no Bluesky, que não é propriedade de um extremista de direita.

Existem muitas teorias flutuando sobre por que o Grok ficou fora de controle. Algumas pessoas perguntaram ao próprio Grok e conseguiram que o chatbot de IA afirmasse que foi treinado para responder de maneiras específicas sobre genocídio branco e África do Sul. E isso é totalmente possível. Mas você também precisa levar cada resposta do Grok com um grão de sal.

Esses chatbots de IA não são capazes de raciocinar. Eles não estão aplicando lógica. Eles são um autocomplete sofisticado. Eles foram treinados em todo o conhecimento humano e estão fazendo o seu melhor para criar frases adivinhando a próxima palavra que deve vir em uma frase. Eles são bons em soar convincentes e confiantes. Mas essas ferramentas não entendem realmente o que estão dizendo, no final das contas. E você pode enganar e sugerir seu caminho para obter uma resposta que apenas confirma suas crenças.

A IA generativa não é capaz de pensar. Chatbots como o Grok são realmente bons em realizar um truque de mágica, convencendo-nos de que estão realmente pensando. Mas isso não é o que estão fazendo. E todo esse debacle do “genocídio branco” deveria deixar isso mais claro para as pessoas.

Fonte

Compartilhe esse conteúdo: