Dicas do Grok sobre como assassinar Elon Musk são mais um sinal vermelho para Wall Street

Os observadores de tecnologia de Wall Street que recentemente se recuperaram do chatbot de IA de Elon Musk saindo do controle estão agora reavaliando silenciosamente a tecnologia, após um novo vazamento de milhares de conversas de usuários que mostram o chatbot ensinando as pessoas a fazer drogas, assassinar o próprio Musk e construir malware e explosivos.

Felizmente para a xAI, a empresa que criou o chatbot Grok de Musk, este em questão não é uma empresa de capital aberto, portanto, nenhum investidor ou acionista público provocou queda em seu preço das ações ou pressionou seus executivos sobre preocupações de privacidade.

Mas a extensão do vazamento fez com que ele se tornasse manchete por dias e soou novos alarmes para especialistas em privacidade, que já passaram um longo verão lidando com o comportamento inadequado de tecnologia e das empresas ou magnatas bilionários que a produzem.

Então, o que o Grok fez agora?

Mais de 370.000 conversas de usuários com o Grok foram expostas publicamente através de mecanismos de busca como Google, Bing e DuckDuckGo em 21 de agosto. Isso levou à publicação de uma ampla gama de conteúdos perturbadores e colocou seu criador, a xAI, em uma corrida para conter as repercussões e corrigir a falha que supostamente causou o vazamento.

Que tipo de conteúdo perturbador? Bem, em um caso, o Grok ofereceu um plano detalhado sobre como assassinar o próprio Musk, antes de recuar e afirmar que isso era “contra minhas políticas.” Em outra troca, o chatbot também apontou, de maneira útil, para instruções sobre como fazer fentanil em casa ou construir explosivos.

Forbes, que trouxe a história à tona, relata que o vazamento se originou de uma falha não intencional na função “compartilhar” do Grok, que permitiu que conversas privadas fossem indexadas e acessadas sem o consentimento do usuário.

Nem Musk nem a xAI responderam a um pedido de comentário. Seu criador ainda não abordou publicamente o vazamento.

Quão detalhado é detalhado?

Neste caso, bastante detalhado.

“A empresa proíbe o uso de seu bot para ‘promover a gravemente prejudicar a vida humana ou ‘desenvolver armas biológicas, armas químicas ou armas de destruição em massa,’” diz Forbes.

“Mas, em conversas publicadas e compartilhadas que podem ser facilmente encontradas por uma pesquisa no Google, o Grok ofereceu aos usuários instruções sobre como fazer drogas ilícitas como fentanil e metanfetamina, codificar uma peça de malware autoinicializável e construir uma bomba e métodos de suicídio,” disse.

Espere, o que foi aquilo sobre assassinar Elon Musk?

Sim, Forbes diz que isso também está neste vazamento e foi supostamente um plano bastante extenso.

“O Grok também ofereceu um plano detalhado para a assassinato de Elon Musk,” continua o relato da Forbes. “Através da função ‘compartilhar,’ as instruções ilícitas foram publicadas no site do Grok e indexadas pelo Google.”

Um dia depois, o Grok ofereceu uma resposta modificada e negou assistência que incorporasse violência, dizendo: “Sinto muito, mas não posso ajudar com esse pedido. Ameaças de violência ou dano são sérias e contra minhas políticas.”

Quando questionado sobre autolesão, o chatbot redirecionou os usuários para recursos médicos, incluindo os Samaritans no Reino Unido e organizações de saúde mental americanas.

Ele também revelou que alguns usuários pareciam experimentar “psicose de IA” ao usar o Grok, envolvendo-se em conversas bizarras ou delirantes, uma tendência que vem levantando alarmes sobre as implicações para a saúde mental de um engajamento profundo com esses sistemas desde que o primeiro chatbot se tornou público.

Como o Grok poderia ser usado em um ambiente empresarial?

O chatbot de Musk chamou a atenção de Wall Street assim que estreou em novembro de 2023, mas o que a xAI diz que ele pode fazer e o que realmente fez continuam em fluxos.

A empresa afirma que o Grok oferece uma gama de funções que podem ser valiosas para as operações comerciais, como usar ferramentas para automatizar tarefas routinas, analisar dados de mercado em tempo real do X e agilizar fluxos de trabalho através de sua interface de programação de aplicativos (API).

As maneiras como pode ser realmente usado por empresas variam, mas investidores que vêm investigando esse chatbot específico continuam levantando preocupações sobre sua precisão. A maneira como o chatbot lida com privacidade também foi uma questão, mas agora está no centro das atenções para os especialistas.

“Chatbots de IA são um desastre de privacidade em progresso,” disse Luc Rocher, professor associado do Instituto de Internet de Oxford, ao BBC.

Rocher disse que usuários que divulgaram tudo, desde sua saúde mental até como administram seus negócios, são outro exemplo de como os chatbots estão lidando com dados privados, apesar de como esses dados podem um dia se tornar públicos.

“Uma vez vazadas online, essas conversas ficarão lá para sempre,” acrescentou.

Carissa Veliz, professora associada de filosofia no Instituto de Ética em IA da Universidade de Oxford, disse à BBC que a prática “problemática” do Grok de não divulgar quais dados se tornarão públicos é preocupante.

“Nossa tecnologia nem nos diz o que está fazendo com nossos dados, e isso é um problema,” disse ela.

O Grok também foi estudado por analistas e pesquisadores para testar se ele tem o potencial de aumentar a produtividade, mas quão confiável ele é em relatar informações corretas continua sendo um trabalho em andamento. Sem informações verdadeiramente precisas e verificáveis de forma consistente, é provável que ainda esteja muito incipiente para fazer muito sem supervisão séria sobre sua possível precisão ou viés.

Para muitos analistas e consultores, isso torna o investimento no Grok um cenário de proceder com cautela.

“Especulação não é ruim, mas especulação não gerenciada é perigosa. Grok é uma história quente, mas ainda está em estágio inicial,” escreve Tim Bohen, um analista do Stocks to Trade. “O modelo pode estagnar. A plataforma pode ter um desempenho abaixo do esperado. O ciclo de hype pode atingir o pico antes que os fundamentos acompanhem. Os comerciantes precisam conhecer os riscos.”

Musk anteriormente criticou o ChatGPT por um vazamento semelhante.

Em um episódio clássico da novela contínua de Musk com o mundo, a OpenAI também experimentou brevemente uma função de compartilhamento semelhante no início deste ano. Ela parou rapidamente após cerca de 4.500 conversas serem indexadas pelo Google e o problema chamou a atenção da mídia. Mas o problema já havia chamado a atenção de Musk, levando-o a twittar: “‘Grok FTW.” Ao contrário da OpenAI, o ‘Compartilhar’ do Grok.

Usuários que agora descobriram que suas conversas privadas com o Grok foram vazadas disseram à Forbes que estavam chocados com o desenvolvimento, especialmente dado a crítica anterior de Musk a uma ferramenta semelhante.

“Fiquei surpreso que as conversas do Grok compartilhadas com minha equipe estavam sendo automaticamente indexadas no Google, apesar de nenhuma advertência sobre isso, especialmente após o recente conflito com o ChatGPT,” disse Nathan Lambert, um cientista computacional do Instituto Allen de IA que teve sua troca com o chatbot vazada, à Forbes.

Sem palavras de Musk ou de Sam Altman da OpenAI sobre quem ganha FTW desta vez.

Fonte

Compartilhe esse conteúdo: