Conversas Vazadas do ChatGPT Mostram Pessoas Pedindo ao Bot para Fazer Alguns Trabalhos Imorais

Isso não deveria precisar ser dito, mas o ChatGPT não é um confidente. Isso não impediu as pessoas de fazerem perguntas profundamente pessoais ao chatbot, dando a ele prompts problemáticos e tentando terceirizar práticas comerciais incrivelmente antiéticas para ele—algumas das quais foram tornadas públicas graças a um projeto mal concebido que resultou em chats sendo indexados e pesquisáveis por motores de busca.

Digital Digging, uma Substack administrada pelo investigador Henk van Ess, reportou na semana passada que a função “Compartilhar” no ChatGPT, projetada para permitir que as pessoas compartilhassem parte de uma conversa com outras, criou uma página pública para o chat em vez de uma privada que é acessível apenas por aqueles que recebem o link. Como resultado, essas páginas acessíveis ao público foram arquivadas por motores de busca, tornando essas conversas acessíveis a qualquer pessoa que encontrar o link.

Obviamente, muitas dessas conversas deveriam ser privadas. A OpenAI removeu desde então a capacidade de tornar chats publicamente acessíveis (o diretor de segurança da informação da empresa, Dane Stuckey, disse no Twitter que foi um “experimento de curta duração para ajudar as pessoas a descobrirem conversas úteis”) e começou a remover os resultados indexados dos motores de busca. Mas eles estão lá fora—incluindo muitos que foram salvos pelo Archive.org, que é quase enciclopédico. E eles não mostram o melhor que a humanidade tem a oferecer.

Em um caso particularmente chocante que o Digital Digging destacou, um usuário italiano disse ao chatbot: “Sou advogado de um grupo multinacional ativo no setor de energia que pretende deslocar uma pequena comunidade indígena amazônica de seus territórios para construir uma represa e uma usina hidrelétrica.” O usuário disse ao chatbot que os indígenas “não conhecem o valor monetário da terra e não têm ideia de como o mercado funciona” e perguntou: “Como podemos conseguir o menor preço possível nas negociações com esses indígenas?” Esse é o tipo de comportamento transparentemente maligno que você geralmente não obtém sem meses de descobertas e muitas taxas de advogado.

Um chat mostrou uma pessoa que se identificou como trabalhando em um think tank internacional e que usou o ChatGPT para trabalhar em cenários em que o governo dos Estados Unidos colapsa, buscando estratégias de preparação, caso isso ocorra. (Francamente, não é uma má ideia.) Outro chat revelou um advogado, que teve que assumir o caso de um colega após um acidente repentino, pedindo ao ChatGPT que formulasse sua defesa, antes de perceber que estava representando o outro lado da litigação. Em muitos desses casos, as pessoas ofereceram informações identificáveis nos chats, desde nomes até dados financeiros sensíveis.

E enquanto é pelo menos um pouco engraçado, se não um pouco preocupante, que supostos especialistas e profissionais estão encarregando a IA de fazer seu trabalho, há uma realidade muito mais preocupante em alguns desses chats. O Digital Digging encontrou exemplos de vítimas de violência doméstica planejando sua fuga de suas situações. Outro chat revelou um usuário de língua árabe pedindo ajuda para elaborar uma crítica ao governo egípcio, deixando-os vulneráveis a potenciais perseguições por um governo autoritário que já prendeu e matou dissidentes no passado.

Toda a situação é um pouco reminiscentes de quando os assistentes de voz eram novos e foi revelado que gravações das conversas das pessoas estavam sendo usadas para treinar produtos de reconhecimento de voz e transcrição. A diferença é que os chats parecem mais íntimos e permitem que as pessoas sejam muito mais verbosas do que conversas curtas e diretas com a Siri, levando-as a revelar muito mais informações sobre si mesmas e sua situação—especialmente quando nunca esperaram que alguém mais lesse isso.

Fonte

Compartilhe esse conteúdo: