Sam Altman: Senhor, perdoe-me, é hora de voltar ao antigo ChatGPT

No início deste ano, a OpenAI reduziu um pouco da “personalidade” do ChatGPT como parte de um esforço mais amplo para melhorar a segurança dos usuários após a morte de um adolescente que tirou a própria vida depois de discutir com o chatbot. Mas aparentemente, isso já ficou para trás. Sam Altman anunciou no Twitter que a empresa está voltando ao antigo ChatGPT, agora com modo pornô.

“Nós tornamos o ChatGPT bastante restritivo para garantir que estávamos sendo cuidadosos com questões de saúde mental”, disse Altman, referindo-se à classificação etária da empresa que empurrou os usuários para uma experiência mais apropriada para a idade. Na mesma época, os usuários começaram a reclamar que o ChatGPT estava sendo “lobotomizado”, proporcionando saídas piores e menos personalidade. “Percebemos que isso o tornava menos útil/prazeroso para muitos usuários que não tinham problemas de saúde mental, mas dada a seriedade da questão, queríamos acertar isso.” Essa mudança seguiu o registro de uma ação de morte por negligência pelos pais de um adolescente de 16 anos que pediu ao ChatGPT, entre outras coisas, conselhos sobre como amarrar uma corda antes de tirar a própria vida.

Mas não se preocupe, isso agora está tudo consertado! Apesar de admitir no início deste ano que as salvaguardas podem “degradar” ao longo de conversas mais longas, Altman afirmou com confiança: “Conseguimos mitigar as sérias questões de saúde mental.” Por causa disso, a empresa acredita que pode “relaxar as restrições na maioria dos casos com segurança.” Nas próximas semanas, segundo Altman, o ChatGPT poderá ter mais personalidade, como o modelo anterior da empresa, o 4o. Quando a empresa atualizou seu modelo para o GPT-5 no início deste ano, os usuários começaram a lamentar a perda de seu companheiro de IA e a se queixar das respostas mais estéreis do chatbot. Você sabe, apenas comportamentos saudáveis regulares.

“Se você quiser que seu ChatGPT responda de uma maneira muito humana, ou use um monte de emojis, ou atue como um amigo, o ChatGPT deve fazer isso (mas apenas se você quiser, não porque estamos maximizando o uso),” disse Altman, aparentemente ignorando os próprios relatórios anteriores da empresa que alertaram que as pessoas poderiam desenvolver uma “dependência emocional” ao interagir com seu modelo 4o. Pesquisadores do MIT alertaram que usuários que “percebem ou desejam que uma IA tenha motivações de cuidado usarão linguagem que elicita precisamente esse comportamento. Isso cria um eco de afeto que ameaça ser extremamente viciante.” Agora, isso aparentemente é um recurso e não um bug. Muito legal.

Levando isso um passo adiante, Altman disse que a empresa adotaria ainda mais seu princípio de “tratar usuários adultos como adultos” ao introduzir “erotica para adultos verificados.” No início deste ano, Altman zombou da xAI de Elon Musk por lançar um modo de namorada IA. Acontece que ele mudou de ideia sobre o caminho dos waifus.

Fonte

Compartilhe esse conteúdo: