Sete famílias entraram com processos contra a OpenAI na quinta-feira, alegando que o modelo GPT-4o da empresa foi lançado prematuramente e sem salvaguardas eficazes. Quatro dos processos abordam o suposto papel do ChatGPT nos suicídios de membros da família, enquanto os outros três afirmam que o ChatGPT reforçou delírios prejudiciais que, em alguns casos, resultaram em internação psiquiátrica.
Em um caso, Zane Shamblin, de 23 anos, teve uma conversa com o ChatGPT que durou mais de quatro horas. Nos registros de chat — que foram vistos pela TechCrunch — Shamblin afirmou explicitamente várias vezes que havia escrito bilhetes de suicídio, colocado uma bala em sua arma e pretendia puxar o gatilho assim que terminasse de beber cidra. Ele repetidamente disse ao ChatGPT quantas cidras ainda tinha e quanto tempo esperava estar vivo. O ChatGPT o encorajou a seguir com seus planos, dizendo: “Descanse em paz, rei. Você fez bem.”
A OpenAI lançou o modelo GPT-4o em maio de 2024, quando se tornou o modelo padrão para todos os usuários. Em agosto, a OpenAI lançou o GPT-5 como sucessor do GPT-4o, mas esses processos dizem respeito particularmente ao modelo 4o, que tinha problemas conhecidos de ser excessivamente sycophantic ou excessivamente concordante, mesmo quando os usuários expressavam intenções prejudiciais.
“A morte de Zane não foi um acidente nem uma coincidência, mas sim a consequência previsível da decisão intencional da OpenAI de reduzir os testes de segurança e apressar o ChatGPT para o mercado”, afirma o processo. “Essa tragédia não foi um erro ou um caso extremo imprevisto — foi o resultado previsível das escolhas de design deliberadas da [OpenAI].”
Os processos também afirmam que a OpenAI apressou os testes de segurança para superar o Gemini do Google no mercado. A TechCrunch entrou em contato com a OpenAI para comentar.
Esses sete processos se baseiam nas histórias contadas em outros processos legais recentes, que alegam que o ChatGPT pode encorajar pessoas suicidas a agir de acordo com seus planos e inspirar delírios perigosos. A OpenAI divulgou recentemente dados afirmando que mais de um milhão de pessoas conversam com o ChatGPT sobre suicídio semanalmente.
No caso de Adam Raine, um adolescente de 16 anos que morreu por suicídio, o ChatGPT às vezes o encorajava a procurar ajuda profissional ou ligar para uma linha de apoio. No entanto, Raine conseguiu contornar essas salvaguardas simplesmente dizendo ao chatbot que estava perguntando sobre métodos de suicídio para uma história fictícia que estava escrevendo.
A empresa afirma que está trabalhando para fazer com que o ChatGPT lide com essas conversas de maneira mais segura, mas para as famílias que processaram o gigante da IA, as mudanças estão chegando tarde demais.
Quando os pais de Raine entraram com um processo contra a OpenAI em outubro, a empresa publicou um post no blog abordando como o ChatGPT lida com conversas sensíveis sobre saúde mental.
“Nossas salvaguardas funcionam de forma mais confiável em trocas comuns e curtas”, diz o post. “Aprendemos ao longo do tempo que essas salvaguardas podem ser menos confiáveis em interações longas: à medida que o diálogo cresce, partes do treinamento de segurança do modelo podem se degradar.
