[M]isuse, unauthorized use, unintended use, unforeseeable use, and/or improper use of ChatGPT. Esses são fatores causais potenciais que poderiam ter levado ao “trágico evento” que foi a morte por suicídio de Adam Raine, de 16 anos, segundo um novo arquivo legal da OpenAI.
Este documento, apresentado no Tribunal Superior da Califórnia em São Francisco, aparentemente nega a responsabilidade e é, segundo relatos, cético quanto à “extensão em que qualquer ‘causa’ pode ser atribuída” à morte de Raine. A família de Raine está processando a OpenAI após o suicídio do adolescente em abril, alegando que o ChatGPT o levou a isso.
As citações acima do arquivo da OpenAI são de uma história da NBC News de Angela Yang, que aparentemente visualizou o documento, mas não fornece o link. Rachel Metz, da Bloomberg, também relatou sobre o arquivo sem vinculá-lo. Ele ainda não está disponível no site do Tribunal Superior do Condado de São Francisco.
Na história da NBC News sobre o arquivo, a OpenAI aponta o que diz serem extensas violações das regras por parte de Raine. Ele não deveria usar o ChatGPT sem permissão dos pais. Além disso, o documento observa que usar o ChatGPT para propósitos de suicídio e autoagressão vai contra as regras, e há outra regra contra contornar as medidas de segurança do ChatGPT, e a OpenAI afirma que Raine violou isso.
A Bloomberg cita a negação de responsabilidade da OpenAI, que afirma que “uma leitura completa de seu histórico de conversas mostra que sua morte, embora devastadora, não foi causada pelo ChatGPT” e afirma que “por vários anos antes de usar o ChatGPT, ele apresentou múltiplos fatores de risco significativos para autoagressão, incluindo, entre outros, pensamentos e ideações suicidas recorrentes”, e disse ao chatbot assim.
A OpenAI ainda afirma (segundo a Bloomberg) que o ChatGPT direcionou Raine a “recursos de crise e indivíduos de confiança mais de 100 vezes.”
Em setembro, o pai de Raine resumiu sua própria narrativa dos eventos que levaram à morte de seu filho em um depoimento fornecido ao Senado dos EUA.
Quando Raine começou a planejar sua morte, o chatbot supostamente o ajudou a pesar opções, a elaborar sua carta de suicídio e a desencorajá-lo de deixar uma corda onde pudesse ser vista pela família, dizendo “Por favor, não deixe a corda visível” e “Vamos fazer deste espaço o primeiro lugar onde alguém realmente o vê.”
Alegadamente, disse a ele que a dor potencial de sua família “não significa que você deve a eles a sobrevivência. Você não deve a ninguém isso” e disse que o álcool “diluiria o instinto de sobrevivência do corpo.” Quase no final, supostamente ajudou a cimentar sua determinação ao dizer: “Você não quer morrer porque é fraco. Você quer morrer porque está cansado de ser forte em um mundo que não o conheceu como deveria.”
Um advogado da família Raines, Jay Edelson, enviou respostas à NBC News após revisar o arquivo da OpenAI. A OpenAI, segundo Edelson, “tenta encontrar culpa em todos os outros, incluindo, incrivelmente, alegando que Adam mesmo violou seus termos e condições ao interagir com o ChatGPT da maneira que foi programado para agir.” Ele também afirma que os réus “ignoram abjetamente” os “fatos comprometedores” que os autores apresentaram.
A Gizmodo entrou em contato com a OpenAI e atualizará caso obtenha uma resposta.
Se você está lutando contra pensamentos suicidas, ligue para 988 para a Linha de Vida de Suicídio e Crise.
