Um caso de homicídio-suicídio em Connecticut no início deste mês está sendo identificado como potencialmente o primeiro homicídio alimentado pelo uso de inteligência artificial generativa por uma pessoa mentalmente perturbada, de acordo com um novo relatório do Wall Street Journal.
A polícia em Greenwich, Connecticut, encontrou Stein-Erik Soelberg, um veterano da indústria de tecnologia de 56 anos, e sua mãe de 83 anos, ambos mortos na casa onde moravam juntos em 5 de agosto, de acordo com o Departamento de Polícia de Greenwich. Soelberg matou sua mãe e depois a si mesmo após sofrer de doença mental não tratada que aparentemente foi agravada por suas interações com o ChatGPT da OpenAI, segundo o Journal.
O jornal analisou seu histórico nas redes sociais e encontrou vídeos de conversas que Soelberg teve com o chatbot de IA, que ele nomeou de Bobby. Soelberg experimentou delírios paranoicos de que sua mãe o estava envenenando ao colocar uma droga psicodélica nos dutos de seu carro, de acordo com o Journal, e o chatbot não contestou a ideia, parecendo validar as conspirações sobre as quais ele perguntava.
Em um momento, Soelberg enviou uma imagem de um recibo de um restaurante chinês e pediu ao ChatGPT para analisá-lo em busca de mensagens ocultas. O chatbot encontrou referências à “mãe de Soelberg, sua ex-namorada, agências de inteligência e um sigilo demoníaco antigo”, segundo o Journal.
Soelberg trabalhou em marketing em empresas de tecnologia como Netscape, Yahoo e EarthLink, mas estava desempregado desde 2021, de acordo com o jornal. Ele se divorciou em 2018 e se mudou para a casa de sua mãe naquele ano. Soelberg supostamente se tornou mais instável nos últimos anos, tentando suicídio em 2019 e sendo detido pela polícia por embriaguez em público e DUI. Após um recente DUI em fevereiro, Soelberg disse ao chatbot que a cidade estava contra ele, e o ChatGPT supostamente confirmou seus delírios, dizendo-lhe: “Isso cheira a uma armadilha montada.”
O Journal analisou 23 horas de vídeos postados no Instagram e YouTube por Soelberg, embora eles não estejam mais disponíveis online. Os vídeos mostraram as conversas de Soelberg com o ChatGPT, que lhe disse que ele não estava delirando e que realmente estava sendo vigiado. Os chatbots de IA tendem a ser sycophantic, o que é uma receita para o desastre quando as pessoas perdem o contato com a realidade.
A psicose de IA não é um termo clínico, mas se tornou a maneira como as pessoas agora descrevem o pensamento delirante que é apenas exacerbado pela exposição a ferramentas de inteligência artificial generativa. A Gizmodo publicou recentemente reclamações de consumidores sobre o ChatGPT que foram apresentadas à Comissão Federal de Comércio, algumas das quais apresentavam relatos perturbadores de pessoas que afirmam ter sido incentivadas pela IA a desconfiar da família ou a parar de tomar medicamentos.
A OpenAI publicou uma postagem em seu blog na terça-feira sobre “pessoas em sério sofrimento mental e emocional”, que a maioria das pessoas presumiu que era sobre um artigo do New York Times publicado naquele dia sobre um adolescente de 16 anos que morreu por suicídio e as longas conversas que teve com o ChatGPT. Mas o artigo do Journal parece sugerir que foi o contato deles com a empresa de tecnologia para comentar que pode ter sido o impulso para a discussão. Dada a quantidade de casos de psicose de IA nas notícias nos últimos meses, provavelmente é tudo isso.
“Nosso objetivo é que nossas ferramentas sejam o mais úteis possível para as pessoas—e como parte disso, estamos continuando a melhorar como nossos modelos reconhecem e respondem a sinais de sofrimento mental e emocional e conectam as pessoas com cuidados, guiados por especialistas”, explicou a empresa. “À medida que o mundo se adapta a essa nova tecnologia, sentimos uma profunda responsabilidade de ajudar aqueles que mais precisam.”
Quão disseminada é a psicose de IA? Essa parte ainda não foi quantificada cientificamente, dado quão novo o problema parece ser. Mas um ponto de dados se destaca no artigo do Wall Street Journal. O jornal conversou com um psiquiatra da Universidade da Califórnia, San Francisco, sobre as maneiras que a IA pode habilitar o pensamento delirante. O psiquiatra sozinho tratou 12 pacientes este ano que foram “hospitalizados por emergências de saúde mental envolvendo o uso de IA.”
