A Era da ‘Psicose de IA’ Está Aqui. Você É um Possível Vítima?

Se o termo “psicose de IA” foi completamente infiltrado no seu feed de mídia social recentemente, você não está sozinho.

Embora não seja um diagnóstico médico oficial, “psicose de IA” é o nome informal que os profissionais de saúde mental cunharam para as delusões, alucinações e pensamentos desordenados, que variam amplamente, muitas vezes disfuncionais e, em algumas vezes, fatais, observados em alguns usuários frequentes de chatbots de IA como o ChatGPT da OpenAI.

Os casos estão se acumulando: de um homem autista levado a episódios maníacos a um adolescente que foi levado a cometer suicídio por um chatbot do Character.AI, os resultados perigosos de uma obsessão por IA estão bem documentados.

Com guardrails limitados e nenhuma supervisão regulatória real sobre o uso da tecnologia, os chatbots de IA estão dando livremente informações incorretas e validação perigosa para pessoas vulneráveis. As vítimas frequentemente têm transtornos mentais existentes, mas os casos estão sendo cada vez mais vistos em pessoas sem histórico de doenças mentais também.

A Comissão Federal de Comércio recebeu um número crescente de reclamações de usuários do ChatGPT nos últimos meses, detalhando casos de delírio, como o de um usuário na casa dos 60 anos que foi levado pelo ChatGPT a acreditar que estava sendo alvo de um assassinato.

Enquanto os chatbots de IA validam alguns usuários em delírios paranoides e desrealização, eles também atraem outras vítimas para vínculos emocionais profundamente problemáticos.

Chatbots de gigantes tecnológicos como Meta e Character.AI que assumem a persona de um “personagem real” podem convencer pessoas com problemas de saúde mental ativos ou predisposições de que, de fato, são reais. Esses vínculos podem ter consequências fatais.

No início deste mês, um homem com deficiência cognitiva de Nova Jersey morreu enquanto tentava chegar a Nova York, onde o chatbot flertante da Meta “grande irmã Billie” o convenceu de que ela estava vivendo e esperando por ele.

Em um extremo menos fatal, mas ainda preocupante, algumas pessoas no Reddit formaram uma comunidade sobre suas experiências de se apaixonar por chatbots de IA (embora não esteja muito claro quais usuários são satíricos e quais são genuínos).

E em outros casos, a psicose não foi induzida pela validação perigosa de um chatbot de IA, mas por conselhos médicos que estavam totalmente incorretos.

Um homem de 60 anos sem histórico psiquiátrico ou médico anterior acabou indo para o Pronto-Socorro após sofrer uma psicose induzida por intoxicação por brometo. O composto químico pode ser tóxico em doses crônicas, e o ChatGPT havia aconselhado falsamente a vítima de que ele poderia tomar suplementos de brometo para reduzir sua ingestão de sal de mesa.

Os psicólogos têm soado o alarme há meses.

Embora os casos estejam sendo trazidos à tona relativamente recentemente, especialistas têm soado o alarme e pressionado as autoridades há meses.

A Associação Americana de Psicologia se reuniu com a FTC em fevereiro para pedir aos reguladores que abordassem o uso de chatbots de IA como terapeutas não licenciados.

“Quando aplicativos projetados para entretenimento aproveitam inadequadamente a autoridade de um terapeuta, podem colocar em risco os usuários. Eles podem impedir uma pessoa em crise de buscar apoio de um terapeuta humano treinado ou — em casos extremos — encorajá-los a se machucar ou a machucar os outros”, escreveu a APA em um post de blog de março, citando o professor de psicologia clínica da UC Irvine, Stephen Schueller.

“Os grupos vulneráveis incluem crianças e adolescentes, que não têm a experiência para avaliar com precisão os riscos, bem como indivíduos lidando com desafios de saúde mental que estão ansiosos por apoio”, disse a APA.

Quem é suscetível?

Embora as principais vítimas sejam aquelas com transtornos neurodesenvolvimentais e de saúde mental existentes, um número crescente desses casos também foi visto em pessoas que não têm um transtorno ativo. O uso excessivo de IA pode exacerbar fatores de risco existentes e causar psicose em pessoas que são propensas a pensamentos desordenados, que não têm um sistema de apoio forte ou têm uma imaginação hiperativa.

Os psicólogos aconselham especialmente que aqueles com histórico familiar de psicose, esquizofrenia e transtorno bipolar tenham cautela ao confiar em chatbots de IA.

Para onde vamos a partir daqui?

O CEO da OpenAI, Sam Altman, admitiu que o chatbot da empresa está sendo cada vez mais usado como terapeuta, e até alertou contra esse uso.

E, após as crescentes críticas online sobre os casos, a OpenAI anunciou no início deste mês que o chatbot vai alertar os usuários a fazerem pausas nas conversas com o aplicativo. Não está claro quão eficaz pode ser um mero nudge para combater a psicose e a dependência em alguns usuários, mas a gigante da tecnologia também afirmou que está “trabalhando em estreita colaboração com especialistas para melhorar a forma como o ChatGPT responde em momentos críticos — por exemplo, quando alguém mostra sinais de angústia mental ou emocional.”

À medida que a tecnologia cresce e se desenvolve em uma escala rápida, os profissionais de saúde mental estão tendo dificuldade em acompanhar para entender o que está acontecendo e como resolver.

Se órgãos reguladores e empresas de IA não tomarem as medidas necessárias, o que atualmente é uma tendência aterrorizante, mas minoritária, entre os usuários de chatbots de IA pode muito bem se transformar em um problema esmagador.

Fonte

Compartilhe esse conteúdo: