Pessoas Solitárias Ficam Ainda Mais Tristes Após Usar Chatbots, Revela Pesquisa

OpenAI e o MIT Media Lab lançaram na semana passada dois novos estudos com o objetivo de explorar o efeito dos chatbots de IA sobre a solidão. Os resultados são complicados, mas também estão alinhados com o que sabemos atualmente sobre as redes sociais: os chatbots podem deixar as pessoas solitárias, mas as pessoas que relataram se sentir mais sozinhas após o uso intenso de uma IA tendem a se sentir bastante sozinhas antes de começarem a usá-la.

Para realizar os estudos, a OpenAI entregou quase 40 milhões de interações que seus usuários tiveram com o ChatGPT aos pesquisadores do MIT. No primeiro estudo, o MIT analisou o “uso agregado” de cerca de 6.000 “usuários intensivos do Modo de Voz Avançado do ChatGPT ao longo de 3 meses” e entrevistou 4.076 usuários específicos para entender como o chatbot os fez sentir. No segundo estudo, os pesquisadores analisaram como 981 participantes interagiram com o ChatGPT ao longo de 28 dias.

Os artigos são aprofundados e complicados, e valem uma leitura atenta. Uma das principais conclusões é que as pessoas que usaram os chatbots de forma casual e não se envolveram emocionalmente com eles não relataram se sentir mais solitárias ao final do estudo. No entanto, se um usuário disse que estava sozinho antes de começar o estudo, ele se sentiu pior após o término.

“De modo geral, um maior uso diário—em todas as modalidades e tipos de conversa—correlacionou-se com uma maior solidão, dependência e uso problemático, e menor socialização”, disse o estudo.

Diferentes tipos de interação produziram resultados diferentes. Usuários solitários que usaram um chatbot baseado em voz em vez de um baseado em texto tendiam a ter um desempenho pior. “Os resultados mostraram que, enquanto os chatbots de voz inicialmente pareciam benéficos na mitigação da solidão e dependência em comparação com os chatbots de texto, essas vantagens diminuíram em altos níveis de uso, especialmente com um chatbot de voz neutra”, afirmou o estudo.

Os pesquisadores estavam claros sobre os resultados e compararam as descobertas a estudos anteriores sobre dependência de redes sociais e jogos problemáticos. “A relação entre solidão e uso de redes sociais muitas vezes se torna cíclica: quanto mais solitárias as pessoas estão, mais tempo elas passam nessas plataformas, onde se comparam com os outros e experimentam o medo de ficar de fora, levando a mais solidão e uso subsequente”, escreveu a equipe do MIT em seu artigo. “A solidão é tanto uma causa quanto um efeito do uso problemático da internet.”

Os pesquisadores enfatizaram que este primeiro estudo, que analisou uma grande amostra e se baseou em muitos dados auto-relatados, carecia de um grupo de controle. Também não levou em consideração fatores externos, como o clima e mudanças sazonais, duas coisas que podem ter um impacto enorme no humor. A pesquisa sobre a dependência emocional humana em relação aos chatbots e suas consequências está em seus primeiros dias.

Os pesquisadores disseram que as empresas que trabalham com IA precisam estudar as barreiras em seus serviços que ajudariam a mitigar os riscos de agravar a solidão. Eles também afirmaram que quanto mais uma pessoa entende sobre como os sistemas de IA funcionam, menos provável é que ela se torne dependente deles. “De uma perspectiva mais ampla, há uma necessidade de uma abordagem mais holística à alfabetização em IA”, disse o estudo. “Os esforços atuais de alfabetização em IA se concentram predominantemente em conceitos técnicos, enquanto deveriam também incorporar dimensões psicossociais.”

A última frase da seção “impacto” do primeiro estudo cortou diretamente para o cerne do problema. “O uso excessivo de chatbots de IA não é apenas uma questão tecnológica, mas um problema societal, que exige esforços para reduzir a solidão e promover conexões humanas mais saudáveis.”

A epidemia de solidão é real e complexa. As pessoas estão solitárias por muitas razões diferentes. Terceiros lugares como shoppings, bares e cafeterias estão desaparecendo ou se tornando caros demais para serem usados. As pessoas migraram grande parte da interação social para a internet. Viver em vastos subúrbios e dirigir em uma rodovia para ir a qualquer lugar corta as pessoas umas das outras. A IA não fez nada disso, mas pode piorar a situação.

A OpenAI se uniu ao MIT para conduzir esses estudos, e isso demonstra uma disposição para enfrentar o problema. O que me preocupa é que toda empresa persegue inevitavelmente seu resultado financeiro. Nesses estudos, vejo não apenas uma discussão de coração aberto sobre os perigos de uma nova tecnologia, mas também um relatório que dirá às pessoas com interesse financeiro em atrair novos usuários que seu produto pode ser viciante para um certo tipo de pessoa.

Isso já está acontecendo. Em 2023, um homem belga cometeu suicídio após ter um longo “relacionamento” com um chatbot baseado no GPT-4. O homem tinha um histórico de depressão, e sua esposa culpou o bot. No ano passado, uma mãe entrou com um processo contra a Character.AI após seu filho tirar a própria vida enquanto conversava com o bot. Seu processo de 93 páginas é uma análise angustiante de como a Character.AI atrai os usuários e tenta estabelecer uma conexão emocional com eles.

Há um mercado para companheiros de IA. Eles podem fornecer uma conexão artificial para os solitários. Mas também podem induzir esse sentimento de solidão. Os bots também são programados pelas pessoas que vendem seus serviços. Eles são máquinas complexas, mas ainda são máquinas, e refletem a vontade de seu programador, não do usuário.

Muitas dessas empresas, como Replika, Character.AI e ChatGPT, cobram uma taxa recorrente pelo acesso mensal a seus melhores recursos. Se, como sugerem esses estudos, pessoas solitárias podem se tornar viciadas no uso dos chatbots, então há um incentivo financeiro para manter as pessoas solitárias.

“Embora melhorar a política de IA e estabelecer barreiras permaneçam cruciais, a questão mais ampla reside em garantir que as pessoas tenham sistemas de apoio social fortes na vida real. A crescente prevalência da solidão sugere que focar apenas em soluções técnicas é insuficiente, uma vez que as necessidades humanas são inerentemente complexas,” disse o primeiro estudo em sua conclusão. “Abordar as dimensões psicossociais do uso de IA requer uma abordagem holística que integre salvaguardas tecnológicas com intervenções sociais mais amplas voltadas para promover conexões humanas significativas.

Fonte

Compartilhe esse conteúdo: