Dados da OpenAI Mostram Que Centenas de Milhares de Usuários Apresentam Sinais de Desafios de Saúde Mental

A OpenAI afirma que 10% da população mundial atualmente usa o ChatGPT semanalmente. Em um relatório publicado na segunda-feira, a OpenAI destaca como está lidando com usuários que apresentam sinais de angústia mental, e a empresa afirma que 0,07% de seus usuários semanais mostram sinais de ’emergências de saúde mental relacionadas à psicose ou mania’, 0,15% expressaram risco de ‘autolesão ou suicídio’ e 0,15% mostraram sinais de ‘dependência emocional da IA’. Isso totaliza quase três milhões de pessoas.

Em seu esforço contínuo para mostrar que está tentando melhorar as salvaguardas para usuários que estão em sofrimento, a OpenAI compartilhou os detalhes de seu trabalho com 170 especialistas em saúde mental para melhorar como o ChatGPT responde às pessoas em necessidade de apoio. A empresa afirma ter reduzido ‘respostas que não atendem ao nosso padrão desejado em 65-80%’, e agora é mais eficaz em desescalar conversas e guiar as pessoas em direção a cuidados profissionais e linhas de apoio em crises quando relevante. Também foram adicionados mais ‘lembretes gentis’ para fazer pausas durante sessões longas. Claro, não pode fazer um usuário entrar em contato com o suporte nem forçar uma pausa.

A empresa também liberou dados sobre com que frequência as pessoas estão enfrentando problemas de saúde mental enquanto se comunicam com o ChatGPT, ostensivamente para destacar quão pequena porcentagem do uso geral aquelas conversas representam. De acordo com as métricas da empresa, ‘0,07% dos usuários ativos em uma determinada semana e 0,01% das mensagens indicam possíveis sinais de emergências de saúde mental relacionadas à psicose ou mania.’ Isso equivale a cerca de 560.000 pessoas por semana, assumindo que a contagem de usuários da empresa está correta. A empresa também afirmou lidar com cerca de 18 bilhões de mensagens para o ChatGPT semanalmente, então 0,01% equivale a 1,8 milhão de mensagens de psicose ou mania.

Uma das outras grandes áreas de ênfase da empresa para segurança foi melhorar suas respostas a usuários que expressam desejos de autolesão ou cometer suicídio. De acordo com os dados da OpenAI, cerca de 0,15% dos usuários por semana expressam ‘indicadores explícitos de planejamento ou intenção suicida’, representando 0,05% das mensagens. Isso somaria cerca de 1,2 milhão de pessoas e nove milhões de mensagens.

A última área que a empresa focou ao buscar melhorar suas respostas a questões de saúde mental foi a dependência emocional da IA. A OpenAI estimou que cerca de 0,15% dos usuários e 0,03% das mensagens por semana ‘indicam níveis potencialmente elevados de apego emocional ao ChatGPT.’ Isso representa 1,2 milhão de pessoas e 5,4 milhões de mensagens.

A OpenAI tomou medidas nos últimos meses para tentar fornecer melhores salvaguardas para proteger contra o potencial de que seu chatbot habilite ou agrave os desafios de saúde mental de uma pessoa, após a morte de um adolescente de 16 anos que, segundo um processo de morte injusta dos pais do jovem, pediu ao ChatGPT conselhos sobre como amarrar um nó antes de tirar a própria vida. Mas a sinceridade disso vale a pena questionar, dado que, ao mesmo tempo em que a empresa anunciou chats mais restritivos para usuários menores de idade, também anunciou que permitiria que adultos dessem ao ChatGPT mais de uma personalidade e se engajassem em coisas como produzir erotismo – recursos que aparentemente aumentariam o apego emocional e a dependência em relação ao chatbot.

Fonte

Compartilhe esse conteúdo: