O TikTok está supostamente ciente de seus efeitos negativos sobre os usuários adolescentes

Os executivos e funcionários do TikTok estavam bem cientes de que seus recursos promovem o uso compulsivo do aplicativo, bem como de seus correspondentes efeitos negativos na saúde mental, de acordo com a NPR. A organização de radiodifusão revisou os documentos não redigidos do processo movido pelo Escritório do Procurador Geral de Kentucky, conforme publicado pela Kentucky Public Radio. Mais de uma dúzia de estados processaram o TikTok há alguns dias, acusando-o de “afirmar falsamente [que é] seguro para os jovens.” O Procurador Geral de Kentucky, Russell Coleman, disse que o aplicativo foi “especificamente projetado para ser uma máquina de adição, visando crianças que ainda estão em processo de desenvolvimento do autocontrole apropriado.”

A maioria dos documentos apresentados para os processos tinha informações redigidas, mas o de Kentucky tinha redações falhas. Aparentemente, a própria pesquisa do TikTok descobriu que “o uso compulsivo está correlacionado com uma série de efeitos negativos na saúde mental, como perda de habilidades analíticas, formação de memória, pensamento contextual, profundidade de conversação, empatia e aumento da ansiedade.” Os executivos do TikTok também sabiam que o uso compulsivo pode interferir no sono, nas responsabilidades de trabalho e escolares, e até mesmo em “conectar-se com entes queridos.”

Eles supostamente sabiam, também, que a ferramenta de gerenciamento de tempo do aplicativo mal ajuda a manter os jovens usuários longe do aplicativo. Embora a ferramenta defina o limite padrão para o uso do aplicativo em 60 minutos por dia, os adolescentes ainda estavam passando 107 minutos no aplicativo, mesmo quando estava ativada. Isso é apenas 1,5 minutos a menos do que o uso médio de 108,5 minutos por dia antes do lançamento da ferramenta. Com base nos documentos internos, o TikTok baseou o sucesso da ferramenta em como ela “melhorou a confiança pública na plataforma TikTok através da cobertura da mídia.” A empresa sabia que a ferramenta não seria eficaz, com um documento dizendo que “[m]enores não têm função executiva para controlar seu tempo de tela, enquanto jovens adultos têm.” Outro documento supostamente disse que “em quase todas as métricas de engajamento, quanto mais jovem o usuário, melhor o desempenho.”

Além disso, o TikTok supostamente sabe que “bolhas de filtro” existem e entende como elas podem ser potencialmente perigosas. Funcionários realizaram estudos internos, de acordo com os documentos, onde descobriram que foram sugados para bolhas de filtro negativas logo após seguir certas contas, como aquelas focadas em conteúdo doloroso (“painhub”) e triste (“sadnotes”). Eles também estão cientes de conteúdo e contas que promovem “thinspiration,” que está associado a distúrbios alimentares. Devido à forma como o algoritmo do TikTok funciona, seus pesquisadores descobriram que os usuários são colocados em bolhas de filtro após 30 minutos de uso em uma única sessão.

O TikTok também está lutando com a moderação, de acordo com os documentos. Uma investigação interna descobriu que meninas menores de idade no aplicativo estavam recebendo “presentes” e “moedas” em troca de stripping ao vivo. E os superiores da empresa supostamente instruíram seus moderadores a não remover usuários denunciados por serem menores de 13 anos, a menos que suas contas afirmem que realmente têm menos de 13 anos. A NPR diz que o TikTok também reconheceu que um número substancial de conteúdo violando suas regras passa por suas técnicas de moderação, incluindo vídeos que normalizam a pedofilia, glorificam o assédio sexual de menores e abuso físico.

O porta-voz do TikTok, Alex Haurek, defendeu a empresa e disse à organização que a reclamação do Procurador Geral de Kentucky “seleciona citações enganosas e tira documentos desatualizados de contexto para distorcer nosso compromisso com a segurança da comunidade.” Ele também disse que o TikTok tem “salvaguardas robustas, que incluem a remoção proativa de usuários suspeitos de serem menores de idade” e que lançou “recursos de segurança voluntariamente, como limites de tempo de tela padrão, emparelhamento familiar e privacidade por padrão para menores de 16 anos.”

Fonte