Temos uma nova geração crescendo na aurora da inteligência artificial. Os primeiros sinais de seu impacto são alarmantes.
Uma instituição britânica para a juventude chamada OnSide entrevistou 5.035 jovens entre 11 e 18 anos para o “Relatório de Geração Isolada”, seu estudo anual sobre como os jovens passam seu tempo livre. Os resultados pintam um quadro bastante sombrio.
A pesquisa revelou que dois em cada cinco adolescentes recorrem à IA em busca de conselhos, companhia ou apoio, com 20% daqueles que o fazem afirmando que conversar com a IA é mais fácil do que com uma pessoa real.
“O apoio da IA é instantâneo, mas não substitui a confiança, empatia e compreensão de uma conversa humana”, disse Jamie Masraff, diretor executivo da OnSide, no relatório.
Mais da metade dos jovens entrevistados afirmaram que recorreram à IA especificamente para obter conselhos sobre coisas como roupas, amizades, saúde mental ou para ajudar a lidar com emoções como tristeza e estresse. Um em cada dez disse que escolheu a IA porque só queria alguém para conversar.
O estudo e suas descobertas mostram uma geração que se sente solitária e que tem acesso irrestrito a uma tecnologia que é viciadora por natureza. De acordo com o estudo, 76% dos jovens passam a maior parte de seu tempo livre em telas, e 34% relatam sentir altos ou muito altos níveis de solidão.
A IA, que ainda está na era do Velho Oeste pouco regulamentada, é uma dessas tecnologias, e não é surpresa que jovens solitários recorram a ela em busca de companhia e conselhos rápidos.
“Está claro que as questões interligadas de solidão, dependência digital e isolamento se tornaram entranhadas na vida dos jovens, levantando questões mais profundas sobre como é crescer dessa maneira”, disse Masraff.
À medida que a IA se aprofunda na vida cotidiana dos adolescentes, os alarmes estão soando. Os chatbots de IA se mostraram perigosamente viciantes para alguns adultos, cujos cérebros já estão em plena capacidade funcional. Agora, imagine como pode ser pior para crianças cujas córtex pré-frontais estão longe de se completarem.
A Associação Americana de Psicologia tem pressionado a FTC a abordar o uso de chatbots de IA como terapeutas não licenciados. A associação escreveu em um post no blog de março que chatbots usados para aconselhamento de saúde mental poderiam colocar usuários em perigo, especialmente “grupos vulneráveis [que] incluem crianças e adolescentes, que não têm a experiência para avaliar riscos com precisão”.
Em alguns casos, os resultados alegadamente foram fatais. Duas famílias separadas apresentaram queixas contra empresas de inteligência artificial Character.AI e OpenAI, alegando que os chatbots das empresas influenciaram e ajudaram os suicídios de seus filhos. Em um caso, o ChatGPT da OpenAI ajudou um adolescente de 16 anos a planejar seu suicídio e até desencorajou-o de contar aos pais sobre sua ideação suicida.
Vários chatbots de IA também estão sendo investigados por conversas sexualizadas com crianças. A Meta foi criticada no início deste ano, após um documento interno vazado mostrar que a gigante da tecnologia havia permitido que suas ferramentas de IA se envolvessem em conversas “sensuais” com crianças.
No mês passado, o Congresso apresentou um projeto de lei bipartidário chamado GUARD Act, com o objetivo de forçar as empresas de IA a instituir verificação de idade em seus sites e bloquear usuários com menos de 18 anos.
“Os chatbots de IA representam uma ameaça séria para nossas crianças”, disse o senador Josh Hawley, que introduziu o projeto de lei junto com o senador Richard Blumenthal, à NBC News. “Mais de setenta por cento das crianças americanas estão agora usando esses produtos de IA.”
Mas mesmo que essa lei se torne uma realidade, é incerto quão eficaz será para manter as crianças afastadas dos chatbots de IA. Verificações de idade e limites usados por plataformas de mídia social não têm sido as ferramentas mais eficazes para proteger as crianças dos efeitos adversos da internet.
