A OpenAI se junta a outras empresas de tecnologia que tentaram versões específicas para jovens de seus serviços. O YouTube Kids, as Contas de Adolescentes do Instagram e as restrições para menores de 16 anos no TikTok representam esforços semelhantes para criar espaços digitais “mais seguros” para usuários jovens, mas os adolescentes frequentemente contornam a verificação de idade através de entradas de data de nascimento falsas, contas emprestadas ou soluções técnicas. Um relatório da BBC de 2024 descobriu que 22% das crianças mentem em plataformas de mídia social sobre ter 18 anos ou mais.
Trocas entre privacidade e segurança
Apesar da tecnologia não comprovada por trás da detecção de idade em IA, a OpenAI ainda planeja avançar com seu sistema, reconhecendo que os adultos sacrificarão privacidade e flexibilidade para fazê-lo funcionar. Altman reconheceu a tensão que isso cria, dada a natureza íntima das interações com IA.
“As pessoas falam com a IA sobre questões cada vez mais pessoais; isso é diferente das gerações anteriores de tecnologia, e acreditamos que podem ser uma das contas mais pessoalmente sensíveis que você terá”, escreveu Altman em sua postagem.
A pressão pela segurança segue o reconhecimento da OpenAI em agosto de que as medidas de segurança do ChatGPT podem falhar durante conversas longas – precisamente quando usuários vulneráveis podem precisar delas mais. “À medida que a conversa avança, partes do treinamento de segurança do modelo podem degradar”, escreveu a empresa na época, observando que, embora o ChatGPT possa corretamente direcionar os usuários para linhas de apoio ao suicídio inicialmente, “após muitas mensagens ao longo de um longo período de tempo, pode eventualmente oferecer uma resposta que vai contra nossas salvaguardas.”
Essa degradação das salvaguardas provou ser tragicamente consequente no caso de Adam Raine. De acordo com o processo, o ChatGPT mencionou o suicídio 1.275 vezes nas conversas com Adam – seis vezes mais do que o adolescente. Enquanto isso, os protocolos de segurança do sistema falharam em intervir ou avisar alguém. Pesquisadores de Stanford descobriram em julho que bots de terapia de IA podem fornecer conselhos perigosos sobre saúde mental, e relatórios recentes documentaram casos de usuários vulneráveis desenvolvendo o que alguns especialistas chamam informalmente de “Psicose de IA” após interações prolongadas com chatbots.
A OpenAI não abordou como o sistema de predicação de idade lidaria com usuários existentes que têm usado o ChatGPT sem verificação de idade, se o sistema se aplicaria ao acesso da API ou como planeja verificar idades em jurisdições com diferentes definições legais de maioridade.
Todos os usuários, independentemente da idade, continuarão a ver lembretes no aplicativo durante longas sessões do ChatGPT que incentivam pausas – um recurso que a OpenAI introduziu no início deste ano após relatos de usuários passando longas maratonas com o chatbot.
