OpenAI Quer que Você Prove que Não é uma Criança

Se você estiver cheio de muita maravilha infantil, pode ser relegado a uma versão do ChatGPT mais amigável para crianças. A OpenAI anunciou na terça-feira que planeja implementar um novo sistema de verificação de idade que ajudará a filtrar usuários menores de idade para uma nova experiência de chatbot mais apropriada para sua faixa etária. A mudança ocorre à medida que a empresa enfrenta maior escrutínio de legisladores e reguladores sobre como os usuários menores interagem com seu chatbot.

Para determinar a idade de um usuário, a OpenAI utilizará um sistema de previsão de idade que tenta estimar quantos anos um usuário tem com base em como ele interage com o ChatGPT. A empresa disse que, quando acredita que um usuário tem menos de 18 anos, ou quando não consegue fazer uma determinação clara, o filtrará para uma experiência projetada para usuários mais jovens. Para usuários que são colocados na experiência restrita por idade, quando na verdade têm mais de 18 anos, eles terão que fornecer uma forma de identificação para provar sua idade. E acessar a versão completa do ChatGPT.

De acordo com a empresa, essa versão do chatbot bloqueará “conteúdo sexual gráfico” e não responderá a conversas flertadoras ou sexualmente explícitas. Se um usuário menor de 18 anos expressar angústia ou ideação suicida, tentará contatar os pais do usuário e poderá contatar as autoridades se houver preocupações de “dano iminente”. Segundo a OpenAI, sua experiência para adolescentes prioriza “segurança em detrimento da privacidade e da liberdade”.

A OpenAI ofereceu dois exemplos de como delimita essas experiências:

Por exemplo, o comportamento padrão do nosso modelo não levará a muitas conversas flertadoras, mas se um usuário adulto pedir, ele deverá obtê-las. Para um exemplo muito mais difícil, o modelo, por padrão, não deve fornecer instruções sobre como cometer suicídio, mas se um usuário adulto estiver pedindo ajuda para escrever uma história fictícia que retrate um suicídio, o modelo deve ajudar com esse pedido. “Trate nossos usuários adultos como adultos” é como falamos sobre isso internamente, estendendo liberdade tanto quanto possível sem causar dano ou minar a liberdade de mais ninguém.

A OpenAI está atualmente sob a égide de um processo judicial por morte injusta movido pelos pais de um adolescente de 16 anos que tirou a própria vida após expressar pensamentos suicidas ao ChatGPT. Ao longo da conversa da criança com o chatbot, ele compartilhou evidências de automutilação e expressou planos de tentar suicídio – nada disso foi sinalizado ou elevado de uma maneira que pudesse levar a uma intervenção. Pesquisadores descobriram que chatbots como o ChatGPT podem ser instigados por usuários a buscar conselhos sobre como se envolver em automutilação ou tirar a própria vida. No início deste mês, a Comissão Federal de Comércio solicitou informações da OpenAI e de outras empresas de tecnologia sobre como seus chatbots afetam crianças e adolescentes.

A medida torna a OpenAI a mais recente empresa a entrar na tendência de verificação de idade, que varreu a internet este ano – impulsionada pela decisão da Suprema Corte que determina que uma lei do Texas que exige que sites pornográficos verifiquem a idade de seus usuários era constitucional, e pela exigência do Reino Unido de que plataformas online verifiquem a idade dos usuários. Enquanto algumas empresas obrigaram os usuários a enviar uma forma de identificação para provar sua idade, plataformas como o YouTube também optaram por métodos de previsão de idade, como a OpenAI, um método que foi criticado como impreciso e creepy.

Fonte

Compartilhe esse conteúdo: