Modelo DeepSeek ‘Quase 100% Bem-Sucedido’ em Evitar Tópicos Controversos

Conheça o novo DeepSeek, agora com mais conformidade governamental. De acordo com um relatório da Reuters, o popular modelo de linguagem de grande porte desenvolvido na China tem uma nova versão chamada DeepSeek-R1-Safe, especificamente projetada para evitar tópicos politicamente controversos.

Desenvolvido pelo gigante da tecnologia chinesa Huawei, o novo modelo é supostamente “quase 100% bem-sucedido” em impedir discussões de assuntos politicamente sensíveis.

De acordo com o relatório, a Huawei e pesquisadores da Universidade de Zhejiang (interessantemente, o DeepSeek não esteve envolvido no projeto) pegaram o modelo de código aberto DeepSeek R1 e o treinaram usando 1.000 chips de IA Huawei Ascend para instilar no modelo menos tolerância a conversas controversas. A nova versão, que a Huawei afirma ter perdido apenas cerca de 1% da velocidade e capacidade de desempenho do modelo original, está melhor equipada para desviar de “discurso tóxico e prejudicial, conteúdo politicamente sensível e incitação a atividades ilegais.”

Embora o modelo possa ser mais seguro, ainda não é infalível. Enquanto a empresa afirma uma taxa de sucesso quase 100% em uso básico, também descobriu que a capacidade do modelo de evitar conversas questionáveis cai para apenas 40% quando os usuários disfarçam seus desejos em desafios ou situações de dramatização. Esses modelos de IA adoram dramatizar um cenário hipotético que lhes permite desafiar suas barreiras.

O DeepSeek-R1-Safe foi projetado para se alinhar aos requisitos dos reguladores chineses, segundo a Reuters, que exigem que todos os modelos de IA domésticos lançados ao público reflitam os valores do país e cumpram as restrições de discurso. O chatbot Ernie da empresa chinesa Baidu, por exemplo, supostamente não responde a perguntas sobre a política interna da China ou o Partido Comunista Chinês.

A China, claro, não é o único país que busca garantir que a IA implantada dentro de suas fronteiras não cause grandes distúrbios. No início deste ano, a empresa de tecnologia saudita Humain lançou um chatbot nativo em árabe que é fluente na língua árabe e treinado para refletir “cultura, valores e patrimônios islâmicos”. Modelos feitos nos EUA também não são imunes a isso: a OpenAI declara explicitamente que o ChatGPT é “tendencioso em direção a visões ocidentais.”

E há a América sob a administração Trump. No início deste ano, Trump anunciou seu Plano de Ação de IA da América, que inclui requisitos de que qualquer modelo de IA que interaja com agências governamentais seja neutro e “imparcial”. O que isso significa, exatamente? Bem, de acordo com uma ordem executiva assinada por Trump, os modelos que garantirem contratos governamentais devem rejeitar coisas como “dogma radical sobre clima”, “diversidade, equidade e inclusão” e conceitos como “teoria crítica da raça, transexualidade, preconceito inconsciente, interseccionalidade e racismo sistêmico.” Então, antes de fazer qualquer piada sobre o “Querido líder” da China, é provavelmente melhor darmos uma olhada no espelho.

Fonte

Compartilhe esse conteúdo: