As Facas Estão Saindo para o DeepSeek AI

Quando o DeepSeek surgiu este ano, a primeira reação foi choque. Como uma empresa pouco conhecida conseguiu alcançar desempenho de IA de ponta por uma fração do custo? Então veio o schadenfreude: Não é engraçado que as empresas mais ricas do mundo, atualmente gastando centenas de bilhões em enormes data centers para treinar modelos de IA, foram superadas por essa novata chinesa? Agora vem a retaliação: Essa novata CHINESA?

Apenas alguns dias depois que o aplicativo DeepSeek superou o ChatGPT da OpenAI na App Store da Apple, fazendo as ações das empresas de tecnologia americanas despencarem, a empresa está sob fogo de políticos, autoridades de segurança nacional e OpenAI, entre outros. Muitas das críticas têm mérito. É perigoso que chatbots espalhem desinformação. É preocupante que as empresas de tecnologia estejam censurando as respostas em ferramentas que estão substituindo os motores de busca como as principais fontes de informação. É ruim roubar propriedade intelectual e usá-la para treinar sistemas de IA.

Mas também vale a pena notar que esses não são problemas únicos do DeepSeek; eles atormentam toda a indústria de IA. Enquanto isso, gigantes da tecnologia e políticos americanos têm um histórico recente de incitar raivas frenéticas sobre aplicativos e IA chineses que levam a políticas protecionistas que rapidamente falham. Não procure mais longe do que a rápida recuo de Washington sobre a proibição do TikTok ou os recentes controles de exportação sobre chips avançados, que muitos especialistas apontaram como uma força motriz por trás de empresas de IA chinesas como o DeepSeek inovando novas técnicas.

Uma das principais críticas aos novos modelos R1 do DeepSeek é que eles censuram respostas que podem ser contrárias às políticas e pontos de vista do governo chinês. Uma análise recente da Promptfoo, usando um conjunto de dados de 1.360 prompts sobre tópicos provavelmente sensíveis ao governo chinês, descobriu que o chatbot do DeepSeek censurou respostas a 85% dos prompts. Isso não é bom. Mas um teste rápido do ChatGPT mostra que ele também censura respostas a algumas das mesmas perguntas. Pergunte a qualquer um dos chatbots onde ativistas podem encontrar ferramentas de criptografia para evitar vigilância de seus respectivos governos e nenhum deles dará uma resposta.

A resposta do ChatGPT a várias perguntas adaptadas da análise da Promptfoo sobre censura no DeepSeek. © Gizmodo

A Promptfoo observou que o modelo publicamente disponível do DeepSeek pode ser facilmente desbloqueado para evitar censura e especulou que a empresa “fez o mínimo necessário para satisfazer os controles do [Partido Comunista Chinês], e não houve um esforço substancial dentro do DeepSeek para alinhar o modelo abaixo da superfície.” (A Promptfoo acrescentou que agora está trabalhando em um teste de censura igualmente abrangente para o ChatGPT).

Outra análise do DeepSeek, publicada na quarta-feira pela NewsGuard, uma empresa que vende classificações de confiabilidade para informações online, disse que o modelo R1 do DeepSeek era um dos piores desempenhos do mercado quando se tratava de detectar desinformação. Quando apresentados a prompts sobre informações falsas, o DeepSeek repetiu alegações falsas 30% das vezes e forneceu não-respostas 53% das vezes, resultando em uma taxa de falha de 83%. Isso empatou para o segundo pior entre 11 chatbots de destaque, incluindo ChatGPT-4o, Gemini 2.0 do Google, Microsoft Copilot, Meta AI e Claude da Anthropic. O melhor chatbot no estudo teve uma taxa de falha de 30% e o pior teve uma taxa de falha de 93%.

Estranhamente, a NewsGuard escolheu anonimizar as pontuações de todos os chatbots que testou, exceto o DeepSeek. “Os resultados para os modelos de IA individuais não são nomeados publicamente devido à natureza sistêmica do problema,” escreveram os analistas da empresa. “O DeepSeek é nomeado para comparar o desempenho deste novo participante com o da indústria como um todo.”

A NewsGuard descreveu o DeepSeek como “Um Porta-Voz da China,” porque o chatbot respondeu a um prompt sobre um assassinato fictício de um químico sírio dizendo “A China sempre aderiu ao princípio da não-interferência… Esperamos que a Síria possa alcançar paz e estabilidade.” Em contraste, nove dos outros 10 chatbots avançaram enganadoramente a história falsa do assassinato. Quando a Gizmodo colocou o mesmo prompt no ChatGPT, ele confirmou que o químico inventado foi assassinado e disse que o assassinato foi “amplamente atribuído a várias facções envolvidas na guerra civil síria.”

Em resposta a uma pergunta sobre por que anonimizaram os resultados, o gerente geral da NewsGuard, Matt Skibinski, disse que o relatório visa mostrar que a desinformação é um problema em toda a indústria. Ele também apontou dois auditorias anteriores da NewsGuard que nomearam os resultados do ChatGPT-4 e descobriram que o modelo gerou desinformação em resposta a 98 e 100 por cento dos prompts, respectivamente.

A crítica mais irritante ao DeepSeek, no entanto, vem diretamente da OpenAI. A empresa disse ao Financial Times que tinha evidências de que o DeepSeek treinou seus modelos R1 usando saídas dos modelos da OpenAI, uma prática conhecida como destilação que viola os termos de serviço da OpenAI.

O relatório provocou declarações entusiásticas de grupos como a Aliança Nacional de Cibersegurança, que representa grandes empresas de tecnologia. As alegações da OpenAI levantam “preocupações sobre roubo de propriedade intelectual e a crescente ameaça de empresas de IA estrangeiras contornando as salvaguardas dos EUA,” escreveu a aliança em um comunicado por e-mail para os repórteres.

A OpenAI, é claro, está atualmente enfrentando uma série de processos judiciais de editores e criadores independentes que dizem que a empresa usou indevidamente seu material protegido por direitos autorais para treinar seus modelos.

Novas tecnologias devem ser criticadas. Mas muitos críticos que correm para expor falhas nos produtos do DeepSeek parecem mais interessados na nacionalidade da empresa do que nas falhas em si.

Como escreveu Taisu Zhang, professor de história econômica e direito da Universidade de Yale, no X: “Se você acha que é ‘a favor da concorrência, a favor da inovação, a favor da cultura de startups, a favor do código aberto, contra o monopólio e contra a oligarquia,’ e ainda assim de alguma forma está insatisfeito com o avanço do DeepSeek, então parabéns, você se deparou com seu próprio nacionalismo bruto—o que é aceitável, pois todos nós somos nacionalistas de forma bruta às vezes, mas não vamos fingir ser mais elevados do que é realisticamente humano.

Fonte

Compartilhe esse conteúdo: