Microsoft está investigando se a DeepSeek usou indevidamente as APIs da OpenAI

Apenas algumas horas após David Sacks afirmar que a DeepSeek usou os modelos da OpenAI para treinar seus próprios modelos, o Bloomberg Law relata que a Microsoft está investigando o uso da API da OpenAI pela DeepSeek.

De acordo com pesquisadores de segurança que trabalham para a Microsoft, a empresa chinesa por trás do modelo de raciocínio R1 pode ter exfiltrado uma grande quantidade de dados usando a API da OpenAI no outono de 2024. A Microsoft, que também é o maior acionista da OpenAI, notificou a OpenAI sobre a atividade suspeita.

Embora qualquer pessoa possa se inscrever e acessar a API da OpenAI, os termos de serviço da empresa estipulam que você não pode usar a saída para treinar um novo modelo de IA.

“Você está proibido de […] usar a Saída para desenvolver modelos que competem com a OpenAI,” escreve a empresa em seus termos de uso. Além disso, a empresa diz que você não pode “extrair dados ou Saída automaticamente ou programaticamente.”

A questão central parece vir da destilação, um método usado por desenvolvedores de modelos de IA para extrair conhecimento de outro modelo usando um comportamento de professor-aluno. Será interessante ver se a DeepSeek encontrou maneiras inovadoras de contornar os limites de taxa da OpenAI e consultar sua API em grande escala. Se esse for o caso, certamente haverá ramificações legais.

Fonte

Compartilhe esse conteúdo: