A OpenAI, dona do ChatGPT, afirma ter provas de que a startup chinesa de IA (inteligência artificial) DeepSeek utilizou modelos da companhia norte-americana para treinar sua própria IA, como divulgou o “Financial Times” nesta quarta-feira (29). As alegações aumentam a preocupação em relação a violações de propriedade intelectual.
De acordo com a empresa dos EUA, foram encontradas evidências de “destilação” que podem ser da DeepSeek. A prática é usada para obter um melhor desempenho de modelos menores usando modelos mais capazes, conseguindo resultados parecidos com um custo menor.
Esta prática é usual no setor, mas os termos de serviço da OpenAI proíbem sua utilização para a construção de um modelo concorrente. A empresa não quis dar mais detalhes sobre as evidências, segundo o “Financial Times”.
O desempenho do modelo de raciocínio R1 da DeepSeek foi uma surpresa para os mercados financeiros, já que foram criados com um orçamento menor e obtiveram alta qualificação e resultados parecidos com as concorrentes dos EUA.
No ano passado, a OpenAI e a Microsoft, parceira da empresa, investigaram contas que suspeitavam ser da DeepSeek e que utilizaram sua interface de programação de aplicativos em possível destilação contrária a seus termos de serviço, como informou a “Bloomberg”.
“Czar” da IA afirma que houve violação de propriedade intelectual pelo DeepSeek
O “czar” da IA e das criptomoedas de Donald Trump, David Sacks, também já afirmou que “é possível” que tenha ocorrido roubo de propriedade intelectual.
“Há uma técnica em IA chamada destilação (…), quando um modelo aprende com outro modelo e basicamente suga o conhecimento do modelo original”, disse Sacks ao canal “Fox News”, na terça-feira (28).
“E há evidências substanciais de que o que a DeepSeek fez aqui foi destilar retirando conhecimento dos modelos da OpenAI. E eu não acho que a OpenAI esteja nada feliz com isso”, afirmou, mesmo sem fornecer provas.
Segundo a DeepSeek, foram gastos US$ 5,6 milhões no treinamento do modelo V3 da empresa, com 671 bilhões de parâmetros. Valor muito menor do que a OpenAI e o Google gastaram com modelos da mesma magnitude.