Zuckerberg sinaliza que a Meta provavelmente não abrirá o código-fonte de todos os seus modelos de IA ‘superinteligentes’

O CEO da Meta, Mark Zuckerberg, compartilhou sua visão na quarta-feira sobre a ‘superinteligência pessoal’, a ideia de que as pessoas devem ser capazes de usar a IA para alcançar seus objetivos pessoais.

Sutilmente, na carta, há um sinal de que a Meta está mudando a forma como planeja lançar modelos de IA enquanto busca pela ‘superinteligência’.

‘Acreditamos que os benefícios da superinteligência devem ser compartilhados com o mundo o mais amplamente possível’, escreveu Zuckerberg. ‘Dito isso, a superinteligência levantará novas preocupações de segurança. Precisaremos ser rigorosos na mitigação desses riscos e cuidadosos sobre o que escolhemos abrir o código-fonte.’

Essa redação sobre código aberto é significativa. Zuckerberg historicamente posicionou a família de modelos abertos Llama da Meta como o principal diferencial da empresa em relação a concorrentes como OpenAI, xAI e Google DeepMind. O objetivo da Meta tem sido criar modelos de IA abertos que sejam tão bons ou melhores do que aqueles fechados. Em uma carta de 2024, Zuckerberg escreveu: ‘A partir do próximo ano, esperamos que os futuros modelos Llama se tornem os mais avançados da indústria.’

E embora muitos digam que o Llama não se encaixa na definição estrita de IA de código aberto – em parte porque a Meta não liberou seus enormes conjuntos de dados de treinamento – as palavras de Zuckerberg apontam para uma possível mudança de prioridade: o código aberto pode não ser mais o padrão para a IA de ponta da Meta.

Há uma razão pela qual os rivais da Meta mantêm seus modelos fechados. Modelos fechados dão às empresas mais controle sobre a monetização de seus produtos. Zuckerberg apontou no ano passado que o negócio da Meta não depende da venda de acesso a modelos de IA, então ‘liberar o Llama não prejudica nossa receita, sustentabilidade ou capacidade de investir em pesquisa como faz para provedores fechados.’ A Meta, claro, ganha a maior parte de seu dinheiro com a venda de publicidade na internet.

Ainda assim, essa visão declarada sobre modelos abertos foi antes de a Meta começar a sentir que estava ficando para trás dos concorrentes, e os executivos se tornaram obcecados em superar o modelo GPT-4 da OpenAI enquanto desenvolviam o Llama 3.

Corte para junho de 2025, quando a Meta começou seu sprint público em AGI a sério, investindo US$ 14,3 bilhões na Scale AI, adquirindo o fundador e CEO da Scale e reestruturando seus esforços de IA sob uma nova unidade chamada Meta Superintelligence Labs. A Meta gastou bilhões de dólares para adquirir pesquisadores e engenheiros de grandes empresas de IA e construir novos centros de dados.

Relatórios recentes indicam que todo esse investimento levou a Meta a pausar os testes em seu mais recente modelo Llama, Behemoth, e, em vez disso, focar esforços no desenvolvimento de um modelo fechado.

Com a missão de Zuckerberg de introduzir a ‘superinteligência pessoal’ ao mundo – uma mudança decidida em relação aos rivais com os quais ele diz estarem trabalhando na ‘automação de todo trabalho valioso’ – sua estratégia de monetização de IA está tomando forma. É claro a partir das palavras de Zuckerberg que a Meta planeja oferecer ‘superinteligência pessoal’ através de seus próprios produtos, como óculos de realidade aumentada e headsets de realidade virtual.

‘Os dispositivos pessoais, como óculos que entendem nosso contexto porque podem ver o que vemos, ouvir o que ouvimos e interagir conosco ao longo do dia, se tornarão nossos principais dispositivos de computação’, escreveu Zuckerberg em sua carta de quarta-feira.

Quando questionado sobre a possibilidade de a Meta manter seus modelos mais avançados fechados, um porta-voz da Meta disse que a empresa continua comprometida com a IA de código aberto e que também espera treinar modelos de código fechado no futuro.

‘ nossa posição sobre IA de código aberto permanece inalterada’, disse um porta-voz. ‘Planejamos continuar lançando modelos de código aberto líderes. Não liberamos tudo o que desenvolvemos historicamente e esperamos continuar treinando uma mistura de modelos abertos e fechados daqui para frente.

Fonte

Compartilhe esse conteúdo: