Reflection levanta US$ 2 bilhões para ser o laboratório de IA de fronteira aberta da América, desafiando a DeepSeek

Reflection, uma startup fundada apenas no ano passado por dois ex-pesquisadores do Google DeepMind, levantou US$ 2 bilhões com uma avaliação de US$ 8 bilhões, um salto impressionante de 15 vezes em relação à sua avaliação de US$ 545 milhões há apenas sete meses. A empresa, que originalmente se concentrou em agentes de codificação autônomos, agora se posiciona como uma alternativa de código aberto para laboratórios de fronteira fechados, como OpenAI e Anthropic, e um equivalente ocidental para empresas de IA chinesas como a DeepSeek.

A startup foi lançada em março de 2024 por Misha Laskin, que liderou a modelagem de recompensas do projeto Gemini do DeepMind, e Ioannis Antonoglou, que co-criou o AlphaGo, o sistema de IA que derrotou o campeão mundial no jogo de tabuleiro Go em 2016. Seu histórico no desenvolvimento desses sistemas de IA muito avançados é central para seu argumento, que é que o talento certo em IA pode construir modelos de fronteira fora das gigantes da tecnologia estabelecidas.

Junto com sua nova rodada de investimento, a Reflection anunciou que recrutou uma equipe de principais talentos do DeepMind e do OpenAI, e construiu um avançado stack de treinamento de IA que promete ser aberto a todos. Talvez o mais importante, a Reflection afirma ter “identificado um modelo comercial escalável que se alinha com nossa estratégia de inteligência aberta.”

A equipe da Reflection atualmente conta com cerca de 60 pessoas — principalmente pesquisadores e engenheiros de IA em infraestrutura, treinamento de dados e desenvolvimento de algoritmos, segundo Laskin, o CEO da empresa. A Reflection garantiu um cluster de computação e espera lançar um modelo de linguagem de fronteira no próximo ano que será treinado em “dezenas de trilhões de tokens”, disse ele ao TechCrunch.

“Construímos algo que antes se pensava ser possível apenas dentro dos melhores laboratórios do mundo: uma plataforma de LLM em larga escala e aprendizado por reforço capaz de treinar modelos de Mixture-of-Experts (MoEs) em escala de fronteira”, escreveu a Reflection em uma postagem no X. “Vimos a eficácia de nossa abordagem em primeira mão quando a aplicamos ao domínio crítico da codificação autônoma. Com esse marco desbloqueado, agora estamos trazendo esses métodos para o raciocínio agente geral.”

MoE refere-se a uma arquitetura específica que alimenta LLMs de fronteira — sistemas que, anteriormente, apenas grandes laboratórios de IA fechados eram capazes de treinar em escala. A DeepSeek teve um momento de ruptura quando descobriu como treinar esses modelos em escala de forma aberta, seguido por Qwen, Kimi e outros modelos na China.

“A DeepSeek e a Qwen e todos esses modelos são nosso chamado para acordar porque, se não fizermos nada a respeito, então efetivamente, o padrão global de inteligência será construído por outra pessoa”, disse Laskin. “Não será construído pela América.”

Laskin acrescentou que isso coloca os EUA e seus aliados em desvantagem porque empresas e estados soberanos muitas vezes não usarão modelos chineses devido a possíveis repercussões legais.

“Então você pode escolher viver em uma desvantagem competitiva ou se levantar para a ocasião”, disse Laskin.

Os tecnólogos americanos celebraram amplamente a nova missão da Reflection. David Sacks, o Czar de IA e Cripto da Casa Branca, postou no X: “É ótimo ver mais modelos de IA de código aberto americanos. Um segmento significativo do mercado global preferirá o custo, a personalização e o controle que o código aberto oferece. Queremos que os EUA ganhem essa categoria também.”

Clem Delangue, cofundador e CEO da Hugging Face, uma plataforma aberta e colaborativa para construtores de IA, disse ao TechCrunch sobre a rodada: “Essa é realmente uma grande notícia para a IA de código aberto americana. Acrescentou Delangue, “Agora o desafio será mostrar alta velocidade de compartilhamento de modelos de IA abertos e conjuntos de dados (semelhante ao que estamos vendo dos laboratórios dominantes em IA de código aberto).”

A definição da Reflection de ser “aberta” parece centrar-se no acesso, em vez do desenvolvimento, semelhante a estratégias da Meta com Llama ou Mistral. Laskin disse que a Reflection liberaria pesos de modelo — os parâmetros centrais que determinam como um sistema de IA funciona — para uso público, mantendo em grande parte conjuntos de dados e pipelines de treinamento completos como propriedade.

“Na realidade, a coisa mais impactante são os pesos do modelo, porque os pesos do modelo que qualquer um pode usar e começar a experimentar”, disse Laskin. “O stack de infraestrutura, apenas um punhado selecionado de empresas pode realmente usar isso.”

Esse equilíbrio também fundamenta o modelo de negócios da Reflection. Pesquisadores poderão usar os modelos livremente, disse Laskin, mas a receita virá de grandes empresas construindo produtos em cima dos modelos da Reflection e de governos desenvolvendo sistemas de “IA soberana”, ou seja, modelos de IA desenvolvidos e controlados por nações individuais.

“Uma vez que você entra nesse território onde você é uma grande empresa, por padrão você quer um modelo aberto”, disse Laskin. “Você quer algo que terá propriedade sobre. Você pode executá-lo em sua infraestrutura. Você pode controlar seus custos. Você pode personalizá-lo para várias cargas de trabalho. Porque você está pagando uma quantia absurda de dinheiro por IA, você quer ser capaz de otimizá-lo o máximo possível, e realmente esse é o mercado que estamos servindo.”

A Reflection ainda não lançou seu primeiro modelo, que será principalmente baseado em texto, com capacidades multimodais no futuro, de acordo com Laskin. A empresa usará os fundos desta última rodada para obter os recursos computacionais necessários para treinar os novos modelos, o primeiro dos quais a empresa espera lançar no início do próximo ano.

Fonte

Compartilhe esse conteúdo: