A empresa-mãe do Google, Alphabet, está muito perto de se tornar a quarta empresa a entrar no clube de capitalização de mercado de $4 trilhões (os membros atuais que ultrapassaram esse limite são Apple, Microsoft e Nvidia).
Isso se deve a uma semana de notícias, indiscutivelmente, ótimas para seus esforços em IA.
A gigante da tecnologia e importante cliente da Nvidia, Meta, está considerando fornecer alguns de seus data centers com chips do Google, de acordo com o The Information na segunda-feira. O acordo, que pode valer bilhões de dólares, começaria em 2027, segundo o relatório, mas a Meta também poderia alugar chips do Google Cloud já no próximo ano.
Antes dessa notícia, houve um lançamento de produto chamativo. Na semana passada, a gigante da tecnologia lançou seu mais recente modelo de IA, Gemini 3, e anunciou algumas atualizações para seu gerador de imagens viral Nano Banana Pro, ambos com muito alarde.
De acordo com o The Verge, o cofundador e CTO da empresa de benchmarking de IA LMArena, Wei-Lin Chiang, disse que o lançamento do Gemini 3 representa “mais do que uma mudança de classificação”.
Atualmente, duas empresas são geralmente vistas como líderes na indústria de IA. Você tem a OpenAI do lado dos produtos, cujo ChatGPT se tornou quase sinônimo da palavra ‘chatbot de IA’. Do lado da infraestrutura de hardware, você tem a Nvidia, o maior fornecedor mundial de unidades de processamento gráfico (GPUs) que são usadas para alimentar a IA.
Mas o Google, uma empresa que tem muito dinheiro e recursos para gastar e conhecimento institucional para aproveitar como um veterano do Vale do Silício, parece bem posicionado para dar uma boa luta em ambos os fronts.
Muitas pessoas em toda a internet, incluindo o CEO da Salesforce, Marc Benioff, afirmaram que o modelo Gemini 3 do Google é melhor do que o ChatGPT da OpenAI em um grau significativo.
Por fora, a OpenAI ainda é o nome líder em chatbots de IA por enquanto. Mas, de acordo com um relatório do New York Times, o chefe do ChatGPT, Nick Turley, disse aos funcionários em outubro que a empresa estava enfrentando “a maior pressão competitiva que já vimos”.
No front dos chips de IA, a Nvidia ainda é a líder confiante, mas o Google pode conseguir uma grande vitória em seus esforços de recuperação se o relatório do The Information for verdade.
As GPUs da Nvidia são os chips de IA preferidos no momento, mas as unidades de processamento tensorais (TPUs) personalizadas do Google estão oferecendo pelo menos alguma competição.
Enquanto as GPUs são consideradas versáteis como canivetes suíços, com sua flexibilidade para acomodar uma ampla gama de tarefas, as TPUs do Google são especializadas e consideradas mais eficientes para cargas de trabalho específicas de IA. As TPUs são um tipo de circuito integrado de aplicação específica (ASIC). Um especialista da indústria disse à CNBC na semana passada que vê os ASICs personalizados crescendo “mais rápido do que o mercado de GPUs nos próximos anos”.
Além das GPUs que compra da Nvidia, o Google tem usado suas próprias TPUs para alimentar seu negócio de computação em nuvem há vários anos. A gigante da tecnologia também está alugando suas TPUs para empresas de IA como a Anthropic, que então usa os chips para seu chatbot Claude em conjunto com GPUs da Nvidia, bem como chips Trainium da Amazon.
A Meta sem dúvida seria uma adição significativa a essa lista de clientes e poderia, talvez, dar à empresa de chips personalizados do Google uma vantagem competitiva maior em um mercado dominado por um gigante.
