São Francisco – Meta Platforms concorda em implantar “milhões” de processadores Nvidia nos próximos anos, fortalecendo o já próximo relacionamento entre dois dos maiores nomes da indústria de inteligência artificial.
A Meta, que responde por cerca de 9% da receita da Nvidia, está trabalhando para aumentar o uso de processadores de IA e equipamentos de rede do fornecedor, de acordo com um comunicado de 17 de fevereiro. Ela também planeja usar a unidade de processamento central (CPU) Grace da Nvidia no coração de um computador independente pela primeira vez.
Este lançamento inclui produtos baseados na atual geração Blackwell da Nvidia e nos próximos aceleradores de IA projetados por Vera Rubin.
“Estamos entusiasmados em expandir nossa parceria com a NVIDIA e usar a plataforma Vera Rubin para construir clusters de ponta e levar superinteligência pessoal para todos ao redor do mundo”, disse o CEO da Meta, Mark Zuckerberg, em comunicado.
O acordo reafirma a lealdade da Meta à Nvidia à medida que o cenário da IA muda.
Os sistemas da Nvidia ainda são considerados o padrão ouro para infraestrutura de IA
– e gerar centenas de bilhões de dólares em receitas para fabricantes de chips. Mas os concorrentes estão agora a oferecer alternativas e a Meta está a trabalhar na construção dos seus próprios componentes internos.
As ações da Nvidia e da Meta subiram cerca de 1% no final do pregão de 17 de fevereiro, após o anúncio do negócio. Advanced Micro Devices, rival do processador AI da Nvidia, caiu cerca de 3%.
De acordo com estimativas recentes da IDC, os aceleradores de IA da Nvidia, chips que ajudam a desenvolver e executar modelos de IA, custam em média US$ 16.061 (S$ 20.285) cada. Isso significa que um milhão de chips custaria mais de US$ 16 bilhões. Isso não leva em conta os altos preços das versões mais recentes e outros equipamentos da Nvidia que a Meta está comprando.
Mas a Meta já era a segunda maior compradora de produtos Nvidia. No último ano fiscal, o total foi de cerca de US$ 19 bilhões, segundo dados compilados pela Bloomberg.
Ian Back, vice-presidente de computação acelerada da Nvidia, disse que as empresas não especificaram um valor em dólares nem forneceram um cronograma para o esforço mais recente.
Buck argumenta que apenas a Nvidia pode oferecer a ampla gama de componentes, sistemas e software necessários às empresas que desejam ser líderes em IA. Ainda assim, ele disse que faz sentido que Mehta e outros tentem outras alternativas.
Entretanto, Zuckerberg fez da IA uma prioridade máxima para a Meta, comprometendo-se a gastar centenas de milhares de milhões de dólares para construir a infra-estrutura necessária para competir nesta nova era.
A Meta já previu gastos recordes em 2026, e Zuckerberg disse em 2025 que a empresa injetaria US$ 600 bilhões em projetos de infraestrutura nos EUA nos próximos três anos. A Meta está construindo vários data centers do tamanho de gigawatts em todo o país, inclusive em Louisiana, Ohio e Indiana. Um gigawatt é a quantidade de energia necessária para abastecer aproximadamente 750.000 residências.
Buck enfatizou que a Meta será a primeira operadora de data center em grande escala a usar CPUs NVIDIA em servidores independentes. A Nvidia normalmente oferece essa tecnologia em conjunto com aceleradores de IA de última geração, que são chips semelhantes aos processadores gráficos.
Esta mudança marca uma incursão em território dominado pela Intel e AMD. Ele também oferece uma alternativa a alguns chips proprietários projetados por grandes operadoras de data centers, como a Amazon Web Services da Amazon.com.
Buck disse que as aplicações para esses chips só irão se expandir. Além de usar os próprios chips, a Meta, dona do Facebook e do Instagram, também contará com o poder de computação baseado na Nvidia fornecido por outras empresas.
Buck disse que as CPUs da Nvidia serão cada vez mais usadas para tarefas como manipulação de dados e aprendizado de máquina.
“As CPUs têm muitos tipos diferentes de cargas de trabalho”, diz Buck. “O que descobrimos é que Grace é uma excelente CPU de back-end para datacenter.” Isso significa que Grace lida com tarefas de computação nos bastidores.
“Na verdade, você pode obter o dobro do desempenho por watt para cargas de trabalho de back-end”, disse ele. Bloomberg