pergunte a alguém o que Nvidia fazere provavelmente dirão “GPU” primeiro. Durante décadas, os fabricantes de chips foram definidos pela computação altamente paralela, mas o advento da IA ​​generativa e o resultante aumento na demanda por GPUs Benefícios para a empresa.

Mas os movimentos recentes da Nvidia indicam que a empresa deseja atrair mais clientes do segmento de IA com menos uso intensivo de computação, clientes que não precisam necessariamente dos recursos mais poderosos. GPU poderosa Em vez de treinar um modelo de IA, você está procurando a maneira mais eficiente de executar software de IA de agente. A Nvidia gastou recentemente bilhões de dólares licenciando tecnologia de startups de chips focadas em computação de IA de baixa latência e também começou a vender CPUs independentes como parte de seu mais recente sistema de superchip.

E ontem, Nvidia e Meta anunciado A gigante da mídia social concordou em comprar bilhões de dólares em chips Nvidia para fornecer poder de computação para os enormes projetos de infraestrutura da gigante da mídia social, com CPUs Nvidia incluídas como parte do acordo.

Este acordo plurianual amplia a parceria contínua e acolhedora entre as duas empresas. Meta afirmou anteriormente que até o final de 2024, 350.000 chips H100 Da Nvidia, a empresa planeja ter acesso até o final de 2025. 1,3 milhão de GPUs no total (Não está claro se todos são chips Nvidia).

Como parte de seu último anúncio, a Nvidia disse que a Meta “construirá data centers em hiperescala otimizados para treinamento e inferência para apoiar o roteiro de infraestrutura de IA de longo prazo da empresa”. Isso inclui “implantação massiva” de CPUs Nvidia e “milhões de GPUs Nvidia Blackwell e Rubin”.

Notavelmente, Meta foi a primeira gigante da tecnologia a anunciar que compraria CPUs Grace da Nvidia como chips independentes em grande escala, e a Nvidia disse que seria uma opção quando revelasse as especificações completas de seu novo superchip Vera Rubin em janeiro. A NVIDIA também enfatiza que oferece tecnologia que conecta diferentes chips como parte de sua “abordagem completa” ao poder da computação, como disse um analista.

Ben Bajarin, CEO e analista principal da empresa de pesquisa de mercado de tecnologia Creative Strategies, disse que a mudança mostra que a Nvidia reconhece que cada vez mais software de IA precisa ser executado em CPUs, assim como os aplicativos tradicionais em nuvem. “A razão pela qual a indústria está tão otimista em relação às CPUs no data center no momento é a IA do agente, que impõe novas demandas às arquiteturas de CPU de uso geral”, diz ele.

um Relatórios recentes do Chip Newsletter Ele enfatizou esse ponto. Os analistas observam que a utilização da CPU está acelerando para apoiar o treinamento e inferência de IA, citando um dos data centers da Microsoft para OpenAI como exemplo: “Dezenas de milhares de CPUs são agora necessárias para processar e gerenciar os petabytes de dados gerados pelas GPUs, um caso de uso que não seria necessário sem IA”.

No entanto, Bajarin aponta que a CPU ainda é apenas um componente dos sistemas de hardware de IA mais avançados. Meta ainda compra mais GPUs da Nvidia do que CPUs.

“Se você é um dos hiperescaladores, não será proprietário de uma empresa.” todos “O software que você está executando só precisa ser rápido o suficiente na CPU para interagir com a arquitetura da GPU que realmente alimenta essa computação”, diz Bajarin. Caso contrário, a CPU se tornará o gargalo. ”

Meta se recusou a comentar sobre a expansão do contrato com a Nvidia. Numa recente teleconferência de resultados, o gigante das redes sociais disse que planeia aumentar significativamente os gastos em infraestrutura de IA este ano para entre 115 mil milhões e 135 mil milhões de dólares, acima dos 72,2 mil milhões de dólares do ano passado.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui