O CEO da Nvidia, Jensen Huang, disse na segunda-feira que os chips de próxima geração da empresa estão em “plena produção” e que podem fornecer cinco vezes mais computação com inteligência artificial do que os chips anteriores da empresa ao servir chatbots e outros aplicativos de IA.
Num discurso no Consumer Electronics Show em Las Vegas, o líder da empresa mais valiosa do mundo revelou novos detalhes sobre seus chips, que chegarão ainda este ano e estão sendo testados por empresas de IA nos laboratórios da empresa, disseram executivos da Nvidia, enquanto a Nvidia enfrenta concorrência crescente de rivais, bem como de seus próprios clientes.
A plataforma Vera Rubin, composta por seis chips Nvidia diferentes, deverá ser lançada ainda este ano, com servidores principais apresentando as 72 unidades gráficas da empresa e 36 novos processadores centrais.
Huang mostrou como eles poderiam ser interligados em “pods” com mais de 1.000 chips Rubin e disse que poderiam melhorar a eficiência de geração do que é conhecido como “tokens” – a unidade fundamental dos sistemas de IA – em 10 vezes.
No entanto, para alcançar novos resultados de desempenho, Huang disse que os chips Rubin usam um tipo proprietário de dados que a empresa espera que a indústria mais ampla adote.
“Foi assim que conseguimos aumentar tanto o desempenho, embora tivéssemos apenas 1,6 vezes o número de transistores”, disse Huang.
Embora a Nvidia ainda domine o mercado de modelos de IA de treinamento, ela enfrenta muito mais concorrência de rivais tradicionais como a Advanced Micro Devices, bem como de clientes como o Google, da Alphabet, na entrega dos frutos desses modelos a milhões de usuários de chatbots e outras tecnologias.
Grande parte do discurso de Huang se concentrou em quão bem os novos chips funcionarão para essa tarefa, incluindo a adição de uma nova camada de tecnologia de armazenamento chamada “armazenamento de memória de contexto”, que visa ajudar os chatbots a fornecer respostas mais rápidas a perguntas e conversas mais longas.
A Nvidia também anunciou uma nova geração de switches de rede com um novo tipo de conexão chamada óptica co-packaged. Essa tecnologia, fundamental para conectar milhares de máquinas, compete com as ofertas da Broadcom e da Cisco Systems.
Em outros anúncios, Huang destacou um novo software que poderia ajudar os carros autônomos a decidir qual caminho seguir – e deixar um rastro de papel para os engenheiros usarem mais tarde. A Nvidia mostrou pesquisas no final do ano passado sobre o software, chamado AlpaMyo, que Huang disse na segunda-feira que seria divulgado de forma mais ampla, junto com os dados usados para treiná-lo para que as montadoras possam avaliar.
“Não apenas abrimos o código-fonte dos modelos, mas também abrimos o código-fonte dos dados que usamos para treinar esses modelos, porque só assim você pode realmente confiar em como os modelos foram construídos”, disse Huang em um fórum em Las Vegas. No mês passado, a Nvidia adquiriu talentos e tecnologia de chips da startup Grok, que também incluía executivos que desempenharam um papel fundamental em ajudar o Google, da Alphabet, a projetar seus próprios chips de IA.
Embora o Google seja um grande cliente da Nvidia, seus próprios chips emergiram como uma das maiores ameaças à Nvidia, à medida que o Google se une à Meta Platform e outros para diminuir a liderança da empresa.
Durante uma sessão de perguntas e respostas com analistas financeiros após seu discurso, Huang disse que o acordo com a Groke “não afetará nosso negócio principal”, mas poderá resultar em novos produtos que expandiriam sua linha. Ao mesmo tempo, a Nvidia está ansiosa para mostrar que seus produtos mais recentes podem superar os chips mais antigos, como o H200, que Donald Trump permitiu que fosse enviado para a China.
O chip, que foi o antecessor do atual chip “Blackwell” da Nvidia, é muito procurado na China, o que alarmou pessoas de todo o espectro político dos EUA.


















