SÃO FRANCISCO – Desde que a inteligência artificial generativa começou a ganhar as manchetes em 2022, os investidores investiram dinheiro na Nvidia, convencidos de que a posição de liderança da empresa em hardware de IA lhes traria riqueza.
A aposta valeu a pena. cheguei na empresa
Avaliado em US$ 5 trilhões (S$ 6,5 trilhões) no final de outubro
Em 2025, espera-se reportar um lucro líquido que supere as vendas combinadas dos seus dois principais rivais. Uma enxurrada de investimentos multibilionários em data centers nos últimos meses sugere que a corrida do ouro da IA ainda está se acelerando.
Mas o enorme aumento nos preços das ações e as questões sobre a natureza de alguns negócios de IA fizeram com que alguns membros do setor se perguntassem se tudo isso está acontecendo rápido demais. Há preocupações de que, quando a poeira baixar, não haverá empregos lucrativos suficientes para justificar os enormes gastos em infra-estruturas de IA.
O CEO da Nvidia, Jensen Huang, rejeitou as preocupações de que a IA seja uma bolha que acabará por estourar. Ele viaja pelo mundo para persuadir os políticos que permanecem céticos em relação à tecnologia a suspender as restrições de segurança nacional que impedem a Nvidia de vender seus chips mais poderosos e lucrativos na China, o maior mercado mundial de semicondutores.
Atualmente, o produto mais lucrativo da NVIDIA é a série Blackwell de aceleradores de IA. O produto leva o nome do matemático David Blackwell, o primeiro afro-americano a ser admitido na Academia Nacional de Ciências. Tal como aconteceu com a série Hopper anterior, Blackwell adaptou as unidades de processamento gráfico usadas em videogames. Ele vem em vários formatos, desde “cartões” individuais até grandes conjuntos de computadores.
Hopper e Blackwell incluem tecnologia que transforma clusters de computadores alimentados por chips Nvidia em uma única unidade que pode processar grandes quantidades de dados e computar em alta velocidade. Isso o torna ideal para a tarefa que exige muita energia de treinar as redes neurais que alimentam a última geração de produtos de IA. A Nvidia aprimorou o serviço para ajudar a plataforma de IA a lidar melhor com inferências que identificam objetos por meio de características comuns (por exemplo, distinguir entre cães e gatos). À medida que mais pessoas confiam na IA para ajudar num número cada vez maior de tarefas, a procura por esta capacidade aumenta rapidamente.
A Nvidia oferece o Blackwell em uma variedade de opções, inclusive como parte de seu superchip GB200, que combina duas GPUs Blackwell e uma unidade central de processamento Grace (o coração do computador que executa as instruções do programa). (Grace CPU tem o nome de Grace Hopper.)
Fundada em 1993, a Nvidia era a rainha das GPUs, componentes que geram imagens exibidas nas telas dos computadores. Os mais poderosos deles são construídos com milhares de núcleos de processamento executando vários threads computacionais simultâneos. Isto torna possível produzir renderizações 3D complexas, como sombras e reflexos, características de videogames de ritmo acelerado.
Os engenheiros da Nvidia perceberam no início dos anos 2000 que esses componentes poderiam ser reajustados para outras aplicações. Enquanto isso, os pesquisadores de IA descobriram que, ao usar esse tipo de chip, podem finalmente colocar suas pesquisas em prática.
As chamadas plataformas de IA generativa aprendem tarefas como tradução de texto, resumo de relatórios e composição de imagens, ingerindo grandes quantidades de material existente. Quanto mais você absorver, melhor será seu desempenho. Eles se desenvolvem por meio de tentativa e erro, tentando bilhões de vezes atingir a proficiência, consumindo grandes quantidades de poder computacional no processo.
De acordo com a Nvidia, a Blackwell oferece 2,5 vezes o desempenho do Hopper no treinamento de IA. Para clientes que correm para treinar sistemas de IA para executar novas tarefas, a vantagem de desempenho oferecida pelos chips Hopper e Blackwell é crítica. O governo dos EUA restringiu as vendas destes componentes ao rival estratégico China, uma vez que são vistos como fundamentais para o desenvolvimento da IA.
Advanced Micro Devices e Intel estão trabalhando para igualar as capacidades dos produtos de IA da Nvidia. No entanto, de acordo com a empresa de pesquisa de mercado IDC, a empresa controla atualmente cerca de 90% do mercado de GPU para data centers. A falta de uma vantagem competitiva confiável é uma preocupação para os clientes de computação em nuvem da Nvidia, Amazon.com Inc., Google, da Alphabet Inc., e Microsoft Corp., que buscam desenvolver chips para seus negócios de computação em nuvem internamente.
A AMD, rival mais próxima da Nvidia em chips gráficos, assinou um acordo para fornecer ao OpenAI, fabricante do ChatGPT, um grande número de novos aceleradores de IA. Este acordo e o acordo com a Oracle sugerem que a AMD ganhou alguma credibilidade como alternativa à Nvidia.
A Nvidia vem atualizando seus produtos, incluindo o software que suporta seu hardware, em um ritmo que nenhuma outra empresa consegue igualar. A empresa também desenvolveu um sistema de cluster que permite aos clientes comprar chips em grandes quantidades e implantá-los rapidamente. O Sr. Huang continua a promover novos produtos e parcerias, aparecendo em feiras de tecnologia e eventos corporativos em todo o mundo em um ritmo alucinante.
A Nvidia está comprometida em lançar novos produtos emblemáticos anualmente nos próximos anos, refletindo o que Huang diz ser um esforço sem precedentes para impulsionar a inovação na indústria. Tal promessa serve como um aviso de que um rival está prestes a embarcar num trem em movimento.
Hwang e sua equipe disseram repetidamente que a empresa tem mais pedidos do que pode atender, mesmo para modelos mais antigos. No final de outubro, a Nvidia previu que a receita da sua divisão de data centers seria de cerca de US$ 500 bilhões nos próximos cinco trimestres. Isto forçou até os analistas mais optimistas a aumentarem as suas expectativas. Isso aumentou o valor de mercado da Nvidia em US$ 400 bilhões em uma semana.
Microsoft, Amazon, Meta Platforms e Google anunciaram planos para gastar centenas de bilhões de dólares em IA e nos data centers que a suportam. A OpenAI está continuamente adquirindo poder computacional que será implantado em um futuro próximo. A construção de uma IA melhor está a avançar a um ritmo rápido, mesmo face às preocupações de que os casos de utilização subjacentes à tecnologia possam ainda não justificar investimentos tão grandes.
Os governos dos EUA e da China fizeram muito mais para ajudar as vendas da empresa do que os concorrentes da NVIDIA. A Nvidia anunciou em abril que registraria uma baixa contábil de US$ 5,5 bilhões em estoques devido à proibição dos EUA de fornecer chips H20 para empresas chinesas. O H20 é um chip com recursos reduzidos projetado para superar as restrições anteriores dos EUA às vendas para a China. Os EUA então deram luz verde à Nvidia para retomar as vendas no segundo semestre do ano, mas Pequim retaliou ordenando às empresas chinesas que evitassem os produtos da Nvidia.
Huang viajou para Washington para tentar convencer o presidente Donald Trump de que aumentar os negócios com a China é bom para a segurança nacional dos EUA. Se as empresas dos EUA não fornecerem os alicerces para a IA, argumenta ele, outros países, especialmente a China com a Huawei, intervirão e ameaçarão a liderança tecnológica dos EUA.
Esta perspectiva recebeu alguma atenção entre os políticos em Washington, com o presidente a verificar o nome do produto Nvidia e a falar em discuti-lo com os seus homólogos chineses. Mas até agora, nenhum acordo concreto foi alcançado que permitiria à Nvidia vender novamente para a China. Bloomberg

















