A Microsoft anunciou o lançamento de seu mais recente chip, o Maia 200. A empresa o descreve como um produto carro-chefe de silício projetado para dimensionar a inferência de IA.
200 seguindo a empresa Maia 100 lançado em 2023está tecnologicamente equipado para executar modelos poderosos de IA com mais rapidez e eficiência, afirma a empresa. Maia possui mais de 100 bilhões de transistores e oferece desempenho de mais de 10 petaflops com precisão de 4 bits e aproximadamente 5 petaflops com precisão de 8 bits. Esta é uma melhoria significativa em relação ao modelo anterior.
A inferência refere-se ao processo computacional que executa um modelo, em oposição aos cálculos necessários para treinar o modelo. À medida que as empresas de IA amadurecem, os custos de inferência tornam-se uma parte cada vez mais importante dos custos operacionais globais, levando a um interesse renovado em como otimizar processos.
A Microsoft quer que o Maia 200 faça parte dessa otimização, permitindo que os negócios de IA funcionem com menos interrupções e menos consumo de energia. “Na prática, um único nó Maia 200 executa confortavelmente nossos maiores modelos hoje, com bastante espaço para modelos ainda maiores no futuro”, disse a empresa.
Os novos chips da Microsoft também fazem parte de uma tendência crescente em que os gigantes da tecnologia estão recorrendo a chips de seu próprio design como forma de reduzir sua dependência da NVIDIA. GPU de última geração Está se tornando cada vez mais importante para o sucesso das empresas de IA. Por exemplo, o Google possui uma TPU (Tensor Processing Unit), que não é vendida como chip; Porque podemos acessar o poder da computação por meio da nuvem. Depois, há o Amazon Trainium, o chip acelerador de IA proprietário da gigante do comércio eletrônico. Acabamos de lançar a versão mais recenteTrainium3, dezembro. Em ambos os casos, a TPU permite descarregar alguns dos cálculos atribuídos à GPU NVIDIA, reduzindo os custos gerais de hardware.
Com Maia, a Microsoft está posicionada para competir com essas alternativas. A empresa disse em um comunicado de imprensa na segunda-feira que Maia oferece três vezes o desempenho do FP4 dos chips Amazon Trainium de 3ª geração e desempenho do FP8 em relação às TPUs de 7ª geração do Google.
A Microsoft diz que Maia já está trabalhando arduamente no desenvolvimento dos modelos de IA da empresa com sua equipe de superinteligência. Também dá suporte ao funcionamento do Copilot, chatbot da empresa. Na segunda-feira, a empresa anunciou que convidou diversas partes interessadas, incluindo desenvolvedores, acadêmicos e o Frontier AI Institute, para usar o kit de desenvolvimento de software Maia 200 em suas cargas de trabalho.
evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026


















