A conferência anual de tecnologia da Amazon Web Services, AWS re:Invent, chegou ao fim. E entre a enxurrada de notícias e palestras sobre produtos, a única mensagem era IA para empresas.
Este ano foi tudo sobre atualizações que permitem aos clientes personalizar ainda mais seus agentes de IA, incluindo um que a AWS afirma poder aprender com os usuários e trabalhar de forma independente por dias. Werner Vogels, CTO da Amazon, concluiu a noite com uma palestra destinada a energizar os desenvolvedores e dissipar os temores de que a IA ocupe empregos de engenharia.
AWS re:Invent 2025O evento, que vai até 5 de dezembro, começou com um discurso do CEO da AWS, Matt Garman. Ele abraçou a ideia de que os agentes de IA poderiam desbloquear o “verdadeiro valor” da IA.
“Os assistentes de IA estão começando a ser substituídos por agentes de IA que podem executar e automatizar tarefas em nome dos usuários”, disse ele em sua palestra de 2 de dezembro. “É aqui que nossos clientes estão começando a ver retornos comerciais significativos de seus investimentos em IA.”
A conferência de 3 de dezembro avançou nas mensagens dos agentes de IA e se aprofundou nas histórias dos clientes. Swami Sivasubramanian, vice-presidente de Agentic AI da AWS, deu uma das palestras. Dizer que ele estava otimista pode ser subestimar o clima.
“Vivemos numa época de grandes mudanças”, disse Sivasubramanian durante o seu discurso. “Pela primeira vez na história, você pode descrever o que deseja realizar em linguagem natural e os agentes geram um plano. Eles escrevem o código, chamam as ferramentas necessárias e executam a solução completa. Os agentes dão a você a liberdade de construir sem limites, acelerando a velocidade da ideia ao grande impacto.”
As notícias sobre agentes de IA prometem ser uma presença constante em todo o AWS re:Invent 2025, mas também houve outros anúncios. Aqui está um resumo daqueles que chamaram nossa atenção. O TechCrunch atualizará este artigo com os insights mais recentes até o final do AWS re:Invent. Por favor, certifique-se de verificar.
Werner vai embora…
O CTO da Amazon, Werner Vogels, deu a palestra de encerramento da conferência e parece que esta será sua última palestra.
evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026
“Esta é minha última palestra sobre re:Invent”, disse ele, acrescentando que não deixará a empresa tão cedo. “Não tenho intenção de deixar a Amazon ou algo assim, mas depois de 14 re:Invents, acho que devemos a você trazer vozes novas, jovens e frescas para a mesa.”
Vogels então falou para um local lotado por mais de uma hora, terminando literalmente largando o microfone e dizendo: “Werner, vá embora”.
A IA assumirá seu trabalho?
Vogels passou grande parte do seu discurso de encerramento falando sobre a IA e o seu papel no futuro, incluindo a ameaça iminente de que ela desloque empregos.
“A IA assumirá o meu trabalho? Talvez”, perguntou Vogels, antes de observar que algumas tarefas serão automatizadas e algumas competências tornar-se-ão obsoletas. “Então, talvez precisemos reformular e reformular esta questão: a IA me tornará obsoleto? De jeito nenhum, se evoluirmos.”
CPU de próxima geração
AWS anunciado O CPU Graviton5 da empresa foi anunciado na quinta-feira. Este é o chip de próxima geração que a empresa promete com melhor desempenho e eficiência. Graviton5 tem 192 núcleos de processador, e a AWS afirma que seu design denso e eficiente reduz a distância que os dados viajam entre os núcleos. A empresa afirma que isso pode reduzir a latência de comunicação entre os núcleos em até 33%, ao mesmo tempo que aumenta a largura de banda.
Duplique seu LLM
A AWS anunciou mais ferramentas para clientes corporativos. Crie seu próprio modelo. Especificamente, a AWS disse que está adicionando novos recursos ao Amazon Bedrock e ao Amazon SageMaker AI para facilitar a construção de LLMs personalizados.
Por exemplo, a AWS está introduzindo a personalização de modelos sem servidor no SageMaker, que permite aos desenvolvedores começar a construir modelos sem ter que pensar em recursos de computação ou infraestrutura. A personalização de modelos sem servidor pode ser acessada por meio de um caminho autoguiado ou guiada por um agente de IA.
A AWS também anunciou o ajuste fino de reforço em Bedrock. Isso permite que os desenvolvedores escolham um fluxo de trabalho predefinido ou sistema de recompensa e deixe a Bedrock executar automaticamente o processo de personalização do início ao fim.
Andy Jassy compartilha alguns números
O CEO da Amazon, Andy Jassy, apareceu na plataforma de mídia social X para elaborar a palestra do chefe da AWS, Matt Garman. Mensagem: A geração atual do chip AI concorrente da Nvidia, Trainium2, é Já trouxe muito dinheiro.
Seus comentários estavam relacionados ao anúncio do chip de próxima geração Trainium3 e tinham como objetivo prever o futuro promissor de ganhos do produto.
Economia de banco de dados realizada
Entre as dezenas de anúncios, há um item que já está atraindo aplausos. Isso é um desconto.
Especificamente, a AWS anunciou o lançamento de um plano de economia de banco de dados que permite aos clientes reduzir seus custos de banco de dados em até 35% após uma determinada quantidade de uso ($ por hora) durante um período de um ano. A empresa afirma que a economia será aplicada automaticamente de hora em hora ao uso qualificado em todos os serviços de banco de dados suportados, e qualquer uso adicional além do compromisso será cobrado com taxas sob demanda.
Corey Quinn, economista-chefe de nuvem da Duckbill, resume bem: em sua postagem no blog“Seis anos de reclamações finalmente valeram a pena.”
A Amazon não espera um negócio melhor do que o gratuito.
Existe uma maneira de outra ferramenta de codificação de IA conquistar os corações dos fundadores de startups? A Amazon espera que seu serviço tenha um bom desempenho se puder oferecer créditos gratuitos para um ano, Kiro. A empresa distribuirá créditos para o Kiro Pro+ Concedido a startups elegíveis que solicitem um contrato até o final do mês. No entanto, apenas startups em estágio inicial em determinados países são elegíveis.
Chip de treinamento AI e compatibilidade com Nvidia
AWS introduzido Nova versão do chip de treinamento de IA Trainium3 e o sistema de IA chamado UltraServer que o executa. Resumindo: este chip atualizado apresenta algumas especificações impressionantes, incluindo a promessa de melhorias de desempenho de até 4x para treinamento e inferência de IA, ao mesmo tempo que reduz o uso de energia em 40%.
A AWS também forneceu um teaser. A empresa já está desenvolvendo o Trainium 4, que poderá funcionar com chips Nvidia.
Estendendo a funcionalidade do AgentCore
AWS anunciou Novos recursos na plataforma de criação de agentes AgentCore AI. Um recurso notável são as políticas AgentCore. Isso permite que os desenvolvedores estabeleçam limites mais facilmente para os agentes de IA.
A AWS também anunciou que seus agentes agora podem registrar e lembrar informações sobre os usuários. Também anunciou que ajudará os clientes a avaliar os agentes por meio de 13 sistemas de classificação pré-construídos.
Abelhas operárias agentes de IA ininterruptas
A AWS anunciou três novos agentes de IA chamados “agentes de fronteira” (esse termo existe novamente). Isso inclui um agente chamado Kiro Autonomous Agent, projetado para escrever código e aprender como as equipes desejam trabalhar. Portanto, pode funcionar quase sozinho por várias horas ou dias.
Um desses novos agentes lida com processos de segurança, como revisões de código, e o terceiro executa tarefas de DevOps, como prevenção de incidentes, ao publicar novo código. Uma versão prévia do agente está disponível atualmente.
Novos modelos e serviços Nova
AWS está lançando 4 novos modelos de IA Dentro da família de modelos Nova AI, três possuem recursos de geração de texto e um tem a capacidade de criar texto e imagens.
A empresa também anunciou um novo serviço chamado Nova Forge. Isso dá aos clientes da Nuvem AWS acesso a modelos pré-treinados, em treinamento ou pós-treinados e a capacidade de treiná-los e refiná-los com base em seus próprios dados. O grande ponto de venda da AWS é a flexibilidade e a personalização.
As afirmações de Lyft sobre agentes de IA
A empresa de carona era um dos muitos clientes da AWS. animado durante o evento Compartilhe histórias de sucesso e evidências de como seu produto impactou seus negócios. Lyft usa o modelo Claude da Anthropic por meio do Amazon Bedrock para criar agentes de IA que lidam com dúvidas e problemas de motoristas e passageiros.
A empresa afirma que o agente de IA reduziu o tempo médio de resolução em 87%. Lyft também disse que viu um aumento de 70% no uso de seus agentes de IA pelos motoristas este ano.
Fábrica de IA para data centers privados
Amazônia também Anunciando “Fábrica de IA” Isso permite que grandes empresas e governos executem sistemas de IA da AWS em seus próprios data centers.
O sistema foi projetado em parceria com a Nvidia e inclui tecnologia da Nvidia e da AWS. As empresas que o utilizam podem incluir GPUs Nvidia, mas também podem escolher o mais recente chip de IA interno da Amazon, o Trainium3. O sistema é a maneira da Amazon de abordar a soberania dos dados, a necessidade de governos e muitas empresas controlarem os dados sem compartilhá-los, mesmo quando usam IA.
Acompanhe os anúncios mais recentes sobre tudo, desde IA de agente até infraestrutura em nuvem, segurança e muito mais, no principal evento da Amazon Web Services em Las Vegas. Este vídeo é fornecido em parceria com a AWS.


















