último claudio Modelo de IA generativoO produto, chamado Haiku 4.5, oferece o mesmo poder de codificação do modelo Sonnet 4 da empresa em um pacote menor e mais rápido, disse a Anthropic em comunicado à imprensa na quarta-feira. O novo modelo estará disponível para todos e será o padrão para usuários gratuitos. Olho Cláudio.
A Anthropic diz que o Haiku 4.5 é significativamente mais rápido que o Sonnet 4, mas custa um terço mais. quando usar cromo claudeé uma extensão que oferece aos usuários do Chrome recursos de IA no navegador, e a Anthropic diz que o Haiku 4.5 é mais rápido e melhor nas tarefas do agente.
Não perca nosso conteúdo técnico imparcial e análises baseadas em laboratório. Adicionar CNET Como fonte preferencial no Google.
O Haiku 4.5 é um modelo menor, portanto pode ser implantado como um subagente do Sonnet 4.5. Assim, enquanto o Sonnet 4.5 planeja e organiza projetos complexos, subagentes menores do Haiku podem realizar outras tarefas em segundo plano. Para tarefas de codificação, o Sonnet pode lidar com o pensamento de alto nível, enquanto o Haiku lida com outras tarefas como refatoração e migrações. Para análise financeira, o Sonnet pode fazer modelagem preditiva e o Haiku monitora fluxos de dados e rastreia mudanças regulatórias, sinais de mercado e risco de portfólio. Do lado da pesquisa, o Haiku analisa a literatura, coleta dados e integra documentos de múltiplas fontes, enquanto o Sonnet pode lidar com análises abrangentes.
A velocidade do Haiku também ajuda no lado do chatbot, processando solicitações com mais rapidez.
“O Haiku 4.5 é a versão mais recente do nosso menor modelo, construído para quem deseja a inteligência superior, a confiabilidade e as parcerias criativas de Claude em um pacote leve”, disse o CEO da Anthropic, Mike Krieger, em comunicado à CNET.
O treinamento e a implantação de modelos de IA são caros, por isso as empresas têm procurado maneiras de implantar modelos menores e mais eficientes, mantendo o desempenho. As consultas de IA consomem muito mais energia do que as pesquisas do Google, mas isso depende do tamanho do modelo de IA. Modelos grandes com mais de 405 bilhões de parâmetros podem acabar 6.706 joules de energiaIsso é suficiente para ligar um micro-ondas por oito segundos, de acordo com um relatório da MIT Technology Review. No entanto, um modelo menor, com 8 bilhões de parâmetros, utiliza apenas 114 joules de energia, o que equivale a ligar um forno de micro-ondas por um décimo de segundo. O que você pode usar na pesquisa do Google é 1.080 joules de energia.
Economias significativas nos custos do servidor podem ser alcançadas transferindo consultas mais simples e tarefas em segundo plano para modelos menores e mais eficientes. Por exemplo, ChatGPT-5 Pode mover-se entre modelosresponda instantaneamente a perguntas leves, aproveitando mais poder para consultas complexas. As empresas de IA precisam de recuperar os custos de energia, pelo que são necessárias medidas de poupança de energia. Trilhões de dólares poderiam ser gastos investindo em data centers.


















