Startup francesa de IA Mistral anunciou na terça-feira sua nova família Mistral 3 de modelos abertos. Este é um lançamento de 10 modelos, incluindo um modelo Frontier grande com recursos multimodais e multilíngues e nove modelos menores habilitados para offline e totalmente personalizáveis.
O anúncio ocorre no momento em que a Mistral, que desenvolve modelos de linguagem de peso aberto e o chatbot de IA focado na Europa, Le Chat, parece estar alcançando alguns dos modelos de fronteira de código fechado do Vale do Silício. A startup de dois anos, fundada por ex-pesquisadores DeepMind e Meta, arrecadou cerca de US$ 2,7 bilhões até o momento. Avaliação: US$ 13,7 bilhões – Amendoim em comparação com os números dos concorrentes OpenAI (arrecadou US$ 57 bilhões com uma avaliação de US$ 500 bilhões) e humano (Avaliação: US$ 350 bilhões, valor arrecadado: US$ 45 bilhões).
Mas Mistral está tentando provar que maior nem sempre é melhor, especialmente para casos de uso empresarial.
“Às vezes, nossos clientes ficam felizes em começar com um modelo muito grande (fechado) que não requer nenhum ajuste fino… mas quando eles realmente o implantam, acham-no caro e lento”, disse o cofundador e principal cientista da Mistral, Guillaume Lampre, ao TechCrunch. “Então eles nos procuram para ajustar um modelo pequeno para que ele possa lidar com seu caso de uso (com mais eficiência).”
“A realidade é que a grande maioria dos casos de uso empresarial pode ser abordada com um modelo menor, especialmente com ajuste fino”, continuou Lampl.
As primeiras comparações de benchmark podem ser enganosas, disse Lampl, já que o modelo menor da Mistral está muito atrás de seus concorrentes de código fechado. Um modelo de código fechado em grande escala pode oferecer melhor desempenho imediato, mas os benefícios reais surgem quando você o personaliza.
“Em muitos casos, você pode realmente alcançar um desempenho igual ou melhor que um modelo de código fechado”, diz ele.
evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026
O modelo de fronteira em grande escala da Mistral, chamado Mistral Large 3, alcançou alguns dos principais recursos ostentados por modelos maiores de IA de código fechado, como o GPT-4o da OpenAI e o Gemini 2 do Google, ao mesmo tempo em que levou uma surra de alguns concorrentes de peso aberto. O Large 3 é um dos primeiros modelos de fronteira aberta a combinar capacidades multimodais e multilíngues, tornando-o comparável ao Llama 3 da Meta e ao Qwen3-Omni do Alibaba. Muitas outras empresas estão agora combinando modelos de linguagem grandes e impressionantes com modelos multimodais menores e discretos. Isso é algo que a Mistral já fez antes com modelos como Pixtral e Mistral Small 3.1.
O Large 3 também apresenta uma arquitetura de “combinação especializada granulada” com 41B de parâmetros ativos e 675B de parâmetros totais, permitindo inferência eficiente em uma janela de contexto de 256k. Esse design oferece velocidade e funcionalidade, permitindo processar documentos longos e atuar como assistente de agente para tarefas empresariais complexas. Mistral posiciona o Large 3 como adequado para análise de documentos. codificaçãocriação de conteúdo, assistentes de IA e automação de fluxo de trabalho.
Com uma nova família de modelos pequenos chamada Mistral 3, a Mistral afirma corajosamente que pequeno não é suficiente, é melhor.
A linha inclui nove modelos diferentes de alto desempenho e alta densidade em três tamanhos (parâmetros 14B, 8B e 3B) e três variantes. Base (modelo base pré-treinado), Instruct (chat otimizado para fluxos de trabalho de conversação e estilo assistente) e Reasoning (otimizado para lógica complexa e tarefas analíticas).
De acordo com Mistral, a família de produtos dá aos desenvolvedores e às empresas a flexibilidade para adaptar modelos ao desempenho exato, quer procurem desempenho bruto, eficiência de custos ou funcionalidade especializada. A empresa afirma que o Ministeral 3 é mais eficiente e gera menos tokens para tarefas comparáveis, ao mesmo tempo que alcança pontuações iguais ou melhores do que outros líderes de classe aberta. Todas as variantes suportam visão, lidam com janelas de contexto de 128K a 256K e funcionam em vários idiomas.
Uma grande parte do campo é a praticidade. Lample enfatiza que, como o Ministeral 3 pode ser executado em uma única GPU, ele pode ser implantado em hardware acessível, desde servidores locais até laptops, robôs e outros dispositivos de ponta com conectividade limitada. Isto é importante não apenas para empresas que armazenam dados internamente, mas também para estudantes que buscam feedback offline e equipes de robótica que trabalham em ambientes remotos. Lampl argumenta que o aumento da eficiência se traduz diretamente em maior acessibilidade.
“Faz parte da nossa missão tornar a IA acessível a todos, especialmente às pessoas que não têm acesso à Internet”, disse ele. “Não queremos que a IA seja controlada apenas por alguns grandes laboratórios.”
Outras empresas estão buscando compensações de eficiência semelhantes. O mais recente modelo empresarial da Cohere, Command A, também roda em apenas duas GPUs. Plataforma de agente de IA Norte Ele pode rodar em apenas uma GPU.
Este tipo de acessibilidade está impulsionando o foco expandido da Mistral na IA física. No início deste ano, a empresa começou a trabalhar para integrar modelos menores em robôs, drones e veículos. A Mistral está colaborando com a Home Team Science and Technology Agency (HTX) de Cingapura em modelos especializados para robôs, sistemas de segurança cibernética e proteção contra incêndio. Parceria com startup alemã de tecnologia de defesa infernal acima Modelos visuais, de linguagem e comportamentais de drones;e fabricantes de automóveis Estela Sobre o assistente de IA no veículo.
Para a Mistral, a confiabilidade e a independência são tão importantes quanto o desempenho.
“Se você usar a API de um concorrente, ficará inativo por 30 minutos a cada duas semanas e, se for uma grande empresa, não pode pagar por isso”, disse Rumple.


















