Como todas as principais empresas de tecnologia hoje em dia, a Meta tem seu próprio modelo de IA de geração principal chamado LLAMA. A lhama é um pouco única entre os principais modelos, pois é “aberta”. Isso significa que os desenvolvedores podem baixá -lo e usá -lo (com certas limitações). Isso contrasta com modelos como Claude do Anthropic, Gemini do Google, GROK de Xai e a maioria dos modelos ChatGPT do OpenAI que só podem ser acessados ​​via APIs.

No entanto, para fornecer aos desenvolvedores opções, a Meta fez uma parceria com fornecedores como AWS, Google Cloud e Microsoft Azure para disponibilizar a versão de llama hospedada em nuvem. Além disso, a empresa publica ferramentas, bibliotecas e receitas no livro de receitas da LLAMA para ajudar os desenvolvedores a ajustar, avaliar e adaptar seus modelos. Com uma nova geração como Esses recursos para o Llama 3 e o LLAMA 4 foram estendidos para incluir suporte multimodal nativo e um lançamento mais amplo da nuvem.

Há tudo o que você precisa saber sobre os lhamas da Meta, desde seus recursos e edições até onde eles podem ser usados. Continuarei atualizando esta postagem como o Meta Releases Atualizações e apresenta novas ferramentas de desenvolvimento para apoiar o uso do modelo.

O que é uma lhama?

Llama é uma família modelo e não é apenas uma. A versão mais recente é Lhamas 4; Lançado em abril de 2025 e inclui três modelos.

  • Scout: Janela de contexto com 17 bilhões de parâmetros ativos, um total de 100 bilhões de parâmetros e 10 milhões de tokens.
  • Maverick: Uma janela de contexto de 17 bilhões de parâmetros ativos, um total de 400 bilhões de parâmetros e um milhão de tokens.
  • gigante: Ainda não foi lançado, mas possui 288 bilhões de parâmetros ativos e 2 trilhões de parâmetros.

(Na ciência de dados, um token é um pouco fragmentado de dados brutos, como a sílaba “fã”, “tas” e “tic” da palavra “fã”).

O contexto de um modelo, ou janela de contexto, refere -se aos dados de entrada (como texto) que o modelo considera antes de gerar a saída (por exemplo, texto adicional). Em um longo contexto, os modelos podem “esquecer” o conteúdo de documentos e dados recentes, remover tópicos e impedir a extrapolar acidentalmente. No entanto, a janela de contexto também pode ser mais longa O modelo “esquecerá” certos corrimãos de segurança E eles tendiam a criar conteúdo que estava de acordo com a conversa, levando a alguns usuários. Pensamentos ilusórios.

Para referência, as 10 milhões de promessas de janela de contexto da LLAMA 4 Scout são aproximadamente iguais ao texto de cerca de 80 romances comuns. 4 Ligue para MaverickS a janela de um milhão de contexto é igual a oito romances.

Eventos TechCrunch

São Francisco
|
27 a 29 de outubro de 2025

De acordo com a Meta, todos os modelos LLama 4 foram treinados em “uma ampla gama de entendimento visual” e “uma grande quantidade de texto inválido, imagens e dados de vídeo” em 200 idiomas.

O Lama 4 Scout e Maverick são o primeiro modelo multimodal de peso aberto da Meta. Eles são construídos usando uma arquitetura “especialista misto” (MOE), reduzindo a carga computacional e melhorando a eficiência do treinamento e da inferência. Por exemplo, os escoteiros têm 16 especialistas e Maverick tem 128 especialistas.

O gigante Llama 4 inclui 16 especialistas, e a Meta o chama de um pequeno professor de modelo.

O LLAMA 4 é baseado na série Llama 3. Isso inclui os modelos 3.1 e 3.2 amplamente utilizados para aplicativos ajustados para instruções e implantações em nuvem.

O que a lhama pode fazer?

Como outros modelos de IA do gerador, a lhama pode executar uma variedade de tarefas de suporte, como codificar e responder a perguntas matemáticas básicas, e pode resumir documentos em pelo menos 12 idiomas (árabe, inglês, francês, indonésio, italiano, português, hindi, espanhol, tagalog, tailandês, vietnamiano). A maioria das cargas de trabalho baseada em texto – pense nelas como analisando arquivos grandes, como PDFs e planilhas – estão dentro desse intervalo, e todos os modelos LLAMA 4 suportam a entrada de texto, imagem e vídeo.

O Scout Llama 4 foi projetado para fluxos de trabalho mais longos e análise de dados em larga escala. O Maverick é um modelo generalista que é excelente para equilibrar o poder de inferência e a velocidade de resposta e é adequado para codificação, chatbots e assistentes técnicos. O Behemoth foi projetado para pesquisas avançadas, destilação de modelos e tarefas STEM.

Os modelos de llama, incluindo o LLAMA 3.1, podem ser configurados para alavancar aplicativos, ferramentas e APIs de terceiros para executar tarefas. Eles são treinados para usar buscas corajosas para responder a perguntas sobre eventos recentes. API alfa de Wolfram para matemática e consultas relacionadas à ciência. Um intérprete Python para validar seu código. No entanto, essas ferramentas requerem configuração adequada e não as ativam automaticamente para fora da caixa.

Onde posso usar lhama?

Isso é verdade se você simplesmente quer conversar com lhama Poder da experiência de meta ai chatbot 40 países no Facebook Messenger, WhatsApp, Instagram, Oculus e Meta.ai. A versão ajustada da llama é usada em experiências de meta-AI em mais de 200 países e territórios.

O LLAMA 4 Models Scout e Maverick estão disponíveis para o LLAMA.com e a Meta Partners, incluindo a plataforma de desenvolvedor de IA. Behemoth ainda está em treinamento. Os desenvolvedores que constroem edifícios com lamas podem baixar, usar ou ajustar modelos na maioria das plataformas populares em nuvem. A Meta afirma que possui mais de 25 parceiros que hospedam llama, incluindo Nvidia, Databricks, Groq, Dell e Snowflake. Além disso, “vender acesso” a modelos de meta disponíveis abertamente não é um modelo de negócios de meta, mas a empresa ganha algum dinheiro Contrato de compartilhamento de receita Host modelo incluído.

Alguns desses parceiros estão construindo ferramentas e serviços adicionais no topo da llama. Isso inclui ferramentas que permitem que os modelos referenciem seus próprios dados e sejam executados com menor latência.

Importante, a licença de lhama Restringir a maneira como os desenvolvedores implantam modelos: Os desenvolvedores de aplicativos com mais de 700 milhões de usuários por mês devem solicitar uma licença especial da meta concedida pela empresa a seu critério.

Em maio de 2025, a Meta lançou um Novo programa Incentive as startups a adotar o modelo de llama. A LLAMA for Startups fornece suporte corporativo e acesso a possíveis fundos da equipe de Llama da Meta.

Juntamente com a llama, a Meta oferece ferramentas destinadas a tornar os modelos usados ​​”mais seguros”.

  • Call Guarduma estrutura de moderação.
  • CybercivalSuíte de avaliação de risco de segurança cibernética.
  • Lama FirewallSecurity Guardrails projetados para permitir a construção de sistemas seguros de IA.
  • Escudo do cordão um cordãofornece suporte para filtragem de tempo de inferência para código instável gerado pelo LLMS.

A Guarda da LLAMA tenta detectar conteúdo potencialmente problemático fornecido ou gerado pelo modelo LLAMA, incluindo conteúdo relacionado a atividades criminosas, exploração infantil, violações de direitos autorais, ódio, auto-mutilação e abuso sexual. Dito isto, claramente não é uma bala de prata As próprias diretrizes anteriores do Meta Permita que os chatbots se envolvam em bate -papo sensual e romântico com menores, e alguns relatórios dizem que eles Conversa sexual. Desenvolvedores podem Personalização Aplique blocos a categorias de conteúdo bloqueado e todos os idiomas no suporte de llama.

Como a guarda da lhama, o Prompt Guard pode bloquear o texto exclusivamente para a lhama, mas apenas o texto pretende “atacar” o modelo e fazê -lo funcionar de uma maneira indesejável. Meta argumenta que o Lama Guard pode proteger contra “Jailbreak Tentativa para evitar os filtros de segurança embutidos da LLAMA” de “Jailbreak tentando evitar os filtros de segurança embutidos da LLAMA”.Entrada injetada. “O Firewall da LLAMA trabalha para detectar e impedir riscos como injeção rápida, código instável e interações de ferramentas de risco.

Quando se trata de ciberseira, não é uma ferramenta mais do que uma coleção de benchmarks para medir a segurança do modelo. O CyberSeCeval pode avaliar (pelo menos de acordo com os padrões da Meta), os riscos poses do modelo de lhama para desenvolvedores de aplicativos e usuários finais em áreas como “engenharia social automática” e “escalar operações cibernéticas ofensivas”.

Limites de lhama

Créditos da imagem:Análise artificial

A lhama, como todos os modelos de IA de geração, tem certos riscos e limitações. Por exemplo, os modelos mais recentes têm recursos multimodais, mas no momento eles estão limitados principalmente ao inglês.

Zoom fora, Meta usou um conjunto de dados de livros eletrônicos pirateados Artigos que treinam modelos de lhama. Um juiz federal recentemente ficou do lado da Meta em um processo de direitos autorais apresentado contra a empresa pelos autores de 13 livros, descobrindo que o uso de obras protegidas por direitos autorais em treinamento caiu em “uso justo”. No entanto, no caso de lhamas Flui para trás Como um trecho protegido por direitos autorais e alguém o está usando no produto, você pode infringir seus direitos autorais e ser responsável.

A Meta também treina controversa a IA com postagens, fotos e legendas do Instagram e no Facebook; Torna os usuários mais difíceis de optar por não participar.

A programação é outra área em que é aconselhável pisar levemente ao usar lhama. Isso porque os lhamas – talvez mais do que seus colegas generativos de IA Crie código de buggy ou instável. Acima LivecodeBencha benchmark Isso testou o modelo de IA com problemas de codificação competitiva, e o modelo Maverick da Meta Llama 4 alcançou uma pontuação de 40%. Isso é comparado a 85% na altitude GPT-5 do Openai e 83% no Xai’s Grok 4 Fast.

Como sempre, é melhor ter um especialista em humanos revisando o código gerado pela IA antes de incorporá -lo em um serviço ou software.

Finalmente, como outros modelos de IA, o modelo de llama é culpado de codificação, orientação legal ou geração de informações enganosas que são plausíveis, mas enganosas. Conversas emocionais com a persona da AI.

Isso foi publicado originalmente em 8 de setembro de 2024 e será atualizado regularmente com novas informações.

Source link