Usar modelos de Llama

O Llama é uma coleção de modelos abertos desenvolvidos pela Meta que podem ser ajustados e implantados na Vertex AI. O Llama oferece modelos generativos de texto e multimodais pré-treinados e ajustados por instruções para chats semelhantes a assistentes. É possível implantar os modelos Llama 3.2, Llama 3.1, Llama 3 e Llama 2 na Vertex AI.

Llama 3.2

O Llama 3.2 permite que os desenvolvedores criem e implantem os modelos de IA generativa mais recentes e aplicativos que usam os recursos do Llama para estimular novas inovações, como o raciocínio de imagem. O Llama 3.2 também foi projetado para ser mais acessível para aplicativos no dispositivo. A lista a seguir destaca os recursos do Llama 3.2:

  • Oferece uma experiência de IA mais privada e personalizada, com processamento no dispositivo para modelos menores.
  • Oferece modelos projetados para serem mais eficientes, com latência reduzida e desempenho aprimorado, tornando-os adequados para uma ampla gama de aplicativos.
  • Criado com base no Llama Stack, que facilita a criação e a implantação de aplicativos. O Llama Stack é uma interface padronizada para criar componentes canônicos de conjunto de ferramentas e aplicativos de agentes.
  • Suporte a tarefas de visão, com uma nova arquitetura de modelo que integra representações de codificador de imagem ao modelo de linguagem.

Os modelos 1B e 3B são modelos leves somente de texto que oferecem suporte a casos de uso no dispositivo, como recuperação de conhecimento local multilíngue, resumo e reescrita.

Os modelos Llama 11B e 90B são modelos multimodais pequenos e médios com raciocínio de imagens. Por exemplo, eles podem analisar dados visuais de gráficos para fornecer respostas mais precisas e extrair detalhes de imagens para gerar descrições de texto.

Para mais informações, consulte o card de modelo Llama 3.2 no Model Garden.

Considerações

Ao usar o 11B e o 90B, não há restrições ao enviar somente comandos de texto. No entanto, se você incluir uma imagem no comando, ela precisa estar no início do comando, e você só pode incluir uma imagem. Não é possível, por exemplo, incluir texto e uma imagem.

Llama 3.1

A coleção de modelos de linguagem grande (LLMs) multilíngues Llama 3.1 é composta por modelos generativos pré-treinados e ajustados por instrução em nos tamanhos 8B, 70B e 405B (entrada/saída de texto). Os modelos ajustados por instrução apenas para texto do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e, em comparativos de mercado comuns, superam muitos modelos de chat fechados e de código aberto disponíveis.

Para mais informações, consulte o card de modelo Llama 3.1 no Model Garden.

Llama 3

Os modelos ajustados por instrução do Llama 3 são uma coleção de LLMs otimizados para casos de uso de diálogos. Em comparativos de mercado comuns, os modelos do Llama 3 superam muitos modelos de chat de código aberto disponíveis.

Para mais informações, consulte o card de modelo Llama 3 no Model Garden.

Llama 2

Os LLMs do Llama 2 são uma coleção de textos generativos pré-treinados e ajustados com tamanhos que variam em parâmetros de 7B a 70B.

Para mais informações, consulte o card de modelo Llama 2 no Model Garden.

Code Llama

Os modelos Code Llama da Meta foram projetados para instrução, entendimento e síntese de código.

Para mais informações, consulte o card de modelo Código Llama no Model Garden.

Llama Guard 3

O Llama Guard 3 é baseado nos recursos do Llama Guard 2, adicionando três novas categorias: difamação, eleições e abuso de intérpretes de código. Além disso, esse modelo é multilíngue e tem um formato de comando consistente com os modelos de instrução do Llama 3 ou mais recentes.

Para mais informações, consulte o card de modelo Llama Guard no Model Garden.

Recursos

Para mais informações sobre o Model Garden, consulte Conhecer modelos de IA no Model Garden.