Modelos suportados do Vertex AI RAG Engine

Esta página apresenta uma lista dos modelos Gemini, dos modelos implementados automaticamente e dos modelos com APIs geridas no Vertex AI que suportam o Vertex AI RAG Engine.

Modelos do Gemini

Os seguintes modelos são compatíveis com o Vertex AI RAG Engine:

Os modelos Gemini otimizados não são suportados quando os modelos Gemini usam o motor RAG do Vertex AI.

Modelos implementados autonomamente

O Vertex AI RAG Engine suporta todos os modelos no Model Garden.

Use o Vertex AI RAG Engine com os seus pontos finais de modelos abertos implementados autonomamente.

Substitua as variáveis usadas no exemplo de código:

  • PROJECT_ID: o ID do seu projeto.
  • LOCATION: a região para processar o seu pedido.
  • ENDPOINT_ID: o ID do seu ponto final.

      # Create a model instance with your self-deployed open model endpoint
      rag_model = GenerativeModel(
          "projects/PROJECT_ID/locations/LOCATION/endpoints/ENDPOINT_ID",
          tools=[rag_retrieval_tool]
      )
    

Modelos com APIs geridas na Vertex AI

Os modelos com APIs geridas no Vertex AI que suportam o Vertex AI RAG Engine incluem o seguinte:

O exemplo de código seguinte demonstra como usar a API Gemini GenerateContent para criar uma instância de modelo generativo. O ID do modelo, /publisher/meta/models/llama-3.1-405B-instruct-maas, encontra-se no cartão do modelo.

Substitua as variáveis usadas no exemplo de código:

  • PROJECT_ID: o ID do seu projeto.
  • LOCATION: a região para processar o seu pedido.
  • RAG_RETRIEVAL_TOOL: a sua ferramenta de obtenção de RAG.

      # Create a model instance with Llama 3.1 MaaS endpoint
      rag_model = GenerativeModel(
          "projects/PROJECT_ID/locations/LOCATION/publisher/meta/models/llama-3.1-405B-instruct-maas",
          tools=RAG_RETRIEVAL_TOOL
      )
    

O exemplo de código seguinte demonstra como usar a API ChatCompletions compatível com a OpenAI para gerar uma resposta do modelo.

Substitua as variáveis usadas no exemplo de código:

  • PROJECT_ID: o ID do seu projeto.
  • LOCATION: a região para processar o seu pedido.
  • MODEL_ID: modelo de GML para geração de conteúdo. Por exemplo, meta/llama-3.1-405b-instruct-maas.
  • INPUT_PROMPT: o texto enviado ao MDI/CE para geração de conteúdo. Use um comando relevante para os documentos na Vertex AI Search.
  • RAG_CORPUS_ID: o ID do recurso do corpus RAG.
  • ROLE: a sua função.
  • USER: o seu nome de utilizador.
  • CONTENT: o seu conteúdo.

      # Generate a response with Llama 3.1 MaaS endpoint
      response = client.chat.completions.create(
          model="MODEL_ID",
          messages=[{"ROLE": "USER", "content": "CONTENT"}],
          extra_body={
              "extra_body": {
                  "google": {
                      "vertex_rag_store": {
                          "rag_resources": {
                              "rag_corpus": "RAG_CORPUS_ID"
                          },
                          "similarity_top_k": 10
                      }
                  }
              }
          },
      )
    

O que se segue?