Esta página apresenta uma lista dos modelos Gemini, dos modelos implementados automaticamente e dos modelos com APIs geridas no Vertex AI que suportam o Vertex AI RAG Engine.
Modelos do Gemini
Os seguintes modelos são compatíveis com o Vertex AI RAG Engine:
Os modelos Gemini otimizados não são suportados quando os modelos Gemini usam o motor RAG do Vertex AI.
Modelos implementados autonomamente
O Vertex AI RAG Engine suporta todos os modelos no Model Garden.
Use o Vertex AI RAG Engine com os seus pontos finais de modelos abertos implementados autonomamente.
Substitua as variáveis usadas no exemplo de código:
- PROJECT_ID: o ID do seu projeto.
- LOCATION: a região para processar o seu pedido.
ENDPOINT_ID: o ID do seu ponto final.
# Create a model instance with your self-deployed open model endpoint rag_model = GenerativeModel( "projects/PROJECT_ID/locations/LOCATION/endpoints/ENDPOINT_ID", tools=[rag_retrieval_tool] )
Modelos com APIs geridas na Vertex AI
Os modelos com APIs geridas no Vertex AI que suportam o Vertex AI RAG Engine incluem o seguinte:
O exemplo de código seguinte demonstra como usar a API Gemini
GenerateContent
para criar uma instância de modelo generativo. O ID do modelo,
/publisher/meta/models/llama-3.1-405B-instruct-maas
, encontra-se no
cartão do modelo.
Substitua as variáveis usadas no exemplo de código:
- PROJECT_ID: o ID do seu projeto.
- LOCATION: a região para processar o seu pedido.
RAG_RETRIEVAL_TOOL: a sua ferramenta de obtenção de RAG.
# Create a model instance with Llama 3.1 MaaS endpoint rag_model = GenerativeModel( "projects/PROJECT_ID/locations/LOCATION/publisher/meta/models/llama-3.1-405B-instruct-maas", tools=RAG_RETRIEVAL_TOOL )
O exemplo de código seguinte demonstra como usar a API
ChatCompletions
compatível com a OpenAI para gerar uma resposta do modelo.
Substitua as variáveis usadas no exemplo de código:
- PROJECT_ID: o ID do seu projeto.
- LOCATION: a região para processar o seu pedido.
- MODEL_ID: modelo de GML para geração de conteúdo. Por
exemplo,
meta/llama-3.1-405b-instruct-maas
. - INPUT_PROMPT: o texto enviado ao MDI/CE para geração de conteúdo. Use um comando relevante para os documentos na Vertex AI Search.
- RAG_CORPUS_ID: o ID do recurso do corpus RAG.
- ROLE: a sua função.
- USER: o seu nome de utilizador.
CONTENT: o seu conteúdo.
# Generate a response with Llama 3.1 MaaS endpoint response = client.chat.completions.create( model="MODEL_ID", messages=[{"ROLE": "USER", "content": "CONTENT"}], extra_body={ "extra_body": { "google": { "vertex_rag_store": { "rag_resources": { "rag_corpus": "RAG_CORPUS_ID" }, "similarity_top_k": 10 } } } }, )