Neste tutorial, você usa o Model Garden para implantar o modelo aberto Gemma 2B em um endpoint da Vertex AI acelerado por TPU. Implante um modelo em um endpoint antes de ele ser usado para exibir previsões on-line. A implantação de um modelo associa recursos físicos ao modelo para que ele possa exibir previsões on-line com baixa latência.
Depois de implantar o modelo Gemma 2B, faça a inferência do modelo treinado usando o PredictionServiceClient
para receber previsões on-line. As previsões on-line são solicitações síncronas feitas em um modelo implantado em um endpoint.
Implantar o Gemma usando o Model Garden
Você implanta o modelo Gemma 2B em um tipo de máquina ct5lp-hightpu-1t
do Compute Engine otimizado para treinamento de pequena a média escala. Essa máquina tem um acelerador TPU v5e. Para mais informações sobre como treinar modelos
usando TPUs, consulte Treinamento do Cloud TPU v5e.
Neste tutorial, você implanta o modelo aberto Gemma 2B ajustado para instruções usando o card de modelo no Model Garden. A versão específica do modelo é gemma2-2b-it
. -it
significa ajustado para seguir instruções.
O modelo Gemma 2B tem um tamanho de parâmetro menor, o que significa requisitos de recursos menores e mais flexibilidade de implantação.
No console Google Cloud , acesse a página Model Garden.
Clique no card de modelo Gemma 2.
Clique em Implantar para abrir o painel Implantar modelo.
No painel Implantar modelo, especifique estes detalhes.
Em Ambiente de implantação, clique em Vertex AI.
Na seção Implantar modelo:
Em ID do recurso, escolha
gemma-2b-it
.Em Nome do modelo e Nome do endpoint, aceite os valores padrão. Exemplo:
- Nome do modelo:
gemma2-2b-it-1234567891234
- Nome do endpoint:
gemma2-2b-it-mg-one-click-deploy
Anote o nome do endpoint. Você vai precisar dele para encontrar o ID do endpoint usado nos exemplos de código.
- Nome do modelo:
Na seção Configurações de implantação:
Aceite a opção padrão para as configurações Básicas.
Em Região, aceite o valor padrão ou escolha uma região na lista. Anote a região. Você vai precisar dele para os exemplos de código.
Em Especificação da máquina, escolha a instância com suporte de TPU:
ct5lp-hightpu-1t (1 TPU_V5_LITEPOD; ct5lp-hightpu-1t)
.
Clique em Implantar. Quando a implantação for concluída, você vai receber um e-mail com detalhes sobre o novo endpoint. Para conferir os detalhes do endpoint, clique em Previsão on-line > Endpoints e selecione sua região.
Fazer inferência do Gemma 2B com o PredictionServiceClient
Depois de implantar o Gemma 2B, use o PredictionServiceClient
para
receber previsões on-line para o comando: "Por que o céu é azul?"
Parâmetros de código
As amostras de código PredictionServiceClient
exigem que você atualize o seguinte.
PROJECT_ID
: para encontrar o ID do projeto, siga estas etapas.Acesse a página Boas-vindas no console do Google Cloud .
No seletor de projetos na parte de cima da página, selecione seu projeto.
O nome, o número e o ID do projeto aparecem depois do título Bem-vindo.
ENDPOINT_REGION
: a região em que você implantou o endpoint.ENDPOINT_ID
: para encontrar o ID do endpoint, consulte-o no console ou execute o comandogcloud ai endpoints list
. Você vai precisar do nome e da região do endpoint no painel Implantar modelo.Console
Para conferir os detalhes do endpoint, clique em Previsão on-line > Endpoints e selecione sua região. Anote o número que aparece na coluna
ID
.gcloud
Para conferir os detalhes do endpoint, execute o comando
gcloud ai endpoints list
.gcloud ai endpoints list \ --region=ENDPOINT_REGION \ --filter=display_name=ENDPOINT_NAME
A saída é semelhante a esta:
Using endpoint [https://us-central1-aiplatform.googleapis.com/] ENDPOINT_ID: 1234567891234567891 DISPLAY_NAME: gemma2-2b-it-mg-one-click-deploy
Código de amostra
No exemplo de código da sua linguagem, atualize PROJECT_ID
,
ENDPOINT_REGION
e ENDPOINT_ID
. Em seguida, execute o código.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Node.js
Antes de testar esse exemplo, siga as instruções de configuração para Node.js no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Java
Antes de testar esse exemplo, siga as instruções de configuração para Java no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Go
Antes de testar esse exemplo, siga as instruções de configuração para Go no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Go.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.