Para alguns tipos de dados, é possível solicitar predições on-line (em tempo real) dos modelos de AutoML depois de criá-los e implantá-los em um endpoint. Uma predição on-line é uma solicitação síncrona, em vez de uma previsão em lote, que é uma solicitação assíncrona.
Use predições on-line ao fazer solicitações em resposta à entrada do aplicativo ou em outras situações em que você precisa de inferência em tempo hábil.
Para fazer uma previsão on-line, envie um ou mais itens de teste para um modelo para análise, e o modelo retornará resultados baseados no objetivo do modelo. Para mais informações sobre resultados de previsão, consulte Interpretar resultados de modelos do AutoML.
Previsões on-line com o console do Google Cloud
Use o Console do Cloud para solicitar uma previsão on-line. Seu modelo precisa ser implantado em um endpoint.
No Console do Google Cloud, na seção "Vertex AI", acesse a página Modelos.
Na lista de modelos, clique no nome do modelo para solicitar previsões.
Selecione a guia Implantar e testar.
Na seção Testar o modelo, adicione itens de teste para solicitar uma predição.
O método e a entrada de uma predição on-line dependem do objetivo do modelo. Por exemplo, os modelos AutoML para objetivos de texto exigem que você digite conteúdo em um campo de texto e clique em Prever. Os modelos do AutoML para objetivos de imagem exigem o upload de uma imagem para solicitar uma predição. No caso dos modelos tabulares, os dados de previsão são preenchidos automaticamente ou é possível inserir seus próprios dados de previsão e clicar em Prever.
Para informações sobre a importância de atributos locais para modelos tabulares, consulte esta página.
Após a conclusão da previsão, a Vertex AI retorna os resultados no console.
Previsões on-line com a API
Use a API Vertex AI para solicitar uma predição on-line. Seu modelo precisa ser implantado em um endpoint.
Image
Os objetivos do tipo de dados de imagem incluem classificação e detecção de objetos.
Previsão do modelo do Edge: quando você usa modelos de borda do Image AutoML para previsão, é necessário converter qualquer arquivo de previsão não JPEG em um arquivo JPEG antes de enviar a solicitação. Para ver uma função de pré-processamento de Python de exemplo, consulte Cliente Python para o repositório da API AutoML do Google Cloud.
Classificação
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Substitua:
- CONTENT: o conteúdo da imagem codificada em base64.
- THRESHOLD_VALUE (opcional): o modelo retorna apenas previsões que têm pontuações de confiança com pelo menos esse valor.
- MAX_PREDICTIONS (opcional): o modelo retorna até esse número de previsões com as maiores pontuações de confiança.
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e linha de comando
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint.
- CONTENT: o conteúdo da imagem codificada em base64.
- THRESHOLD_VALUE (opcional): o modelo retorna apenas previsões que têm pontuações de confiança com pelo menos esse valor.
- MAX_PREDICTIONS (opcional): o modelo retorna até esse número de previsões com as maiores pontuações de confiança.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": [ { "confidences": [ 0.92629629373550415 ], "ids": [ "354376995678715904" ], "displayNames": [ "sunflower" ] } ], "deployedModelId": "2119225099654529024" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Detecção de objetos
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Substitua:
- CONTENT: o conteúdo da imagem codificada em base64.
- THRESHOLD_VALUE (opcional): o modelo retorna apenas previsões que têm pontuações de confiança com pelo menos esse valor.
- MAX_PREDICTIONS (opcional): o modelo retorna até esse número de previsões com as maiores pontuações de confiança.
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e linha de comando
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint.
- CONTENT: o conteúdo da imagem codificada em base64.
- THRESHOLD_VALUE (opcional): o modelo retorna apenas previsões que têm pontuações de confiança com pelo menos esse valor.
- MAX_PREDICTIONS (opcional): o modelo retorna até esse número de previsões com as maiores pontuações de confiança.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": [ { "confidences": [ 0.975873291, 0.972160876, 0.879488528, 0.866532683, 0.686478078 ], "displayNames": [ "Salad", "Salad", "Tomato", "Tomato", "Salad" ], "ids": [ "7517774415476555776", "7517774415476555776", "2906088397049167872", "2906088397049167872", "7517774415476555776" ], "bboxes": [ [ 0.0869686604, 0.977020741, 0.395135701, 1 ], [ 0, 0.488701463, 0.00157663226, 0.512249 ], [ 0.361617863, 0.509664357, 0.772928834, 0.914706349 ], [ 0.310678929, 0.45781514, 0.565507233, 0.711237729 ], [ 0.584359646, 1, 0.00116168708, 0.130817384 ] ] } ], "deployedModelId": "3860570043075002368" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Tabular
Os objetivos tabulares incluem classificação e regressão.
Classificação
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Substitua:
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de strings e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e LINHA DE CMD
Use o método endpoints.predict para solicitar uma predição on-line.
Veja no exemplo a seguir uma solicitação de previsão on-line para um modelo de classificação tabular sem atribuições de recursos locais. Se você quiser que as atribuições de recursos locais sejam retornadas, consulte Como receber explicações.
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
-
LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint.
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de strings e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
DEPLOYED_MODEL_ID: saída pelo método
predict
e aceita como entrada pelo métodoexplain
. O ID do modelo usado para gerar a previsão. Se você precisar solicitar explicações para uma previsão solicitada anteriormente e tiver mais de um modelo implantado, use esse ID para garantir que as explicações sejam retornadas para o mesmo modelo que forneceu a previsão anterior.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [ { PREDICTION_DATA_ROW } ] }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": [ { "scores": [ 0.96771615743637085, 0.032283786684274673 ], "classes": [ "0", "1" ] } ] "deployedModelId": "2429510197" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Previsão
Os modelos de previsão não são compatíveis com previsões on-line. Em vez disso, use previsões em lote.Regressão
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Substitua:
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de números e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"age":3.6, "sq_ft":5392, "code": "90331"
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e LINHA DE CMD
Use o método endpoints.predict para solicitar uma predição on-line.
Veja no exemplo a seguir uma solicitação de previsão on-line para um modelo de classificação tabular sem atribuições de recursos locais. Se você quiser que as atribuições de recursos locais sejam retornadas, consulte Como receber explicações.
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
-
LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint.
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de números e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"age":3.6, "sq_ft":5392, "code": "90331"
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
DEPLOYED_MODEL_ID: saída pelo método
predict
e aceita como entrada pelo métodoexplain
. O ID do modelo usado para gerar a previsão. Se você precisar solicitar explicações para uma previsão solicitada anteriormente e tiver mais de um modelo implantado, use esse ID para garantir que as explicações sejam retornadas para o mesmo modelo que forneceu a previsão anterior.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [ { PREDICTION_DATA_ROW } ] }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": [ [ { "value": 65.14233, "lower_bound": 4.6572 "upper_bound": 164.0279 } ] ], "deployedModelId": "DEPLOYED_MODEL_ID" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Texto
Os objetivos de tipo de dados de texto incluem classificação, extração de entidades e análise de sentimento.
Classificação
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Substitua:
- CONTENT: snippet de texto para fazer uma previsão
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e linha de comando
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint
- CONTENT: snippet de texto para fazer uma previsão
- DEPLOYED_MODEL_ID: o ID do modelo implantado que foi usado para fazer a previsão.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": [ { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "GreatService", "Suggestion", "InfoRequest" ], "confidences": [ 0.8986392080783844, 0.81984345316886902, 0.7722353458404541 ] } ], "deployedModelId": "0123456789012345678" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Extração de entidade
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Substitua:
- CONTENT: snippet de texto para fazer uma previsão
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e linha de comando
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint
- CONTENT: snippet de texto para fazer uma previsão
- DEPLOYED_MODEL_ID: o ID do modelo implantado que foi usado para fazer a previsão.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "predictions": { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "SpecificDisease", "DiseaseClass", "SpecificDisease" ], "textSegmentStartOffsets": [13, 40, 57], "textSegmentEndOffsets": [29, 51, 75], "confidences": [ 0.99959725141525269, 0.99912621492484128, 0.99935531616210938 ] }, "deployedModelId": "0123456789012345678" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Análise de sentimento
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Substitua:
- CONTENT: snippet de texto para fazer uma previsão
Execute este comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
REST e linha de comando
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint
- CONTENT: snippet de texto para fazer uma previsão
- DEPLOYED_MODEL_ID: o ID do modelo implantado que foi usado para fazer a previsão.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Corpo JSON da solicitação:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "prediction": { sentiment": 8 }, "deployedModelId": "1234567890123456789" }
Java
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Java.
Node.js
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Node.js.
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Receber explicações de modelos tabulares
Para modelos tabulares do AutoML, é possível solicitar uma predição on-line com explicações, também conhecidas como atribuições de recursos, que podem ajudar você a ver como o modelo chegou em uma previsão. Os valores de importância do recurso local informam quanto cada recurso contribuiu para o resultado dessa previsão.
Saiba mais sobre como interpretar os resultados de importância do recurso local.
As atribuições de recursos são incluídas nas previsões da Vertex AI pelo Explainable AI. Saiba mais sobre IA Explicável.
Console
Quando você usa o Console do Cloud para solicitar uma previsão on-line, os valores de importância do recurso local são retornados automaticamente.
Se você usou os valores de previsão preenchidos automaticamente, os valores de importância do recurso local são todos zero. Isso ocorre porque os valores pré-preenchidos são os dados de previsão do valor de referência, portanto, a previsão retornada é o valor de previsão do valor de referência.
gcloud
Crie um arquivo chamado
request.json
com o seguinte conteúdo:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Substitua:
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de strings e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
Execute este comando:
gcloud ai endpoints explain ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Substitua:
- ENDPOINT_ID: o ID do endpoint.
- LOCATION: a região em que você está usando a Vertex AI.
Opcionalmente, se você quiser enviar uma solicitação de explicação para um
DeployedModel
específico emEndpoint
, especifique a sinalização--deployed-model-id
:gcloud ai endpoints explain ENDPOINT_ID \ --region=LOCATION \ --deployed-model-id=DEPLOYED_MODEL_ID \ --json-request=request.json
Além dos marcadores de posição descritos anteriormente, substitua o seguinte:
-
DEPLOYED_MODEL_ID (opcional): o ID do modelo implantado que você quer obter explicações. O ID está incluído na resposta do método
predict
. Se você precisar solicitar explicações para um modelo específico e tiver mais de um modelo implantado no mesmo endpoint, use esse ID para garantir que as explicações sejam retornadas.
REST e LINHA DE CMD
Veja no exemplo a seguir uma solicitação de previsão on-line para um modelo de classificação tabular com atribuições de recursos locais. O formato da solicitação é o mesmo para modelos de regressão.
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
-
LOCATION: região em que o endpoint está localizado. Por exemplo,
us-central1
. - PROJECT: o ID do projeto
- ENDPOINT_ID: o ID do endpoint.
-
PREDICTION_DATA_ROW: um objeto JSON com chaves como os nomes e valores de recursos como os valores de recurso correspondentes. Por exemplo, para um conjunto de dados com três atributos: um número, uma matriz de strings e uma categoria, a linha de dados pode ser semelhante à seguinte solicitação de exemplo:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
É necessário incluir um valor para cada recurso incluído no treinamento. O formato dos dados usados para previsão precisa corresponder ao formato usado para treinamento. Consulte Formato de dados para previsões para mais detalhes.
-
DEPLOYED_MODEL_ID (opcional): o ID do modelo implantado que você quer obter explicações. O ID está incluído na resposta do método
predict
. Se você precisar solicitar explicações para um modelo específico e tiver mais de um modelo implantado no mesmo endpoint, use esse ID para garantir que as explicações sejam retornadas.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain
Corpo JSON da solicitação:
{ "instances": [ { PREDICTION_DATA_ROW } ], "deployedModelId": "DEPLOYED_MODEL_ID" }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain"
PowerShell
Salve o corpo da solicitação em um arquivo chamado request.json
e execute o comando a seguir:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain" | Select-Object -Expand Content
Python
Saiba como instalar e usar a biblioteca de cliente para Vertex AI em Bibliotecas de cliente da Vertex AI. Consulte a documentação de referência da API Vertex AI Python.
Para ver uma resposta de amostra e informações sobre como interpretar os resultados, consulte Como interpretar resultados de previsão de modelos do AutoML.
Receber explicações de uma previsão retornada anteriormente
Como as explicações aumentam o uso de recursos, talvez seja necessário reservar o pedido de explicação para situações em que você precise delas especificamente. Às vezes, pode ser útil solicitar explicações para um resultado de previsão que você já recebeu, talvez porque a previsão era um outlier ou não fazia sentido.
Se todas as suas previsões forem provenientes do mesmo modelo, basta simplesmente reenviar os dados da solicitação, com explicações solicitadas dessa vez. No entanto, se houver vários modelos retornando previsões, certifique-se de enviar a solicitação de explicação ao modelo correto. Para ver explicações de um modelo específico, inclua o ID do modelo implantado na solicitação, que está incluído na resposta da solicitação de previsão original. O ID do modelo implantado é diferente do ID do modelo.