Para algunos tipos de datos, puedes solicitar predicciones en línea (en tiempo real) de modelos de AutoML después de crearlos e implementarlos en un extremo. Una predicción en línea es una solicitud síncrona, en lugar de una predicción por lotes, que es una solicitud asíncrona.
Usa predicciones en línea cuando realices solicitudes en respuesta a la entrada de la aplicación o en otras situaciones en las que necesites una inferencia oportuna.
Si quieres realizar una predicción en línea, envía uno o más elementos de prueba a un modelo para su análisis, y el modelo mostrará resultados basados en el objetivo de tu modelo. Para obtener más información sobre los resultados de la predicción, consulta Interpreta los resultados de modelos de AutoML.
Predicciones en línea con la consola de Google Cloud
Usa la consola de Google Cloud para solicitar una predicción en línea. Tu modelo debe implementarse en un extremo.
En la sección Vertex AI de la consola de Google Cloud, vaya a la página Modelos.
En la lista de modelos, haz clic en el nombre del modelo desde el que quieres solicitar predicciones.
Selecciona la pestaña Deploy & test.
En la sección Test your model, agrega elementos de prueba para solicitar una predicción.
El método y la entrada de una predicción en línea dependen del objetivo del modelo. Por ejemplo, los modelos de AutoML para objetivos de texto requieren que escribas contenido en un campo de texto y hagas clic en Predict. Los modelos de AutoML para objetivos de imagen requieren que subas una imagen a fin de solicitar una predicción. En el caso de los modelos tabulares, los datos de predicción del modelo de referencia se completan para ti, o puedes ingresar tus propios datos de predicción y hacer clic en Predict.
Si deseas obtener información sobre la importancia de los atributos locales para los modelos tabulares, consulta Obtén explicaciones.
Una vez que se completa la predicción, Vertex AI muestra los resultados en la consola.
Predicciones en línea con la API
Usa la API de Vertex AI para solicitar una predicción en línea. Tu modelo debe implementarse en un extremo.
Imagen
Los objetivos de tipo de datos de imagen incluyen la clasificación y la detección de objetos.
Predicción del modelo de Edge: Cuando usas modelos de Edge para imágenes de AutoML para la predicción, debes convertir cualquier archivo de predicción que no sea JPEG en un archivo JPEG antes de enviar la solicitud de predicción. Para la función de procesamiento previo de Python de muestra, consulta el repositorio del cliente de Python para la API de Google Cloud AutoML.
Clasificación
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Reemplaza lo siguiente:
- CONTENT: Es el contenido de imagen codificado en base64.
- THRESHOLD_VALUE (opcional): El modelo muestra solo predicciones que tienen puntuaciones de confianza con al menos este valor.
- MAX_PREDICTIONS (opcional): El modelo muestra hasta esta cantidad de predicciones con las puntuaciones de confianza más altas
Ejecuta el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
. - PROJECT: ID del proyecto
- ENDPOINT_ID: Es el ID del extremo.
- CONTENT: Es el contenido de imagen codificado en base64.
- THRESHOLD_VALUE (opcional): El modelo muestra solo predicciones que tienen puntuaciones de confianza con al menos este valor.
- MAX_PREDICTIONS (opcional): El modelo muestra hasta esta cantidad de predicciones con las puntuaciones de confianza más altas
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": [ { "confidences": [ 0.92629629373550415 ], "ids": [ "354376995678715904" ], "displayNames": [ "sunflower" ] } ], "deployedModelId": "2119225099654529024" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Detección de objetos
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Reemplaza lo siguiente:
- CONTENT: Es el contenido de imagen codificado en base64.
- THRESHOLD_VALUE (opcional): El modelo muestra solo predicciones que tienen puntuaciones de confianza con al menos este valor.
- MAX_PREDICTIONS (opcional): El modelo muestra hasta esta cantidad de predicciones con las puntuaciones de confianza más altas
Ejecuta el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
. - PROJECT: ID del proyecto
- ENDPOINT_ID: Es el ID del extremo.
- CONTENT: Es el contenido de imagen codificado en base64.
- THRESHOLD_VALUE (opcional): El modelo muestra solo predicciones que tienen puntuaciones de confianza con al menos este valor.
- MAX_PREDICTIONS (opcional): El modelo muestra hasta esta cantidad de predicciones con las puntuaciones de confianza más altas
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [{ "content": "CONTENT" }], "parameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": [ { "confidences": [ 0.975873291, 0.972160876, 0.879488528, 0.866532683, 0.686478078 ], "displayNames": [ "Salad", "Salad", "Tomato", "Tomato", "Salad" ], "ids": [ "7517774415476555776", "7517774415476555776", "2906088397049167872", "2906088397049167872", "7517774415476555776" ], "bboxes": [ [ 0.0869686604, 0.977020741, 0.395135701, 1 ], [ 0, 0.488701463, 0.00157663226, 0.512249 ], [ 0.361617863, 0.509664357, 0.772928834, 0.914706349 ], [ 0.310678929, 0.45781514, 0.565507233, 0.711237729 ], [ 0.584359646, 1, 0.00116168708, 0.130817384 ] ] } ], "deployedModelId": "3860570043075002368" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Tabular
Los objetivos tabulares incluyen la clasificación y la regresión.
Clasificación
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Reemplaza lo siguiente:
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de strings y una categoría, la fila de datos puede tener el siguiente ejemplo de solicitud:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
Ejecute el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Usa el método endpoints.predict para solicitar una predicción en línea.
En el siguiente ejemplo, se muestra una solicitud de predicción en línea para un modelo de clasificación tabular sin atribuciones de atributos locales. Si quieres que se muestren las atribuciones de funciones locales, consulta Obtén explicaciones.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
-
LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
- PROJECT: ID del proyecto
- ENDPOINT_ID: Es el ID del extremo.
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de strings y una categoría, la fila de datos puede tener el siguiente ejemplo de solicitud:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
DEPLOYED_MODEL_ID: salida del método
predict
y se acepta como entrada mediante el métodoexplain
. El ID del modelo que se usó para generar la predicción. Si necesitas solicitar explicaciones de una predicción solicitada con anterioridad y tienes más de un modelo implementado, puedes usar este ID a fin de asegurarte de que se muestren las explicaciones para el mismo modelo que proporcionó la predicción anterior.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { PREDICTION_DATA_ROW } ] }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": [ { "scores": [ 0.96771615743637085, 0.032283786684274673 ], "classes": [ "0", "1" ] } ] "deployedModelId": "2429510197" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Previsión
Los modelos de previsión no son compatibles con las predicciones en línea. En su lugar, usa predicciones por lotes.Regresión
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Reemplaza lo siguiente:
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de números y una categoría, la fila de datos podría verse como la siguiente solicitud de ejemplo:
"age":3.6, "sq_ft":5392, "code": "90331"
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
Ejecute el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Usa el método endpoints.predict para solicitar una predicción en línea.
En el siguiente ejemplo, se muestra una solicitud de predicción en línea para un modelo de regresión tabular sin atribuciones de funciones locales. Si quieres que se muestren las atribuciones de funciones locales, consulta Obtén explicaciones.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
-
LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
- PROJECT: ID del proyecto
- ENDPOINT_ID: Es el ID del extremo.
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de números y una categoría, la fila de datos podría verse como la siguiente solicitud de ejemplo:
"age":3.6, "sq_ft":5392, "code": "90331"
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
DEPLOYED_MODEL_ID: salida del método
predict
y se acepta como entrada mediante el métodoexplain
. El ID del modelo que se usó para generar la predicción. Si necesitas solicitar explicaciones de una predicción solicitada con anterioridad y tienes más de un modelo implementado, puedes usar este ID a fin de asegurarte de que se muestren las explicaciones para el mismo modelo que proporcionó la predicción anterior.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { PREDICTION_DATA_ROW } ] }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": [ [ { "value": 65.14233, "lower_bound": 4.6572 "upper_bound": 164.0279 } ] ], "deployedModelId": "DEPLOYED_MODEL_ID" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Text
Los objetivos de tipo de datos de texto incluyen la clasificación, la extracción de entidades y el análisis de opiniones.
Clasificación
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Reemplaza lo siguiente:
- CONTENT: Es un fragmento de texto para realizar una predicción.
Ejecuta el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
. - PROJECT: el ID de tu proyecto
- ENDPOINT_ID: Es el ID del extremo.
- CONTENT: Es un fragmento de texto para realizar una predicción.
- DEPLOYED_MODEL_ID: Es el ID del modelo implementado que se usó para realizar la predicción.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": [ { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "GreatService", "Suggestion", "InfoRequest" ], "confidences": [ 0.8986392080783844, 0.81984345316886902, 0.7722353458404541 ] } ], "deployedModelId": "0123456789012345678" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Extracción de entidades
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Reemplaza lo siguiente:
- CONTENT: Es un fragmento de texto para realizar una predicción.
Ejecuta el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
. - PROJECT: el ID de tu proyecto
- ENDPOINT_ID: Es el ID del extremo.
- CONTENT: Es un fragmento de texto para realizar una predicción.
- DEPLOYED_MODEL_ID: Es el ID del modelo implementado que se usó para realizar la predicción.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "predictions": { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "SpecificDisease", "DiseaseClass", "SpecificDisease" ], "textSegmentStartOffsets": [13, 40, 57], "textSegmentEndOffsets": [29, 51, 75], "confidences": [ 0.99959725141525269, 0.99912621492484128, 0.99935531616210938 ] }, "deployedModelId": "0123456789012345678" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Análisis de opiniones
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Reemplaza lo siguiente:
- CONTENT: Es un fragmento de texto para realizar una predicción.
Ejecuta el siguiente comando:
gcloud ai endpoints predict ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
LÍNEA DE REST Y CMD
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
. - PROJECT: el ID de tu proyecto
- ENDPOINT_ID: Es el ID del extremo.
- CONTENT: Es un fragmento de texto para realizar una predicción.
- DEPLOYED_MODEL_ID: Es el ID del modelo implementado que se usó para realizar la predicción.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict
Cuerpo JSON de la solicitud:
{ "instances": [{ "mimeType": "text/plain", "content": "CONTENT" }] }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:predict" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "prediction": { sentiment": 8 }, "deployedModelId": "1234567890123456789" }
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Java.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Node.js.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Obtén explicaciones de modelos tabulares
Para los modelos tabulares de AutoML, puedes solicitar una predicción en línea con explicaciones (también llamadas atribuciones de atributos), que pueden ayudarte a ver cómo tu modelo llegó a una predicción. Los valores de importancia de los atributos locales te indican cuánto contribuyó cada atributo al resultado de la predicción.
Obtén más información para interpretar los resultados de importancia de los atributos locales.
Las atribuciones de funciones se incluyen en las predicciones de Vertex AI a través de Vertex Explainable AI. Obtén más información sobre Explainable AI.
Consola
Cuando usas la consola de Google Cloud para solicitar una predicción en línea, los valores de importancia de los atributos locales se muestran de forma automática.
Si usaste los valores de predicción completados previamente, los valores de importancia de los atributos locales son todos iguales a cero. Esto se debe a que los valores completados previamente son los datos de predicción del modelo de referencia, por lo que la predicción que se muestra es el valor de predicción del modelo de referencia.
gcloud
Crea un archivo llamado
request.json
con el siguiente contenido:{ "instances": [ { PREDICTION_DATA_ROW } ] }
Reemplaza lo siguiente:
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de strings y una categoría, la fila de datos puede tener el siguiente ejemplo de solicitud:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
Ejecute el siguiente comando:
gcloud ai endpoints explain ENDPOINT_ID \ --region=LOCATION \ --json-request=request.json
Reemplaza lo siguiente:
- ENDPOINT_ID: Es el ID del extremo.
- LOCATION: la región en la que usas Vertex AI.
De forma opcional, si deseas enviar una solicitud de explicación a un
DeployedModel
preciso en elEndpoint
, puedes especificar la marca--deployed-model-id
:gcloud ai endpoints explain ENDPOINT_ID \ --region=LOCATION \ --deployed-model-id=DEPLOYED_MODEL_ID \ --json-request=request.json
Además de los marcadores de posición descritos anteriormente, reemplaza lo siguiente:
-
DEPLOYED_MODEL_ID: El ID del modelo implementado para el que deseas obtener explicaciones (opcional). Se incluye el ID en la respuesta del método
predict
. Si necesitas solicitar explicaciones para un modelo en particular y tienes más de un modelo implementado en el mismo extremo, puedes usar este ID a fin de garantizar que se muestren las explicaciones para ese modelo en particular.
LÍNEA DE REST Y CMD
En el siguiente ejemplo, se muestra una solicitud de predicción en línea para un modelo de clasificación tabular con atribuciones de funciones locales. El formato de la solicitud es el mismo para los modelos de regresión.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
-
LOCATION: Es la región en la que se encuentra el extremo. Por ejemplo,
us-central1
- PROJECT: ID del proyecto
- ENDPOINT_ID: Es el ID del extremo.
-
PREDICTION_DATA_ROW: Un objeto JSON con claves como nombres de funciones y valores como los valores de atributo correspondientes. Por ejemplo, para un conjunto de datos con tres funciones: un número, un array de strings y una categoría, la fila de datos puede tener el siguiente ejemplo de solicitud:
"length":3.6, "material":"cotton", "tag_array": ["abc","def"]
Debes proporcionar un valor para cada atributo incluido en el entrenamiento. El formato de los datos usados para la predicción debe coincidir con el formato que se usa para el entrenamiento. Consulta Formato de datos para predicciones si quieres obtener más detalles.
-
DEPLOYED_MODEL_ID: El ID del modelo implementado para el que deseas obtener explicaciones (opcional). Se incluye el ID en la respuesta del método
predict
. Si necesitas solicitar explicaciones para un modelo en particular y tienes más de un modelo implementado en el mismo extremo, puedes usar este ID a fin de garantizar que se muestren las explicaciones para ese modelo en particular.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain
Cuerpo JSON de la solicitud:
{ "instances": [ { PREDICTION_DATA_ROW } ], "deployedModelId": "DEPLOYED_MODEL_ID" }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/endpoints/ENDPOINT_ID:explain" | Select-Object -Expand Content
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Vertex AI, consulta las bibliotecas cliente de Vertex AI. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Para obtener una respuesta de muestra e información sobre cómo interpretar tus resultados, consulta la página sobre cómo interpretar los resultados de predicción de modelos de AutoML.
Obtén explicaciones para una predicción generada anteriormente
Debido a que las explicaciones aumentan el uso de recursos, te recomendamos reservar explicaciones de solicitud para situaciones en las que las necesitas específicamente. A veces, puede ser útil solicitar explicaciones para un resultado de predicción que ya recibiste, tal vez porque la predicción fue un valor atípico o no tenía sentido.
Si todas tus predicciones provienen del mismo modelo, puedes volver a enviar los datos de la solicitud con las explicaciones solicitadas esta vez. Sin embargo, si tienes varios modelos que muestran predicciones, debes asegurarte de enviar la solicitud de explicación al modelo correcto. Para ver las explicaciones de un modelo en particular, puedes incluir el ID del modelo implementado en tu solicitud, lo que se incluye en la respuesta de la solicitud de predicción original. Ten en cuenta que el ID del modelo implementado es diferente del ID del modelo.