Package prediction.aiplatform.gdc.goog.v1

Índice

PredictionService

Un servicio para hacer predicciones y dar explicaciones online.

Predicen

rpc Predict(PredictRequest) returns (PredictResponse)

Hacer una predicción online.

RawPredict

rpc RawPredict(RawPredictRequest) returns (HttpBody)

Realiza una predicción online con una carga útil HTTP arbitraria.

La respuesta incluye los siguientes encabezados HTTP:

  • X-Vertex-AI-Endpoint-Id: ID del endpoint que ha servido esta predicción.

  • X-Vertex-AI-Deployed-Model-Id: ID del DeployedModel del Endpoint que ha proporcionado esta predicción.

PredictRequest

Mensaje de solicitud de PredictionService.Predict.

Campos
endpoint

string

Obligatorio. Nombre del endpoint solicitado para publicar la predicción. Formato: projects/{project}/locations/{location}/endpoints/{endpoint}

instances[]

Value

Obligatorio. Las instancias que son la entrada de la llamada de predicción. Un DeployedModel puede tener un límite máximo en el número de instancias que admite por solicitud. En el caso de los modelos creados por los clientes, el comportamiento es el que se documenta en ese modelo. El esquema de cualquier instancia se puede especificar en los DeployedModels del Endpoint.

parameters

Value

Los parámetros que rigen la predicción. El esquema de los parámetros se puede especificar en los DeployedModels del Endpoint.

PredictResponse

Mensaje de respuesta a PredictionService.Predict.

Campos
predictions[]

Value

Las predicciones que son el resultado de la llamada de predicciones. El esquema de cualquier predicción se puede especificar en los DeployedModels del Endpoint.

deployed_model_id

string

ID del DeployedModel del Endpoint que ha servido esta predicción.

model

string

Solo de salida. Nombre de recurso del modelo que se ha desplegado como DeployedModel al que corresponde esta predicción.

model_version_id

string

Solo de salida. ID de la versión del modelo que se ha desplegado como DeployedModel al que afecta esta predicción.

model_display_name

string

Solo de salida. Nombre visible del modelo que se ha implementado como DeployedModel al que corresponde esta predicción.

metadata

Value

Solo de salida. Metadatos a nivel de solicitud devueltos por el modelo. El tipo de metadatos dependerá de la implementación del modelo.

RawPredictRequest

Mensaje de solicitud de PredictionService.RawPredict.

Campos
endpoint

string

Obligatorio. Nombre del endpoint solicitado para publicar la predicción. Formato: projects/{project}/locations/{location}/endpoints/{endpoint}

http_body

HttpBody

Entrada de predicción. Admite encabezados HTTP y cargas útiles de datos arbitrarias.

Un DeployedModel puede tener un límite máximo en el número de instancias que admite por solicitud. Si se supera este límite en un modelo de AutoML, el método RawPredict devuelve un error. Cuando se supera este límite en un modelo entrenado de forma personalizada, el comportamiento varía en función del modelo.

Puede especificar el esquema de cada instancia en el campo PredictSchemata al crear un modelo. Este esquema se aplica cuando implementas el Model como un DeployedModel en un Endpoint y usas el método RawPredict.