Componente de predicción por lotes

El recurso BatchPredictionJob te permite ejecutar una solicitud de predicción asíncrona. Solicita predicciones por lotes directamente desde el recurso model. No es necesario implementar el modelo en un endpoint. Para los tipos de datos que admiten predicciones por lotes y en línea, puedes usar predicciones por lotes. Esto es útil cuando no necesitas una respuesta inmediata y deseas procesar datos acumulados mediante una sola solicitud.

Si deseas realizar una predicción por lotes, especifica una fuente de entrada y una ubicación de salida para que Vertex AI almacene ahí los resultados de las predicciones. Las entradas y salidas dependen del tipo de model con el que trabajas. Por ejemplo, las predicciones por lotes para el tipo de modelo de imagen de AutoML requieren un archivo de líneas JSON de entrada y el nombre de un bucket de Cloud Storage para almacenar el resultado. Para obtener más información sobre la predicción por lotes, consulta Obtén predicciones por lotes.

Puedes usar el componente ModelBatchPredictOp para acceder a esta funcionalidad a través de Vertex AI Pipelines.

Referencia de API

Instructivos

Historial de versiones y notas de la versión

Para obtener más información sobre el historial de versiones y los cambios en el SDK de componentes de canalización de Google Cloud, consulta las notas de la versión del SDK de componentes de canalización de Google Cloud.

Contactos de asistencia técnica

Si tienes alguna pregunta, comunícate con kubeflow-pipelines-components@google.com.