En esta página se enumeran las interfaces que puedes usar para definir y ejecutar flujos de procesamiento de aprendizaje automático en Vertex AI Pipelines.
Interfaces para definir un flujo de procesamiento
Vertex AI Pipelines admite flujos de procesamiento de aprendizaje automático definidos mediante el SDK de Kubeflow Pipelines (KFP) o el SDK de TensorFlow Extended (TFX).
SDK de Kubeflow Pipelines (KFP)
Usa KFP en todos los casos prácticos en los que no necesites usar TensorFlow Extended para procesar grandes cantidades de datos estructurados o de texto. Vertex AI Pipelines admite el SDK de KFP v2.0 o versiones posteriores.
Cuando usas el SDK de KFP, puedes definir tu flujo de trabajo de aprendizaje automático creando componentes personalizados y reutilizando componentes precompilados, como losGoogle Cloud componentes de flujo de procesamiento Google Cloud .Los componentes de flujo de procesamiento te permiten usar fácilmente servicios de Vertex AI, como AutoML, en tu flujo de procesamiento de aprendizaje automático. Vertex AI Pipelines es compatible con el SDK de componentes de flujo de procesamiento v2 o versiones posteriores. Google Cloud Para obtener más información sobre los Google Cloud componentes de flujo de procesamiento, consulta la introducción a los componentes de flujo de procesamiento Google Cloud .
Para saber cómo crear un flujo de procesamiento con Kubeflow Pipelines, consulta el artículo Crear un flujo de procesamiento. Para obtener más información sobre Kubeflow Pipelines, consulta la documentación de Kubeflow Pipelines.
SDK de TensorFlow Extended (TFX)
Usa TFX si utilizas TensorFlow Extended en tu flujo de trabajo de aprendizaje automático para procesar terabytes de datos estructurados o de texto. Vertex AI Pipelines es compatible con el SDK de TFX v0.30.0 o versiones posteriores.
Para saber cómo crear flujos de procesamiento de aprendizaje automático con TFX, consulta la sección Tutoriales para empezar de los tutoriales de TensorFlow Extended en producción.
Interfaces para ejecutar un flujo de procesamiento
Una vez que hayas definido tu flujo de procesamiento de aprendizaje automático, podrás crear una ejecución de flujo de procesamiento de aprendizaje automático con cualquiera de las siguientes interfaces:
API REST
Clientes de SDK
Google Cloud consola
Para obtener más información sobre las interfaces que puedes usar para interactuar con Vertex AI, consulta Interfaces de Vertex AI.
API REST
Para crear una ejecución de una canalización mediante REST, usa la API de servicio Pipelines
. Esta API usa el recurso REST projects.locations.pipelineJobs
.
Clientes de SDK
Vertex AI Pipelines te permite crear ejecuciones de canalizaciones mediante el SDK de Vertex AI para Python o las bibliotecas de cliente.
SDK de Vertex AI para Python
El SDK de Vertex AI para Python (aiplatform
) es el SDK recomendado para trabajar de forma programática con la API del servicio Pipelines
. Para obtener más información sobre este SDK, consulta la documentación de la API de google.cloud.aiplatform.PipelineJob
.
Bibliotecas de cliente
Las bibliotecas de cliente son SDKs de clientes de API generados de forma programática (GAPIC). Vertex AI Pipelines admite las siguientes bibliotecas de cliente:
Python (
aiplatform
v1
yv1beta1
)Java
Node.js
Para obtener más información, consulta Instalar las bibliotecas de cliente de Vertex AI.
ConsolaGoogle Cloud (GUI)
Google Cloud Console es la forma recomendada de revisar y monitorizar las ejecuciones de tu canalización. También puedes realizar otras tareas con la consola Google Cloud , como crear, eliminar y clonar ejecuciones de canalizaciones, acceder a la galería de plantillas y obtener la etiqueta de facturación de una ejecución de canalización.
Ve a Pipelines en la Google Cloud consola.
Siguientes pasos
Para empezar, consulta cómo definir una canalización con el SDK de Kubeflow Pipelines.
Consulta las prácticas recomendadas para implementar modelos de aprendizaje automático con entrenamiento personalizado en Vertex AI.