Un modello di pipeline è una risorsa che puoi utilizzare per pubblicare una definizione di flusso di lavoro in modo che possa essere riutilizzata più volte da un singolo utente o da più utenti.
Il client del registry dell'SDK Kubeflow Pipelines è una nuova interfaccia client che puoi utilizzare con un server del registry compatibile, come Artifact Registry, per il controllo della versione dei tuoi modelli Kubeflow Pipelines (KFP). Per ulteriori informazioni, consulta Utilizzare il modello in un client del registry dell'SDK Kubeflow Pipelines.
Questa pagina illustra come:
- Creare un modello di pipeline KFP
- Utilizza il client del registry dell'SDK Kubeflow Pipelines per caricare il modello in un repository di modelli di pipeline
- Utilizzare il modello nel client Kubeflow Pipelines
Prima di iniziare
Prima di creare ed eseguire la pipeline, segui le istruzioni riportate di seguito per configurare il progetto Google Cloud e l'ambiente di sviluppo nella console Google Cloud.
Installa la versione 2 o successive dell'SDK Kubeflow Pipelines.
pip install --upgrade kfp>=2,<3
Installa la versione 1.15.0 o successiva dell'SDK Vertex AI per Python.
(Facoltativo) Prima dell'installazione, esegui il seguente comando per vedere quale versione dell'SDK Vertex AI per Python è attualmente installata:pip freeze | grep google-cloud-aiplatform
(Facoltativo) Installa la versione 390.0.0 o successive di Google Cloud CLI.
Configurazione delle autorizzazioni
Se non hai ancora configurato il progetto gcloud CLI per Vertex AI Pipelines, segui le istruzioni riportate in Configurare il progetto Google Cloud per Vertex AI Pipelines.
Inoltre, assegna le seguenti autorizzazioni di Identity and Access Management predefinite per utilizzare Artifact Registry come registry dei modelli:
roles/artifactregistry.admin
: assegna questo ruolo per creare e gestire un repository.roles/artifactregistry.repoAdmin
oroles/artifactregistry.writer
: assegna uno di questi ruoli per gestire i modelli all'interno di un repository.roles/artifactregistry.reader
: assegna questo ruolo per scaricare i modelli da un repository.roles/artifactregistry.reader
: assegna questo ruolo a un account di servizio associato a Vertex AI Pipelines per creare un'esecuzione della pipeline da un modello.
Per ulteriori informazioni sui ruoli Identity and Access Management predefiniti per Artifact Registry, consulta Ruoli predefiniti di Artifact Registry.
Utilizza il seguente esempio per assegnare i ruoli:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member=PRINCIPAL \ --role=ROLE
Sostituisci quanto segue:
- PROJECT_ID: il progetto in cui vuoi creare la pipeline.
- PRINCIPAL: il principale a cui stai aggiungendo le autorizzazioni.
- ROLE: il ruolo Identity and Access Management che vuoi concedere al principale.
Consulta la sezione Ruoli e autorizzazioni nella documentazione di Artifact Registry per ulteriori informazioni su quanto segue:
- Concessione di autorizzazioni a livello di progetto
- Concessione di autorizzazioni specifiche per il repository
- Concessione di ruoli di base di Identity and Access Management a singoli utenti
Creare un repository in Artifact Registry
A questo punto, dovrai creare un repository in Artifact Registry per i modelli di pipeline.
Console
Apri Vertex AI Pipelines nella console Google Cloud.
Fai clic sulla scheda I tuoi modelli.
Per aprire il riquadro Seleziona repository, fai clic su Seleziona repository.
Fai clic su Crea repository.
Specifica
quickstart-kfp-repo
come nome del repository.In Formato, seleziona
Kubeflow Pipelines
.In Tipo di località, seleziona Regione.
Nell'elenco a discesa Regione, seleziona
us-central1
.Fai clic su Crea.
Google Cloud CLI
Esegui il comando seguente per creare un repository.
Prima di utilizzare i dati dei comandi riportati di seguito, effettua le seguenti sostituzioni:
- LOCATION: la località o la regione in cui vuoi creare il repository, ad esempio
us-central1
Esegui il comando gcloud artifacts repositories create:
Linux, macOS o Cloud Shell
gcloud artifacts repositories create quickstart-kfp-repo --location=LOCATION_ID --repository-format=KFP
Windows (PowerShell)
gcloud artifacts repositories create quickstart-kfp-repo --location=LOCATION_ID --repository-format=KFP
Windows (cmd.exe)
gcloud artifacts repositories create quickstart-kfp-repo --location=LOCATION_ID --repository-format=KFP
Crea un modello
Utilizza il seguente esempio di codice per definire una pipeline con un singolo componente. Per informazioni su come definire una pipeline utilizzando KFP, consulta Creare una pipeline.
from kfp import dsl
from kfp import compiler
@dsl.component()
def hello_world(text: str) -> str:
print(text)
return text
@dsl.pipeline(name='hello-world', description='A simple intro pipeline')
def pipeline_hello_world(text: str = 'hi there'):
"""Pipeline that passes small pipeline parameter string to consumer op."""
consume_task = hello_world(
text=text) # Passing pipeline parameter as argument to consumer op
compiler.Compiler().compile(
pipeline_func=pipeline_hello_world,
package_path='hello_world_pipeline.yaml')
Quando esegui il sample, l'istruzione compiler.Compiler().compile(...)
compila la pipeline "hello-world" nel file YAML locale denominato hello_world_pipeline.yaml
.
Carica il modello
Console
Apri Vertex AI Pipelines nella console Google Cloud.
Fai clic su Carica per aprire il riquadro Carica pipeline o componente.
Nell'elenco a discesa Repository, seleziona il repository
quickstart-kfp-repo
.Specifica un nome per il modello di pipeline.
Nel campo File, fai clic su Scegli per selezionare e caricare il modello di pipeline compilato in YAML dal tuo file system locale.
Dopo aver caricato il modello di pipeline, questo viene visualizzato nella pagina I tuoi modelli.
Client SDK Kubeflow Pipelines
Per configurare il client del registry dell'SDK Kubeflow Pipelines, esegui i seguenti comandi:
from kfp.registry import RegistryClient client = RegistryClient(host=f"https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo")
Carica il file YAML compilato nel tuo repository in Artifact Registry.
templateName, versionName = client.upload_pipeline( file_name="hello_world_pipeline.yaml", tags=["v1", "latest"], extra_headers={"description":"This is an example pipeline template."})
Per verificare che il modello sia stato caricato:
Apri Vertex AI Pipelines nella console Google Cloud.
Fai clic sulla scheda I tuoi modelli.
Fai clic su Seleziona repository.
Nell'elenco, seleziona il repository
quickstart-kfp-repo
e poi fai clic su Seleziona.Dovresti trovare il pacchetto di modelli caricato
hello-world
nell'elenco.Per visualizzare l'elenco delle versioni del modello di pipeline, fai clic sul modello
hello-world
.Per visualizzare la topologia della pipeline, fai clic sulla versione.
Utilizzare il modello in Vertex AI
Dopo aver caricato il modello di pipeline nel tuo repository in Artifact Registry, è pronto per essere utilizzato in Vertex AI Pipelines.
Crea un bucket di staging per il modello
Prima di poter utilizzare il modello di pipeline, devi creare un bucket Cloud Storage per le esecuzioni di staging della pipeline.
Per creare il bucket, segui le istruzioni riportate in Configurare un bucket Cloud Storage per gli elementi della pipeline e poi esegui il seguente comando:
STAGING_BUCKET="gs://BUCKET_NAME"
Sostituisci BUCKET_NAME con il nome del bucket che hai appena creato.
Creare un'esecuzione della pipeline dal modello
Puoi utilizzare l'SDK Vertex AI per Python o la console Google Cloud per creare un'esecuzione della pipeline dal tuo modello in Artifact Registry.
Console
Apri Vertex AI Pipelines nella console Google Cloud.
Fai clic sulla scheda I tuoi modelli.
Per aprire il riquadro Seleziona repository, fai clic su Seleziona repository.
Seleziona il repository
quickstart-kfp-repo
e poi fai clic su Seleziona.Fai clic sul pacchetto
hello-world
.Accanto alla versione
4f245e8f9605
, fai clic su Crea esecuzione.Fai clic su Configurazione di runtime.
In Posizione Cloud Storage, inserisci quanto segue:
gs://BUCKET_NAME
Sostituisci BUCKET_NAME con il nome del bucket che hai creato per l'implementazione delle esecuzioni della pipeline.
Fai clic su Invia.
SDK Vertex AI per Python
Utilizza il seguente esempio per creare un'esecuzione della pipeline dal modello:
from google.cloud import aiplatform
# Initialize the aiplatform package
aiplatform.init(
project="PROJECT_ID",
location='us-central1',
staging_bucket=STAGING_BUCKET)
# Create a pipeline job using a version ID.
job = aiplatform.PipelineJob(
display_name="hello-world-latest",
template_path="https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/hello-world@SHA256_TAG" + \
versionName)
# Alternatively, create a pipeline job using a tag.
job = aiplatform.PipelineJob(
display_name="hello-world-latest",
template_path="https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/hello-world/TAG")
job.submit()
Sostituisci quanto segue:
PROJECT_ID: il progetto Google Cloud in cui viene eseguita questa pipeline.
SHA256_TAG: il valore dell'hash sha256 della versione del modello.
TAG: il tag della versione del modello.
Visualizzare le esecuzioni della pipeline create
Puoi visualizzare le esecuzioni create da una versione specifica della pipeline nell'SDK Vertex AI per Python.
Console
Apri Vertex AI Pipelines nella console Google Cloud.
Fai clic sulla scheda I tuoi modelli.
Fai clic su Seleziona repository.
Nell'elenco, seleziona il repository
quickstart-kfp-repo
e poi fai clic su Seleziona.Per visualizzare l'elenco delle versioni del modello di pipeline
hello-world
, fai clic sul modellohello world
.Fai clic sulla versione desiderata per la quale vuoi visualizzare le esecuzioni della pipeline.
Per visualizzare le esecuzioni della pipeline per la versione selezionata, fai clic su Visualizza esecuzioni e poi sulla scheda Esecuzioni.
SDK Vertex AI per Python
Per elencare le esecuzioni delle pipeline, esegui il comando pipelineJobs.list come mostrato in uno o più dei seguenti esempi:
from google.cloud import aiplatform
# To filter all runs created from a specific version
filter = 'template_uri:"https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/hello-world/*" AND ' + \
'template_metadata.version="%s"' % versionName
aiplatform.PipelineJob.list(filter=filter)
# To filter all runs created from a specific version tag
filter = 'template_uri="https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/hello-world/latest"'
aiplatform.PipelineJob.list(filter=filter)
# To filter all runs created from a package
filter = 'template_uri:"https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/hello-world/*"'
aiplatform.PipelineJob.list(filter=filter)
# To filter all runs created from a repo
filter = 'template_uri:"https://us-central1-kfp.pkg.dev/PROJECT_ID/quickstart-kfp-repo/*"'
aiplatform.PipelineJob.list(filter=filter)
Utilizzare il modello in un client del registry dell'SDK Kubeflow Pipelines
Puoi utilizzare un client di registry dell'SDK Kubeflow Pipelines insieme ad Artifact Registry per scaricare e utilizzare il modello di pipeline.
Per elencare le risorse nel repository, esegui i seguenti comandi:
templatePackages = client.list_packages() templatePackage = client.get_package(package_name = "hello-world") versions = client.list_versions(package_name="hello-world") version = client.get_version(package_name="hello-world", version=versionName) tags = client.list_tags(package_name = "hello-world") tag = client.get_tag(package_name = "hello-world", tag="latest")
Per l'elenco completo dei metodi e dei documenti disponibili, consulta i file
proto
nel repo GitHub di Artifact Registry.Per scaricare il modello nel file system locale, esegui i seguenti comandi:
# Sample 1 filename = client.download_pipeline( package_name = "hello-world", version = versionName) # Sample 2 filename = client.download_pipeline( package_name = "hello-world", tag = "v1") # Sample 3 filename = client.download_pipeline( package_name = "hello-world", tag = "v1", file_name = "hello-world-template.yaml")
Utilizzare l'API REST Artifact Registry
Le sezioni seguenti riepilogano come utilizzare l'API REST di Artifact Registry per gestire i modelli di pipeline nel repository di Artifact Registry.
Carica un modello di pipeline utilizzando l'API REST Artifact Registry
Puoi caricare un modello di pipeline creando una richiesta HTTP utilizzando i valori del parametro descritti in questa sezione, dove:
- PROJECT_ID è il progetto Google Cloud in cui viene eseguita questa pipeline.
- REPO_ID è l'ID del tuo repository Artifact Registry.
Richiesta curl di esempio
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-F tags=v1,latest \
-F content=@pipeline_spec.yaml \
https://us-central1-kfp.pkg.dev/PROJECT_ID/REPO_ID
Creazione della richiesta di caricamento
La richiesta è una richiesta multipart HTTP o HTTPS. Deve includere il token di autenticazione nell'intestazione della richiesta. Per maggiori informazioni, consulta gcloud auth print-access-token.
Il payload della richiesta è costituito dai contenuti del file pipeline_spec.yaml
(o del pacchetto .zip). Il limite massimo delle dimensioni è 10 MiB.
Il nome del pacchetto viene preso dalla voce pipeline_spec.pipeline_info.name
nel
file pipeline_spec.yaml
. Il nome del pacchetto identifica in modo univoco il pacchetto
e rimane invariato nelle varie versioni. Deve avere una lunghezza compresa tra 4 e 128 caratteri
e deve corrispondere alla seguente espressione regolare: ^[a-z0-9][a-z0-9-]{3,127}$
.
Il pacchetto tags
è un elenco di massimo otto tag separati da virgole.
Ogni tag deve corrispondere alla seguente espressione regolare: ^[a-zA-Z0-9\-._~:@+]{1,128}$
.
Se esiste un tag che rimanda a una pipeline già caricata, il tag viene aggiornato in modo da puntare alla pipeline che stai caricando. Ad esempio, se il tag latest
rimanda a una pipeline che hai già caricato e carichi una nuova versione con --tag=latest
, il tag latest
viene rimosso dalla pipeline caricata in precedenza e assegnato alla nuova pipeline che stai caricando.
Se la pipeline che stai caricando è identica a una che hai caricato in precedenza, il caricamento va a buon fine. I metadati della pipeline caricata, inclusi i tag delle versioni, vengono aggiornati in modo da corrispondere ai valori dei parametri della richiesta di caricamento.
Carica risposta
Se la richiesta di caricamento va a buon fine, viene restituito uno stato HTTP OK
. Il corpo della risposta è il seguente:
{packageName}/{versionName=sha256:abcdef123456...}
dove versionName
è il digest SHA256 di pipeline_spec.yaml
formattato come
stringa esadecimale.
Scaricare un modello di pipeline utilizzando l'API REST di Artifact Registry
Puoi scaricare un modello di pipeline creando una richiesta HTTP utilizzando i valori del parametro descritti in questa sezione, dove:
- PROJECT_ID è il progetto Google Cloud in cui viene eseguita questa pipeline.
- REPO_ID è l'ID del tuo repository Artifact Registry.
- PACKAGE_ID è l'ID pacchetto del modello caricato.
- TAG è il tag della versione.
- VERSION è la versione del modello nel formato
sha256:abcdef123456...
.
Per il download standard di Artifact Registry, devi creare il link di download come segue:
url = https://us-central1-kfp.pkg.dev/PROJECT_ID/REPO_ID/PACKAGE_ID/VERSION
url = https://us-central1-kfp.pkg.dev/PROJECT_ID/REPO_ID/PACKAGE_ID/TAG
Esempi di richieste curl
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
https://us-central1-kfp.pkg.dev/PROJECT_ID/REPO_ID/PACKAGE_ID/VERSION
Puoi sostituire VERSION con TAG e scaricare lo stesso modello, come mostrato nell'esempio seguente:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
https://us-central1-kfp.pkg.dev/PROJECT_ID/REPO_ID/PACKAGE_ID/TAG
Scarica risposta
Se la richiesta di download va a buon fine, viene restituito uno stato HTTP OK
. Il corpo della risposta è costituito dai contenuti del file pipeline_spec.yaml
.
Link di riferimento
- Artifact Registry - Panoramica dei repository per ulteriori informazioni su come gestire i repository.
- API Repository
- La parola chiave format è "KFP"
- API Package
- API Versione
- API Tag
- Definizioni di proto su GitHub