Configurazione di AI Platform Pipelines

Con AI Platform Pipelines, puoi orchestrare i tuoi flussi di lavoro di machine learning (ML) come pipeline riutilizzabili e riproducibili. AI Platform Pipelines ti evita la difficoltà di configurare le pipeline di Kubeflow con TensorFlow Extended su Google Kubernetes Engine.

Questa guida descrive diverse opzioni per il deployment di AI Platform Pipelines su GKE. Puoi eseguire il deployment di pipeline Kubeflow su un cluster GKE esistente o creare un nuovo cluster GKE. Se vuoi riutilizzare un cluster GKE esistente, assicurati che il cluster soddisfi i seguenti requisiti:

  • Il cluster deve avere almeno 3 nodi. Ogni nodo deve avere almeno 2 CPU e 4 GB di memoria disponibili.
  • L'ambito di accesso del cluster deve concedere l'accesso completo a tutte le API Cloud oppure il cluster deve utilizzare un account di servizio personalizzato.
  • Nel cluster non deve essere già installato Kubeflow Pipelines.

Seleziona l'opzione di implementazione migliore per la tua situazione:

Prima di iniziare

Prima di seguire questa guida, verifica che il tuo progetto Google Cloud sia configurato correttamente e di disporre di autorizzazioni sufficienti per eseguire il deployment di AI Platform Pipelines.

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  5. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  6. Utilizza le istruzioni seguenti per verificare se ti sono stati concessi i ruoli richiesti per il deployment di AI Platform Pipelines.
    1. Apri una sessione di Cloud Shell.

      Apri Cloud Shell

      Cloud Shell si apre in un frame nella parte inferiore della console Google Cloud.

    2. Per eseguire il deployment di AI Platform Pipelines, devi disporre dei ruoli Visualizzatore (roles/viewer) e Amministratore Kubernetes Engine (roles/container.admin) nel progetto oppure altri ruoli che includano le stesse autorizzazioni, ad esempio il ruolo Proprietario (roles/owner) del progetto. Esegui questo comando in Cloud Shell per elencare le entità con i ruoli Visualizzatore e Amministratore Kubernetes Engine.

      gcloud projects get-iam-policy PROJECT_ID \
        --flatten="bindings[].members" --format="table(bindings.role, bindings.members)" \
        --filter="bindings.role:roles/container.admin OR bindings.role:roles/viewer"

      Sostituisci PROJECT_ID con l'ID del tuo progetto Google Cloud.

      Utilizza l'output di questo comando per verificare che il tuo account disponga dei ruoli Visualizzatore e Amministratore Kubernetes Engine.

    3. Se vuoi concedere l'accesso granulare al cluster, devi anche disporre del ruolo Amministratore account di servizio (roles/iam.serviceAccountAdmin) per il progetto o di altri ruoli che includano le stesse autorizzazioni, come Editor (roles/editor) o Proprietario (roles/owner) per il progetto. Esegui questo comando in Cloud Shell per elencare le entità con il ruolo Amministratore account di servizio.

      gcloud projects get-iam-policy PROJECT_ID \
        --flatten="bindings[].members" --format="table(bindings.role, bindings.members)" \
        --filter="bindings.role:roles/iam.serviceAccountAdmin"

      Sostituisci PROJECT_ID con l'ID del tuo progetto Google Cloud.

      Utilizza l'output di questo comando per verificare che il tuo account disponga del ruolo Amministratore account di servizio.

    4. Se non ti sono stati concessi i ruoli richiesti, contatta l'amministratore del progetto Google Cloud per ulteriore assistenza.

      Scopri di più sulla concessione dei ruoli di Identity and Access Management.

Esegui il deployment di AI Platform Pipelines con accesso completo a Google Cloud

AI Platform Pipelines semplifica la configurazione e l'utilizzo delle pipeline di Kubeflow creando un cluster GKE per te ed eseguendo il deployment delle pipeline di Kubeflow sul cluster. Quando AI Platform Pipelines crea un cluster GKE per te, questo utilizza l'account di servizio Compute Engine predefinito. Per fornire al cluster l'accesso completo alle risorse e alle API Google Cloud abilitate nel progetto, puoi concedere al cluster l'accesso all'ambito di accesso https://www.googleapis.com/auth/cloud-platform. La concessione dell'accesso in questo modo consente alle pipeline ML in esecuzione sul cluster di accedere alle API Google Cloud, come AI Platform Training e AI Platform Prediction. Sebbene questo processo semplifichi la configurazione di AI Platform Pipelines, potrebbe concedere agli sviluppatori delle pipeline un accesso eccessivo alle risorse e alle API di Google Cloud.

Utilizza le seguenti istruzioni per eseguire il deployment di AI Platform Pipelines con accesso completo alle risorse e alle API Google Cloud.

  1. Apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

  2. Nella barra degli strumenti di AI Platform Pipelines, fai clic su Nuova istanza. Kubeflow Pipelines si apre in Google Cloud Marketplace.

  3. Fai clic su Configura. Si apre il modulo Esegui il deployment delle pipeline di Kubeflow.

  4. Se viene visualizzato il link Crea un nuovo cluster, fai clic su Crea un nuovo cluster. In caso contrario, vai al passaggio successivo.

  5. Seleziona la Zona del cluster in cui dovrebbe trovarsi il cluster. Per decidere quale zona utilizzare, consulta le best practice per la selezione dell'area geografica.

  6. Seleziona Consenti l'accesso alle seguenti API Cloud per concedere alle applicazioni in esecuzione sul tuo cluster GKE l'accesso alle risorse Google Cloud. Se selezioni questa casella, concedi al tuo cluster l'accesso all'ambito di accesso a https://www.googleapis.com/auth/cloud-platform. Questo ambito di accesso fornisce l'accesso completo alle risorse Google Cloud che hai abilitato nel tuo progetto. Concedere al tuo cluster l'accesso alle risorse Google Cloud in questo modo ti consente di non dover creare e gestire un account di servizio o di creare un secret Kubernetes.

  7. Fai clic su Crea cluster. Questo passaggio potrebbe richiedere diversi minuti.

  8. Gli spazi dei nomi vengono utilizzati per gestire le risorse in cluster GKE di grandi dimensioni. Se non prevedi di utilizzare gli spazi dei nomi nel tuo cluster, seleziona default nell'elenco a discesa Spazio dei nomi.

    Se prevedi di utilizzare gli spazi dei nomi nel tuo cluster GKE, creane uno utilizzando l'elenco a discesa Spazio dei nomi. Per creare uno spazio dei nomi:

    1. Seleziona Crea uno spazio dei nomi nell'elenco a discesa Spazio dei nomi. Viene visualizzata la casella Nuovo nome spazio dei nomi.
    2. Inserisci il nome dello spazio dei nomi in Nuovo nome dello spazio dei nomi.

    Per saperne di più sugli spazi dei nomi, leggi un post del blog sull'organizzazione di Kubernetes con gli spazi dei nomi.

  9. Nella casella Nome istanza app, inserisci un nome per l'istanza Kubeflow Pipelines.

  10. L'archiviazione gestita ti consente di archiviare i metadati e gli artefatti della tua pipeline ML utilizzando Cloud SQL e Cloud Storage, anziché archiviarli su dischi permanenti di Compute Engine. L'utilizzo dei servizi gestiti per archiviare gli artefatti e i metadati della pipeline semplifica il backup e il ripristino dei dati del cluster. Per eseguire il deployment di pipeline Kubeflow con archiviazione gestita, seleziona Utilizza archiviazione gestita e fornisci le seguenti informazioni:

    • Bucket Cloud Storage di Artifact Storage: con l'archiviazione gestita, Kubeflow Pipelines archivia gli artefatti della pipeline in un bucket Cloud Storage. Specifica il nome del bucket in cui vuoi che le pipeline Kubeflow archivino gli artefatti. Se il bucket specificato non esiste, il deployer di Kubeflow Pipelines crea automaticamente un bucket nella regione us-central1.

      Scopri di più sulla creazione di un nuovo bucket.

    • Nome connessione istanza Cloud SQL: con l'archiviazione gestita, Kubeflow Pipelines archivia i metadati della pipeline in un database MySQL su Cloud SQL. Specifica il nome della connessione per la tua istanza MySQL di Cloud SQL.

      Scopri di più sulla configurazione dell'istanza Cloud SQL.

    • Nome utente del database: specifica il nome utente del database per le pipeline Kubeflow da utilizzare per la connessione all'istanza MySQL. Attualmente, l'utente del database deve disporre dei privilegi MySQL di ALL per eseguire il deployment delle pipeline Kubeflow con archiviazione gestita. Se lasci questo campo vuoto, il valore predefinito è root.

      Scopri di più sugli utenti MySQL.

    • Password del database: specifica la password del database per le pipeline di Kubeflow da utilizzare per la connessione all'istanza MySQL. Se lasci vuoto questo campo, Kubeflow Pipelines si connette al tuo database senza fornire una password e l'operazione non va a buon fine se è richiesta una password per il nome utente specificato.

    • Prefisso nome database: specifica il prefisso del nome del database. Il valore del prefisso deve iniziare con una lettera e contenere solo lettere minuscole, numeri e trattini bassi.

      Durante il processo di deployment, le pipeline di Kubeflow crea due database, "DATABASE_NAME_PREFIX_pipeline" e "DATABASE_NAME_PREFIX_metadata". Se nell'istanza MySQL sono presenti database con questi nomi, Kubeflow Pipelines riutilizza i database esistenti. Se questo valore non è specificato, viene utilizzato il nome dell'istanza dell'app come prefisso del nome del database.

  11. Fai clic su Esegui il deployment. Questo passaggio potrebbe richiedere diversi minuti.

  12. Per accedere alla dashboard delle pipeline, apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

    Quindi, fai clic su Apri dashboard di pipeline per l'istanza di AI Platform Pipelines.

Esegui il deployment di AI Platform Pipelines con accesso granulare a Google Cloud

Le pipeline ML accedono alle risorse Google Cloud utilizzando l'account di servizio e l'ambito di accesso del pool di nodi del cluster GKE. Attualmente, per limitare l'accesso del cluster a risorse Google Cloud specifiche, devi eseguire il deployment di AI Platform Pipelines su un cluster GKE che utilizza un account di servizio gestito dall'utente.

Utilizza le istruzioni nelle sezioni seguenti per creare e configurare un account di servizio, creare un cluster GKE utilizzando il tuo account di servizio ed eseguire il deployment di pipeline Kubeflow nel tuo cluster GKE.

Crea un account di servizio per il tuo cluster GKE

Segui le istruzioni riportate di seguito per configurare un account di servizio per il tuo cluster GKE.

  1. Apri una sessione di Cloud Shell.

    Apri Cloud Shell

    Cloud Shell si apre in un frame nella parte inferiore della console Google Cloud.

  2. Esegui i comandi seguenti in Cloud Shell per creare l'account di servizio e concedergli un livello di accesso sufficiente per eseguire AI Platform Pipelines. Scopri di più sui ruoli richiesti per eseguire AI Platform Pipelines con un account di servizio gestito dall'utente.

    export PROJECT=PROJECT_ID
    export SERVICE_ACCOUNT=SERVICE_ACCOUNT_NAME
    gcloud iam service-accounts create $SERVICE_ACCOUNT \
      --display-name=$SERVICE_ACCOUNT \
      --project=$PROJECT
    gcloud projects add-iam-policy-binding $PROJECT \
      --member="serviceAccount:$SERVICE_ACCOUNT@$PROJECT.iam.gserviceaccount.com" \
      --role=roles/logging.logWriter
    gcloud projects add-iam-policy-binding $PROJECT \
      --member="serviceAccount:$SERVICE_ACCOUNT@$PROJECT.iam.gserviceaccount.com" \
      --role=roles/monitoring.metricWriter
    gcloud projects add-iam-policy-binding $PROJECT \
      --member="serviceAccount:$SERVICE_ACCOUNT@$PROJECT.iam.gserviceaccount.com" \
      --role=roles/monitoring.viewer
    gcloud projects add-iam-policy-binding $PROJECT \
      --member="serviceAccount:$SERVICE_ACCOUNT@$PROJECT.iam.gserviceaccount.com" \
      --role=roles/storage.objectViewer

    Sostituisci quanto segue:

    • SERVICE_ACCOUNT_NAME: il nome dell'account di servizio da creare.
    • PROJECT_ID: il progetto Google Cloud in cui è stato creato l'account di servizio.
  3. Concedi al tuo account di servizio l'accesso a tutte le risorse o le API Google Cloud richieste dalle tue pipeline ML. Scopri di più sui ruoli di Identity and Access Management e sulla gestione degli account di servizio.

  4. Concedi al tuo account di servizio il ruolo Utente account di servizio (iam.serviceAccountUser) nel tuo account di servizio.

    gcloud iam service-accounts add-iam-policy-binding \
      "SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com" \
      --member=user:USERNAME \
      --role=roles/iam.serviceAccountUser
    

    Sostituisci quanto segue:

    • SERVICE_ACCOUNT_NAME: il nome del tuo account di servizio.
    • PROJECT_ID: il tuo progetto Google Cloud.
    • USERNAME: il tuo nome utente su Google Cloud.

Configura il cluster GKE

Segui queste istruzioni per configurare il cluster GKE.

  1. Apri Google Kubernetes Engine nella console Google Cloud.

    Apri Google Kubernetes Engine

  2. Fai clic sul pulsante Crea cluster. Si apre il modulo Informazioni di base sul cluster.

  3. Inserisci il nome del cluster.

  4. In Tipo di località, seleziona A livello di zona, quindi seleziona la zona desiderata per il cluster. Per decidere quale zona utilizzare, consulta le best practice per la selezione della regione.

  5. Nel riquadro di navigazione, in Pool di nodi, fai clic su default-pool. Viene visualizzato il modulo Dettagli del pool di nodi.

  6. Inserisci il Numero di nodi da creare nel cluster. Il cluster deve avere 3 o più nodi per eseguire il deployment di AI Platform Pipelines. Devi disporre di una quota di risorse per i nodi e le relative risorse (ad esempio le route firewall).

  7. Nel riquadro di navigazione, in Pool di nodi, fai clic su Nodi. Si apre il modulo Nodi.

  8. Scegli la Configurazione macchina predefinita da utilizzare per le istanze. Per eseguire il deployment di AI Platform Pipelines, devi selezionare un tipo di macchina con almeno 2 CPU e 4 GB di memoria, ad esempio n1-standard-2. Ogni tipo di macchina viene fatturato in modo diverso. Per informazioni sui prezzi del tipo di macchina, consulta il listino prezzi del tipo di macchina.

  9. Nel riquadro di navigazione, in Pool di nodi, fai clic su Sicurezza. Viene visualizzato il modulo Sicurezza del nodo.

  10. Dall'elenco a discesa Account di servizio, seleziona l'account di servizio creato in precedenza in questa guida.

  11. Altrimenti, configura il cluster GKE come preferisci. Scopri di più sulla creazione di un cluster GKE.

  12. Fai clic su Crea.

Installa Kubeflow Pipelines sul tuo cluster GKE

Segui le istruzioni riportate di seguito per configurare le pipeline Kubeflow su un cluster GKE.

  1. Apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

  2. Nella barra degli strumenti di AI Platform Pipelines, fai clic su Nuova istanza. Kubeflow Pipelines si apre in Google Cloud Marketplace.

  3. Fai clic su Configura. Si apre il modulo Esegui il deployment delle pipeline di Kubeflow.

  4. Nell'elenco a discesa Cluster, seleziona il cluster che hai creato in un passaggio precedente. Se il cluster che vuoi utilizzare non è idoneo per il deployment, verifica che il cluster soddisfi i requisiti per il deployment delle pipeline di Kubeflow.

  5. Gli spazi dei nomi vengono utilizzati per gestire le risorse in cluster GKE di grandi dimensioni. Se non prevedi di utilizzare gli spazi dei nomi nel tuo cluster, seleziona default nell'elenco a discesa Spazio dei nomi.

    Se prevedi di utilizzare gli spazi dei nomi nel tuo cluster GKE, creane uno utilizzando l'elenco a discesa Spazio dei nomi. Per creare uno spazio dei nomi:

    1. Seleziona Crea uno spazio dei nomi nell'elenco a discesa Spazio dei nomi. Viene visualizzata la casella Nuovo nome spazio dei nomi.
    2. Inserisci il nome dello spazio dei nomi in Nuovo nome dello spazio dei nomi.

    Per saperne di più sugli spazi dei nomi, leggi un post del blog sull'organizzazione di Kubernetes con gli spazi dei nomi.

  6. Nella casella Nome istanza app, inserisci un nome per l'istanza Kubeflow Pipelines.

  7. L'archiviazione gestita ti consente di archiviare i metadati e gli artefatti della tua pipeline ML utilizzando Cloud SQL e Cloud Storage, anziché archiviarli su dischi permanenti di Compute Engine. L'utilizzo dei servizi gestiti per archiviare gli artefatti e i metadati della pipeline semplifica il backup e il ripristino dei dati del cluster. Per eseguire il deployment di pipeline Kubeflow con archiviazione gestita, seleziona Utilizza archiviazione gestita e fornisci le seguenti informazioni:

    • Bucket Cloud Storage di Artifact Storage: con l'archiviazione gestita, Kubeflow Pipelines archivia gli artefatti della pipeline in un bucket Cloud Storage. Specifica il nome del bucket in cui vuoi che le pipeline Kubeflow archivino gli artefatti. Se il bucket specificato non esiste, il deployer di Kubeflow Pipelines crea automaticamente un bucket nella regione us-central1.

      Scopri di più sulla creazione di un nuovo bucket.

    • Nome connessione istanza Cloud SQL: con l'archiviazione gestita, Kubeflow Pipelines archivia i metadati della pipeline in un database MySQL su Cloud SQL. Specifica il nome della connessione per la tua istanza MySQL di Cloud SQL.

      Scopri di più sulla configurazione dell'istanza Cloud SQL.

    • Nome utente del database: specifica il nome utente del database per le pipeline Kubeflow da utilizzare per la connessione all'istanza MySQL. Attualmente, l'utente del database deve disporre dei privilegi MySQL di ALL per eseguire il deployment delle pipeline Kubeflow con archiviazione gestita. Se lasci questo campo vuoto, il valore predefinito è root.

      Scopri di più sugli utenti MySQL.

    • Password del database: specifica la password del database per le pipeline di Kubeflow da utilizzare per la connessione all'istanza MySQL. Se lasci vuoto questo campo, Kubeflow Pipelines si connette al tuo database senza fornire una password e l'operazione non va a buon fine se è richiesta una password per il nome utente specificato.

    • Prefisso nome database: specifica il prefisso del nome del database. Il valore del prefisso deve iniziare con una lettera e contenere solo lettere minuscole, numeri e trattini bassi.

      Durante il processo di deployment, le pipeline di Kubeflow crea due database, "DATABASE_NAME_PREFIX_pipeline" e "DATABASE_NAME_PREFIX_metadata". Se nell'istanza MySQL sono presenti database con questi nomi, Kubeflow Pipelines riutilizza i database esistenti. Se questo valore non è specificato, viene utilizzato il nome dell'istanza dell'app come prefisso del nome del database.

  8. Fai clic su Esegui il deployment. Questo passaggio potrebbe richiedere diversi minuti.

  9. Per accedere alla dashboard delle pipeline, apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

    Quindi, fai clic su Apri dashboard di pipeline per l'istanza di AI Platform Pipelines.

Esegui il deployment di AI Platform Pipelines in un cluster GKE esistente

Per utilizzare Google Cloud Marketplace per eseguire il deployment delle pipeline di Kubeflow su un cluster GKE, devi soddisfare quanto segue:

  • Il cluster deve avere almeno 3 nodi. Ogni nodo deve avere almeno 2 CPU e 4 GB di memoria disponibili.
  • L'ambito di accesso del cluster deve concedere l'accesso completo a tutte le API Cloud oppure il cluster deve utilizzare un account di servizio personalizzato.
  • Nel cluster non deve essere già installato Kubeflow Pipelines.

Scopri di più sulla configurazione del cluster GKE per AI Platform Pipelines.

Segui le istruzioni riportate di seguito per configurare le pipeline Kubeflow su un cluster GKE.

  1. Apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

  2. Nella barra degli strumenti di AI Platform Pipelines, fai clic su Nuova istanza. Kubeflow Pipelines si apre in Google Cloud Marketplace.

  3. Fai clic su Configura. Si apre il modulo Esegui il deployment delle pipeline di Kubeflow.

  4. Nell'elenco a discesa Cluster, seleziona il cluster. Se il cluster che vuoi utilizzare non è idoneo per il deployment, verifica che il cluster soddisfi i requisiti per il deployment delle pipeline di Kubeflow.

  5. Gli spazi dei nomi vengono utilizzati per gestire le risorse in cluster GKE di grandi dimensioni. Se il cluster non utilizza gli spazi dei nomi, seleziona default nell'elenco a discesa Spazio dei nomi.

    Se il tuo cluster utilizza gli spazi dei nomi, seleziona uno spazio dei nomi esistente o creane uno utilizzando l'elenco a discesa Spazio dei nomi. Per creare uno spazio dei nomi:

    1. Seleziona Crea uno spazio dei nomi nell'elenco a discesa Spazio dei nomi. Viene visualizzata la casella Nuovo nome spazio dei nomi.
    2. Inserisci il nome dello spazio dei nomi in Nuovo nome dello spazio dei nomi.

    Per saperne di più sugli spazi dei nomi, leggi un post del blog sull'organizzazione di Kubernetes con gli spazi dei nomi.

  6. Nella casella Nome istanza app, inserisci un nome per l'istanza Kubeflow Pipelines.

  7. L'archiviazione gestita ti consente di archiviare i metadati e gli artefatti della tua pipeline ML utilizzando Cloud SQL e Cloud Storage, anziché archiviarli su dischi permanenti di Compute Engine. L'utilizzo dei servizi gestiti per archiviare gli artefatti e i metadati della pipeline semplifica il backup e il ripristino dei dati del cluster. Per eseguire il deployment di pipeline Kubeflow con archiviazione gestita, seleziona Utilizza archiviazione gestita e fornisci le seguenti informazioni:

    • Bucket Cloud Storage di Artifact Storage: con l'archiviazione gestita, Kubeflow Pipelines archivia gli artefatti della pipeline in un bucket Cloud Storage. Specifica il nome del bucket in cui vuoi che le pipeline Kubeflow archivino gli artefatti. Se il bucket specificato non esiste, il deployer di Kubeflow Pipelines crea automaticamente un bucket nella regione us-central1.

      Scopri di più sulla creazione di un nuovo bucket.

    • Nome connessione istanza Cloud SQL: con l'archiviazione gestita, Kubeflow Pipelines archivia i metadati della pipeline in un database MySQL su Cloud SQL. Specifica il nome della connessione per la tua istanza MySQL di Cloud SQL.

      Scopri di più sulla configurazione dell'istanza Cloud SQL.

    • Nome utente del database: specifica il nome utente del database per le pipeline Kubeflow da utilizzare per la connessione all'istanza MySQL. Attualmente, l'utente del database deve disporre dei privilegi MySQL di ALL per eseguire il deployment delle pipeline Kubeflow con archiviazione gestita. Se lasci questo campo vuoto, il valore predefinito è root.

      Scopri di più sugli utenti MySQL.

    • Password del database: specifica la password del database per le pipeline di Kubeflow da utilizzare per la connessione all'istanza MySQL. Se lasci vuoto questo campo, Kubeflow Pipelines si connette al tuo database senza fornire una password e l'operazione non va a buon fine se è richiesta una password per il nome utente specificato.

    • Prefisso nome database: specifica il prefisso del nome del database. Il valore del prefisso deve iniziare con una lettera e contenere solo lettere minuscole, numeri e trattini bassi.

      Durante il processo di deployment, le pipeline di Kubeflow crea due database, "DATABASE_NAME_PREFIX_pipeline" e "DATABASE_NAME_PREFIX_metadata". Se nell'istanza MySQL sono presenti database con questi nomi, Kubeflow Pipelines riutilizza i database esistenti. Se questo valore non è specificato, viene utilizzato il nome dell'istanza dell'app come prefisso del nome del database.

  8. Fai clic su Esegui il deployment. Questo passaggio potrebbe richiedere diversi minuti.

  9. Per accedere alla dashboard delle pipeline, apri AI Platform Pipelines nella console Google Cloud.

    Vai ad AI Platform Pipelines

    Quindi, fai clic su Apri dashboard di pipeline per l'istanza di AI Platform Pipelines.

Passaggi successivi