Upgrade Ihres AI Platform Pipelines-Clusters durchführen

AI Platform Pipelines erspart Ihnen die Einrichtung von Kubeflow Pipelines mit TensorFlow Extended in Google Kubernetes Engine. Wenn Sie ein Upgrade Ihres AI Platform Pipelines-Cluster durchführen möchten, müssen Sie den vorhandenen AI Platform Pipelines-Cluster entfernen und dann mit denselben Speichereinstellungen neu installieren. In diesem Leitfaden erfahren Sie:

  • So ermitteln Sie, welche Speichermethode der Cluster verwendet.
  • So sammeln Sie Informationen, die Sie zur Aktualisierung Ihres Clusters benötigen.
  • Die Schritte, die notwendig sind, um Ihren AI Platform Pipelines-Cluster auf eine neuere Version von Kubeflow Pipelines zu aktualisieren.

Upgrade Ihres Clusters vorbereiten

Wie Sie Ihren AI Platform Pipelines-Cluster aktualisieren, hängt von der Methode ab, mit der Ihr Cluster Pipeline-Artefakte und -Metadaten speichert. Verwenden Sie die folgende Anleitung, um festzustellen, wo Ihr AI Platform Pipelines-Cluster Pipeline-Artefakte und -Metadaten speichert.

  1. Öffnen Sie AI Platform Pipelines in der Google Cloud Console.

    Zu AI Platform Pipelines

  2. Notieren Sie sich in der Zeile für Ihren AI Platform Pipelines-Cluster die Werte von Name, Cluster, Zone und Namespace.. Diese Informationen werden in den nächsten Schritten verwendet.

  3. Öffnen Sie eine Cloud Shell-Sitzung.

    Cloud Shell öffnen

    Cloud Shell wird im unteren Bereich der Google Cloud Console in einem Frame geöffnet.

  4. Führen Sie die folgenden Befehle aus, um kubectl für den Zugriff auf Ihren GKE-Cluster zu konfigurieren und den Kontext auf den Namespace festzulegen, in dem Kubeflow Pipelines installiert war.

    gcloud container clusters get-credentials CLUSTER_NAME --zone=ZONE
    kubectl config set-context --current --namespace=NAMESPACE
    

    Ersetzen Sie Folgendes:

    • CLUSTER_NAME: Der Name Ihres GKE-Clusters, den Sie in einem vorherigen Schritt notiert haben.
    • ZONE: Die Zone, in der sich Ihr GKE-Cluster befindet, und die Sie in einem vorherigen Schritt notiert haben.
    • NAMESPACE: Der Namespace, in dem Kubeflow Pipelines installiert wurde, und den Sie in einem vorherigen Schritt notiert haben.
  5. AI Platform Pipelines speichert die Pipeline-Artefakte und -Metadaten Ihres Clusters mithilfe verwalteter Speicherdienste oder nichtflüchtiger Speicher im Cluster. Wenn Sie ein Upgrade Ihres Clusters durchführen, müssen Sie AI Platform-Pipelines mit den gleichen Speichereinstellungen neu installieren, die Ihr aktueller AI Platform Pipelines-Cluster verwendet.

    Führen Sie in Cloud Shell den folgenden Befehl aus, um zu prüfen, ob Ihr Cluster mit einem Clusterspeicher bereitgestellt wurde.

    kubectl get pvc -o json | jq -r '.items[].metadata.name'
    

    Dieser Befehl listet die Ansprüche auf nichtflüchtige Volumes (Persistent Volume Claims, PCV) des Google Kubernetes Engine-Clusters auf.

Upgrade eines AI Platform Pipelines-Clusters durchführen, der verwaltete Speicher verwendet

Verwenden Sie die folgende Anleitung, um die Artefakte und Metadaten Ihres AI Platform Pipelines-Clusters zu sichern und ein Upgrade auf einen neueren Release von Kubeflow Pipelines durchzuführen.

  1. Wenn Sie ein Kubeflow Pipelines-Cluster aktualisieren, müssen Sie dieselbe Speicherkonfiguration wiederverwenden. Wenn Ihr Cluster mit verwaltetem Speicher bereitgestellt wurde, finden Sie mithilfe der folgenden Anleitung die Konfigurationsdetails, die zum Aktualisieren des Clusters erforderlich sind.

    1. Führen Sie den folgenden Befehl in Cloud Shell aus, um den Namen des Buckets abzurufen, in dem der Cluster Pipeline-Artefakte speichert:

      kubectl get configmap workflow-controller-configmap -o json | \
      jq -r '.data.config | capture("bucket: '"'(?<name>.*?)'"'").name'
      
    2. Führen Sie in Cloud Shell den folgenden Befehl aus, um den Namen der Instanzverbindung der Cloud SQL-Instanz abzurufen, in der der Cluster die Pipeline-Metadaten speichert.

      kubectl get deployments cloudsqlproxy -o json | \
      jq -r '.spec.template.spec.containers[].command[] | capture("instances=(?<name>.*)=").name'
      
    3. Kubeflow Pipelines ist von zwei MySQL-Datenbanken abhängig. Führen Sie in Cloud Shell den folgenden Befehl aus, um das Datenbankpräfix der Clusterdatenbanken abzurufen.

      kubectl get configmap metadata-mysql-configmap -o json | \
      jq -r '.data.MYSQL_DATABASE | capture("(?<prefix>.*?)_metadata").prefix'
      
    4. Außerdem müssen Sie den Nutzernamen und das Passwort eines MySQL-Kontos mit der Berechtigung ALL angeben, mit der Kubeflow Pipelines eine Verbindung zu Ihrer Cloud SQL-Instanz herstellen kann. Wenn Sie nicht wissen, welches MySQL-Nutzerkonto in Ihrem Cluster verwendet wird, erstellen Sie einen MySQL-Nutzer mit Cloud SQL.

      Weitere Informationen zu MySQL-Nutzern

  2. Erstellen Sie mit Cloud SQL eine Sicherung der MySQL-Datenbanken Ihres AI Platform Pipelines-Clusters.

  3. Öffnen Sie AI Platform Pipelines in der Google Cloud Console.

    Zu AI Platform Pipelines

  4. Verwenden Sie die folgende Anleitung, um Ihren AI Platform Pipelines-Cluster zu löschen. Wenn Sie Ihren AI Platform Pipelines-Cluster aktualisieren möchten, müssen Sie Kubeflow Pipelines mit denselben Einstellungen für verwaltete Speicher neu installieren.

    1. Klicken Sie auf das Kästchen für Ihren AI Platform Pipelines-Cluster.

    2. Klicken Sie in der Symbolleiste von AI Platform Pipelines auf Löschen. Das Dialogfeld Kubeflow Pipelines aus Cluster löschen wird angezeigt.

    3. Klicken Sie auf Löschen. Das Löschen des AI Platform Pipelines-Clusters kann einige Minuten dauern.

  5. Verwenden Sie die folgende Anleitung, um Kubeflow Pipelines neu zu installieren.

    1. Klicken Sie in der Symbolleiste von AI Platform Pipelines auf Neue Instanz. Kubeflow Pipelines wird in Google Cloud Marketplace geöffnet.

    2. Klicken Sie auf Konfigurieren. Es wird ein Formular zur Konfiguration Ihres Kubeflow Pipelines-Deployments geöffnet.

    3. Wählen Sie den Cluster aus, in dem Sie Kubeflow Pipelines bereitstellen möchten. Dieser Cluster muss nicht derselbe GKE-Cluster sein, auf dem Ihre vorherige AI Platform Pipelines-Instanz bereitgestellt wurde.

      GKE-Cluster ordnungsgemäß für AI Platform-Pipelines konfigurieren

    4. Geben Sie im Feld Name der Anwendungsinstanz den Namen der Anwendungsinstanz ein, die von der vorherigen Kubeflow Pipelines-Instanz verwendet wurde.

    5. Mithilfe von Namespaces werden Ressourcen in großen GKE-Clustern verwaltet. Wenn Sie keine Namespaces in Ihrem Cluster verwenden möchten, wählen Sie in der Drop-down-Liste Namespace die Option Standard aus.

      Wenn Sie Namespaces in Ihrem GKE-Cluster verwenden möchten, erstellen Sie über die Drop-down-Liste Namespace einen Namespace. So erstellen Sie einen Namespace:

      1. Wählen Sie in der Drop-down-Liste Namespace die Option Namespace erstellen aus. Das Feld Name des neuen Namespace wird angezeigt.

      2. Geben Sie den Namespace-Namen unter Name des neuen Namespace ein.

      Weitere Informationen zu Namespaces finden Sie in einem Blogpost zum Organisieren von Kubernetes mit Namespaces.

    6. Mit verwalteter Speicherung können Sie die Metadaten und Artefakte Ihrer ML-Pipeline mithilfe von Cloud SQL und Cloud Storage speichern. Wählen Sie Verwalteten Speicher verwenden aus und geben Sie die folgenden Informationen an:

      • Cloud Storage-Bucket für den Artefaktspeicher: Geben Sie den Bucket-Namen an, den Sie in einem vorherigen Schritt gefunden haben.

      • Verbindungsname für Cloud SQL-Instanz: Geben Sie den Namen der Instanzverbindung an, den Sie in einem vorherigen Schritt gefunden haben.

      • Datenbank-Nutzername: Geben Sie den Datenbank-Nutzernamen für Kubeflow Pipelines an, die beim Herstellen einer Verbindung zu Ihrer MySQL-Instanz verwendet werden sollen. Derzeit muss der Datenbanknutzer ALL-MySQL-Berechtigungen haben, um Kubeflow Pipelines mit verwaltetem Speicher bereitstellen zu können. Wenn Sie dieses Feld leer lassen, wird standardmäßig root verwendet.

        Weitere Informationen zu MySQL-Nutzern

      • Datenbankpasswort: Geben Sie das Datenbankpasswort für Kubeflow Pipelines an, das beim Herstellen einer Verbindung zu Ihrer MySQL-Instanz verwendet werden soll. Wenn Sie dieses Feld leer lassen, stellt Kubeflow Pipelines eine Verbindung zu Ihrer Datenbank her, ohne ein Passwort anzugeben. Dabei tritt ein Fehler auf, wenn für den angegebenen Nutzernamen ein Passwort erforderlich ist.

      • Namenspräfix der Datenbank: Geben Sie das Datenbanknamenspräfix an, das Sie in einem vorherigen Schritt gefunden haben.

    7. Klicken Sie auf Bereitstellen. Dieser Schritt kann einige Minuten dauern.

    8. Öffnen Sie AI Platform Pipelines in der Google Cloud Console, um auf das Pipeline-Dashboard zuzugreifen.

      Zu AI Platform Pipelines

      Klicken Sie dann für Ihre AI Platform Pipelines-Instanz auf Pipelines-Dashboard öffnen.

Upgrade eines AI Platform Pipelines-Clusters durchführen, der einen Clusterspeicher verwendet

Verwenden Sie die folgende Anleitung, um die Artefakte und Metadaten Ihres AI Platform Pipelines-Clusters zu sichern und ein Upgrade auf einen neueren Release von Kubeflow Pipelines durchzuführen.

  1. Sichern Sie die Metadaten und den Artefaktspeicher Ihres AI Platform Pipelines-Clusters. Mit On-Cluster-Speicher werden Ihre Pipeline-Artefakte und -Metadaten auf nichtflüchtigen Compute Engine-Speichern gespeichert, die Ihrem GKE-Cluster als nichtflüchtige Volume-Anforderungen hinzugefügt werden.

    1. Zum Ausführen dieser Aufgabe benötigen Sie die folgenden Berechtigungen:

      • compute.disks.create für das Projekt
      • compute.disks.useReadOnly für das Quelllaufwerk

      Die Rolle roles/compute.storageAdmin stellt beispielsweise diese Berechtigungen bereit. Weitere Informationen zur Zuweisung von IAM-Rollen und -Berechtigungen

    2. Führen Sie den folgenden Befehl in Cloud Shell aus, um die PVCs Ihres Clusters und gegebenenfalls den Namen des nichtflüchtigen Speichers des PVC in Compute Engine aufzulisten.

      kubectl get pv -o json | \
      jq -r '.items[] | .spec.claimRef.name + " -  disk name = " + .spec.gcePersistentDisk.pdName'
      

      Wenn Ihr Cluster On-Cluster-Speicher verwendet, sollte diese Liste nichtflüchtige Namen für die PVCs mysql-pv-claim und minio-pvc enthalten.

    3. Führen Sie zum Sichern Ihrer Pipeline-Artefakte und -Metadaten den folgenden Befehl in Cloud Shell für die nichtflüchtigen Speicher mysql-pv-claim und minio-pvc aus.

      gcloud compute disks create target-disk-name --zone=ZONE --source-disk=source-disk-name
      

      Ersetzen Sie Folgendes:

      • target-disk-name: Geben Sie einen Namen für Ihr Laufwerk an.
      • ZONE: Geben Sie die Zone an, in der sich Ihr Cluster befindet.
      • source-disk-name: Geben Sie den Namen des nichtflüchtigen Speichers an, den Sie sichern möchten.

      Weitere Informationen zum Klonen nichtflüchtiger Speicher

  2. Öffnen Sie AI Platform Pipelines in der Google Cloud Console.

    Zu AI Platform Pipelines

  3. Verwenden Sie die folgende Anleitung, um Ihren AI Platform Pipelines-Cluster zu löschen, ohne Ihren GKE-Cluster zu löschen. Wenn Sie Ihren AI Platform Pipelines-Cluster aktualisieren möchten, müssen Sie Kubeflow-Pipelines auf demselben GKE-Cluster neu installieren

    1. Klicken Sie auf das Kästchen für Ihren AI Platform Pipelines-Cluster.

    2. Klicken Sie in der Symbolleiste von AI Platform Pipelines auf Löschen. Das Dialogfeld Kubeflow Pipelines aus Cluster löschen wird angezeigt.

    3. Klicken Sie auf Löschen. Das Löschen des AI Platform Pipelines-Clusters kann einige Minuten dauern.

  4. Verwenden Sie die folgende Anleitung, um Kubeflow Pipelines auf Ihrem vorhandenen GKE-Cluster neu zu installieren.

    1. Klicken Sie in der Symbolleiste von AI Platform Pipelines auf Neue Instanz. Kubeflow Pipelines wird in Google Cloud Marketplace geöffnet.

    2. Klicken Sie auf Konfigurieren. Es wird ein Formular zur Konfiguration Ihres Kubeflow Pipelines-Deployments geöffnet.

    3. Wählen Sie in der Drop-down-Liste Cluster den Cluster aus, in dem Ihre vorherige Instanz von Kubeflow Pipelines bereitgestellt wurde.

    4. Wählen Sie den Namespace aus, in dem Ihre vorherige Instanz von Kubeflow Pipelines bereitgestellt wurde.

    5. Geben Sie im Feld Name der Anwendungsinstanz den Namen der Anwendungsinstanz ein, die von der vorherigen Kubeflow Pipelines-Instanz verwendet wurde.

    6. Klicken Sie auf Bereitstellen. Dieser Schritt kann einige Minuten dauern.

    7. Öffnen Sie AI Platform Pipelines in der Google Cloud Console, um auf das Pipeline-Dashboard zuzugreifen.

      Zu AI Platform Pipelines

      Klicken Sie dann für Ihre AI Platform Pipelines-Instanz auf Pipelines-Dashboard öffnen.

Nächste Schritte