Mit Cloud Storage arbeiten

AI Platform Training liest Daten aus Cloud Storage-Speicherorten, denen Sie Zugriff auf Ihr AI Platform Training-Projekt gewährt haben. Diese Seite enthält eine Kurzanleitung zur Verwendung von Cloud Storage mit AI Platform Training.

Überblick

Bei folgenden Aspekten der AI Platform Training-Dienste wird die Verwendung von Cloud Storage empfohlen oder ist sogar erforderlich:

  • Bereitstellung Ihrer Trainingsanwendung und benutzerdefinierten Abhängigkeiten
  • Speichern der Trainingseingabedaten, z. B. tabellarische Daten oder Bilddaten
  • Speicherung Ihrer Trainingsausgabedaten

Hinweise zu Regionen

Wenn Sie einen Cloud Storage-Bucket für AI Platform Training erstellen, sollten Sie Folgendes tun:

  • Weisen Sie diesen Bucket einer bestimmten Berechnungsregion zu und verwenden Sie keinen Mehrfachregionenwert.
  • Verwenden Sie dieselbe Region, in der Sie Ihre Trainingsjobs ausführen.

Weitere Informationen zu den verfügbaren Regionen für AI Platform Training

Cloud Storage-Buckets einrichten

In diesem Abschnitt erfahren Sie, wie Sie einen neuen Bucket erstellen. Sie können auch einen vorhandenen Bucket verwenden. Dieser muss sich aber in der Region befinden, in der Sie AI Platform-Jobs ausführen. Hinzu kommt: Wenn der Bucket nicht in dem Projekt ist, das Sie für die Ausführung von AI Platform Training verwenden, müssen Sie den AI Platform Training-Dienstkonten explizit Zugriff gewähren.

  1. Geben Sie einen Namen für den neuen Bucket an. Der Name muss sich von allen anderen Bucket-Namen in Cloud Storage unterscheiden:

    BUCKET_NAME="your_bucket_name"

    Beispielsweise verwenden Sie den Projektnamen mit angehängtem -aiplatform:

    PROJECT_ID=$(gcloud config list project --format "value(core.project)")
    BUCKET_NAME=${PROJECT_ID}-aiplatform
  2. Prüfen Sie den erstellten Bucketnamen.

    echo $BUCKET_NAME
  3. Wählen Sie eine Region für den Bucket aus und legen Sie eine Umgebungsvariable REGION fest.

    Verwenden Sie die Region, in der Sie auch AI Platform Training-Jobs ausführen möchten. Hier finden Sie die Regionen, in denen AI Platform Training-Dienste verfügbar sind.

    Mit dem folgenden Code wird beispielsweise REGION erstellt und dafür us-central1 festgelegt:

    REGION=us-central1
  4. Erstellen Sie den neuen Bucket:

    gsutil mb -l $REGION gs://$BUCKET_NAME

Modelle in Buckets organisieren

Organisieren Sie die Ordnerstruktur in Ihrem Bucket so, dass viele Iterationen Ihres Modells möglich sind.

  • Platzieren Sie innerhalb des Buckets jedes gespeicherte Modell in einem separaten Verzeichnis.
  • Verwenden Sie Zeitstempel, um die Verzeichnisse in Ihrem Bucket zu benennen.

Sie können Ihr erstes Modell beispielsweise so wie in gs://your-bucket/your-model-DATE1/your-saved-model-file strukturieren. Verwenden Sie einen aktualisierten Zeitstempel (gs://your-bucket/your-model-DATE2/your-saved-model-file und so weiter), um die Verzeichnisse für jede nachfolgende Iteration des Modells zu benennen.

Während des Trainings auf Cloud Storage zugreifen

Verwenden Sie im Trainingscode ein Python-Modul, das Daten aus Cloud Storage lesen kann, z. B. den Python-Client für Google Cloud Storage, das TensorFlow-Modul tf.io.gfile.GFile oder pandas 0.24.0 oder höher. Die Authentifizierung erfolgt über AI Platform Training.

Cloud Storage-Bucket aus einem anderen Projekt verwenden

In diesem Abschnitt wird beschrieben, wie Cloud Storage-Buckets außerhalb Ihres Projekts konfiguriert werden, sodass AI Platform Training auf sie zugreifen kann.

Wenn Sie Ihren Cloud Storage-Bucket in demselben Projekt einrichten, in dem Sie AI Platform Training verwenden, haben Ihre AI Platform Training-Dienstkonten bereits die erforderlichen Berechtigungen für den Zugriff auf den Cloud Storage-Bucket.

Diese Anleitungen beziehen sich auf folgende Fälle:

  • Sie können keinen Bucket aus Ihrem Projekt nutzen, z. B. wenn ein großes Dataset von mehreren Projekten verwendet wird.
  • Wenn Sie mehrere Buckets mit AI Platform Training verwenden, müssen Sie jedem einzelnen Zugriff auf die AI Platform Training-Dienstkonten gewähren.

Schritt 1: Erforderliche Informationen aus Ihrem Cloudprojekt abrufen

Console

  1. Öffnen Sie in der Google Cloud Console die Seite "IAM".

    Seite "IAM" öffnen

  2. Die Seite "IAM" enthält eine Liste aller Mitglieder in Ihrem Projekt und der zugehörigen Rollen. Ihr AI Platform Training-Projekt hat mehrere Dienstkonten. Suchen Sie in der Liste das Dienstkonto mit der Rolle Cloud ML-Dienst-Agent und kopieren Sie die entsprechende Dienstkonto-ID, die in etwa so aussieht:

    "service-111111111111@cloud-ml.google.com.iam.gserviceaccount.com"

    Während der nächsten Schritte müssen Sie diese Dienstkonto-ID in der Cloud Console auf einer anderen Seite einfügen.

Befehlszeile

In den in diesem Abschnitt beschriebenen Schritten erhalten Sie Informationen zu Ihrem Google Cloud-Projekt, die Sie benötigen, um die Zugriffssteuerung für das AI Platform Training-Dienstkonto Ihres Projekts zu ändern. Sie müssen die Werte für eine spätere Verwendung in Umgebungsvariablen speichern.

  1. Rufen Sie mithilfe des gcloud-Befehlszeilentools beim ausgewählten Projekt Ihre Projekt-ID ab:

    PROJECT_ID=$(gcloud config list project --format "value(core.project)")
    
  2. Rufen Sie mithilfe von gcloud das Zugriffstoken für Ihr Projekt ab:

    AUTH_TOKEN=$(gcloud auth print-access-token)
    
  3. Rufen Sie die Dienstkontoinformationen ab, indem Sie vom REST-Dienst die Projektkonfiguration anfordern:

    SVC_ACCOUNT=$(curl -X GET -H "Content-Type: application/json" \
        -H "Authorization: Bearer $AUTH_TOKEN" \
        https://ml.googleapis.com/v1/projects/${PROJECT_ID}:getConfig \
        | python -c "import json; import sys; response = json.load(sys.stdin); \
        print response['serviceAccount']")
    

Schritt 2: Zugriff auf Ihren Cloud Storage-Bucket konfigurieren

Console

  1. Öffnen Sie in der Cloud Console die Seite "Storage".

    Seite "Storage" öffnen

  2. Wählen Sie den Cloud Storage-Bucket aus, den Sie zum Bereitstellen von Modellen verwenden, indem Sie das Kästchen links neben dem Bucket-Namen anklicken.

  3. Klicken Sie oben rechts auf Infofeld anzeigen, um den Tab "Berechtigungen" aufzurufen.

  4. Fügen Sie in das Feld Mitglieder hinzufügen die Dienstkonto-ID ein. Wählen Sie rechts neben diesem Feld die gewünschte(n) Rolle(n) aus, z. B. "Leser alter Storage-Buckets".

    Wenn noch nicht klar ist, welche Rollen verwendet werden sollen, können Sie mehrere Rollen auswählen, damit sie unter dem Feld Mitglieder hinzufügen angezeigt werden. Dabei enthält jede Rolle eine kurze Beschreibung ihrer Berechtigungen.

  5. Klicken Sie rechts neben dem Feld Mitglieder hinzufügen auf Hinzufügen, um dem Dienstkonto die gewünschte(n) Rolle(n) zuzuweisen.

Befehlszeile

Nachdem Ihnen jetzt die Projekt- und Dienstkontoinformationen vorliegen, müssen Sie die Zugriffsberechtigungen für den Cloud Storage-Bucket aktualisieren. In den folgenden Schritten werden die gleichen Variablennamen wie im vorherigen Abschnitt verwendet.

  1. Geben Sie den Namen Ihres Buckets in einer Umgebungsvariable namens BUCKET_NAME an:

    BUCKET_NAME="your_bucket_name"
    
  2. Gewähren Sie dem Dienstkonto Lesezugriff auf Ihren Cloud Storage-Bucket:

    gsutil -m defacl ch -u $SVC_ACCOUNT:R gs://$BUCKET_NAME
    
  3. Wenn Ihr Bucket bereits Objekte enthält, auf die Sie zugreifen möchten, müssen Sie diesen explizit den Lesezugriff gewähren:

    gsutil -m acl ch -u $SVC_ACCOUNT:R -r gs://$BUCKET_NAME
    
  4. Weisen Sie Schreibzugriff zu:

    gsutil -m acl ch -u $SVC_ACCOUNT:W gs://$BUCKET_NAME
    

Informationen zum Auswählen einer Rolle für Ihr AI Platform Training-Dienstkonto finden Sie unter Cloud Storage-IAM-Rollen. Allgemeine Informationen zum Aktualisieren von IAM-Rollen in Cloud Storage erhalten Sie unter Dienstkonto Zugriff auf eine Ressource gewähren.

Weitere Informationen