In diesem Dokument wird erläutert, wie Sie einen Batchjob erstellen und ausführen, der ein oder mehrere externe Speicher-Volumes verwendet. Zu den externen Speicheroptionen gehören neuer oder vorhandener nichtflüchtiger Speicher, neue lokale SSDs, vorhandene Cloud Storage-Buckets und ein vorhandenes Netzwerkdateisystem (NFS) wie eine Filestore-Dateifreigabe.
Unabhängig davon, ob Sie externe Speicher-Volumes hinzufügen, hat jede Compute Engine-VM für einen Job ein Bootlaufwerk, das Speicher für das Betriebssystem-Image des Jobs und Anweisungen bereitstellt. Informationen zum Konfigurieren des Bootlaufwerks für einen Job finden Sie unter VM-Betriebssystemumgebung – Übersicht.
Hinweise
- Wenn Sie Batch noch nicht verwendet haben, lesen Sie den Abschnitt Erste Schritte mit Batch und aktivieren Sie Batch, indem Sie die Voraussetzungen für Projekte und Nutzer erfüllen.
-
Bitten Sie Ihren Administrator, Ihnen die folgenden IAM-Rollen zu gewähren, damit Sie die Berechtigungen erhalten, die Sie zum Erstellen eines Jobs benötigen:
-
Batch-Job-Editor (
roles/batch.jobsEditor
) für das Projekt -
Dienstkontonutzer (
roles/iam.serviceAccountUser
) für das Dienstkonto des Jobs, das standardmäßig das Compute Engine-Standarddienstkonto ist -
Erstellen Sie einen Job, der einen Cloud Storage-Bucket verwendet:
Storage-Objekt-Betrachter (
roles/storage.objectViewer
) für den Bucket
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff verwalten.
Möglicherweise können Sie die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
-
Batch-Job-Editor (
Job erstellen, der Speicher-Volumes verwendet
Optional kann ein Job eines oder mehrere der folgenden Typen externer Speicher-Volumes verwenden. Weitere Informationen zu allen Arten von Speicher-Volumes und den jeweiligen Unterschieden und Einschränkungen finden Sie in der Dokumentation zu Compute Engine-VM-Speicheroptionen.
- Nichtflüchtiger Speicher: zonaler oder regionaler nichtflüchtiger Blockspeicher
- Lokale SSD: Leistungsstarker, temporärer Blockspeicher
- Cloud Storage-Bucket: kostengünstiger Objektspeicher
- Network File System (NFS): Verteiltes Dateisystem, das dem Network File System-Protokoll folgt, z. B. eine Filestore-Dateifreigabe, die ein leistungsstarkes NFS ist, das in Google Cloud gehostet wird
Sie können zulassen, dass ein Job jedes Speicher-Volume verwendet, indem Sie es in die Definition des Jobs aufnehmen und seinen Bereitstellungspfad (mountPath
) in die Runnables aufnehmen. Informationen zum Erstellen eines Jobs, der Speicher-Volumes verwendet, finden Sie in den folgenden Abschnitten:
- Nichtflüchtigen Speicher verwenden
- Lokale SSD verwenden
- Cloud Storage-Bucket verwenden
- Netzwerkdateisystem verwenden
Nichtflüchtigen Speicher verwenden
Für einen Job, der nichtflüchtige Speicher verwendet, gelten die folgenden Einschränkungen:
Alle nichtflüchtigen Speicher: Prüfen Sie die Einschränkungen für alle nichtflüchtigen Speicher.
Neue im Vergleich zu vorhandenen nichtflüchtigen Speichern: Jeder nichtflüchtige Speicher in einem Job kann entweder neu (in dem Job definiert und erstellt) oder vorhanden (bereits in Ihrem Projekt erstellt und im Job spezifiziert) sein. Um einen nichtflüchtigen Speicher zu verwenden, muss er formatiert und auf den VMs des Jobs bereitgestellt werden. Diese müssen sich am selben Speicherort wie der nichtflüchtige Speicher befinden. Sie stellt alle nichtflüchtigen Speicher bereit, die Sie in einen Job aufnehmen, und formatiert neue nichtflüchtige Speicher. Sie müssen jedoch alle vorhandenen nichtflüchtigen Speicher, die ein Job verwenden soll, formatieren und trennen.
Die unterstützten Standortoptionen, Formatierungsoptionen und Bereitstellungsoptionen unterscheiden sich zwischen neuen und vorhandenen nichtflüchtigen Speichern, wie in der folgenden Tabelle beschrieben:
Neue nichtflüchtige Speicher Vorhandene nichtflüchtige Speicher Formatoptionen Der nichtflüchtige Speicher wird automatisch mit einem
ext4
-Dateisystem formatiert.Sie müssen den nichtflüchtigen Speicher formatieren, um ein
ext4
-Dateisystem zu verwenden, bevor Sie ihn für einen Job verwenden.Bereitstellungsoptionen Alle Optionen werden unterstützt.
Alle Optionen außer dem Schreiben werden unterstützt. Dies liegt an den Einschränkungen des Multi-Writer-Modus.
Sie müssen den nichtflüchtigen Speicher von allen VMs trennen, an die er angehängt ist, bevor Sie ihn für einen Job verwenden.
Speicherortoptionen Sie können nur zonale nichtflüchtige Speicher erstellen.
Sie können für Ihren Job einen beliebigen Standort auswählen. Der nichtflüchtige Speicher wird in der Zone erstellt, in der Ihr Projekt ausgeführt wird.
Sie können zonale und regionale nichtflüchtige Speicher auswählen.
Sie müssen den Speicherort des Jobs (oder, falls angegeben, nur die zulässigen Standorte des Jobs) auf nur Standorte setzen, die alle nichtflüchtigen Speicher des Jobs enthalten. Bei einem zonalen nichtflüchtigen Speicher muss der Job beispielsweise die Zone des Laufwerks sein. Bei einem regionalen nichtflüchtigen Speicher muss der Standort des Jobs entweder die Region des Laufwerks oder, bei Angabe von Zonen, eine oder beide der Zonen sein, in denen sich der regionale nichtflüchtige Speicher befindet.Instanzvorlagen: Wenn Sie beim Erstellen dieses Jobs eine VM-Instanzvorlage verwenden möchten, müssen Sie alle nichtflüchtigen Speicher für diesen Job in der Instanzvorlage anhängen. Wenn Sie keine Instanzvorlage verwenden möchten, müssen Sie alle nichtflüchtigen Speicher direkt in der Jobdefinition anhängen.
Sie können einen Job, der einen nichtflüchtigen Speicher verwendet, mit der Google Cloud Console, der gcloud CLI, der Batch API, Go, Java, Node.js, Python oder C++ erstellen.
Console
Im folgenden Beispiel wird mit der Google Cloud Console ein Job erstellt, der ein Skript zum Lesen einer Datei aus einem vorhandenen zonalen nichtflüchtigen Speicher in der Zone us-central1-a
ausführt. Im Beispielskript wird davon ausgegangen, dass für den Job ein zonaler nichtflüchtiger Speicher vorhanden ist, der im Stammverzeichnis eine Textdatei namens example.txt
enthält.
Optional: Beispiel für einen zonalen nichtflüchtigen Speicher erstellen
Wenn Sie einen zonalen nichtflüchtigen Speicher erstellen möchten, mit dem Sie das Beispielskript ausführen können, gehen Sie vor dem Erstellen des Jobs so vor:
Hängen Sie einen neuen, leeren nichtflüchtigen Speicher namens
example-disk
an eine Linux-VM in der Zoneus-central1-a
an und führen Sie dann Befehle auf der VM aus, um das Laufwerk zu formatieren und bereitzustellen. Eine Anleitung dazu finden Sie unter Nichtflüchtigen Speicher zu Ihrer VM hinzufügen.Trennen Sie die Verbindung zur VM noch nicht.
Führen Sie die folgenden Befehle auf der VM aus, um
example.txt
im nichtflüchtigen Speicher zu erstellen:Geben Sie den folgenden Befehl ein, um das aktuelle Arbeitsverzeichnis in das Stammverzeichnis des nichtflüchtigen Speichers zu ändern:
cd VM_MOUNT_PATH
Ersetzen Sie VM_MOUNT_PATH durch den Pfad zu dem Verzeichnis, in dem der nichtflüchtige Speicher im vorherigen Schritt auf dieser VM bereitgestellt wurde, z. B.
/mnt/disks/example-disk
.Drücken Sie
Enter
.Geben Sie den folgenden Befehl ein, um eine Datei mit dem Namen
example.txt
zu erstellen und zu definieren:cat > example.txt
Drücken Sie
Enter
.Geben Sie den Inhalt der Datei ein. Geben Sie beispielsweise
Hello world!
ein.Drücken Sie zum Speichern der Datei
Ctrl+D
(oderCommand+D
unter macOS).
Wenn Sie fertig sind, können Sie die Verbindung zur VM trennen.
Trennen Sie den nichtflüchtigen Speicher von der VM.
Wenn Sie die VM nicht mehr benötigen, können Sie die VM löschen, wodurch der nichtflüchtige Speicher automatisch getrennt wird.
Andernfalls trennen Sie den nichtflüchtigen Speicher. Eine Anleitung finden Sie unter Bootlaufwerke trennen und wieder anhängen. Trennen Sie dann den nichtflüchtigen Speicher
example-disk
anstelle des Bootlaufwerks der VM.
Job erstellen, der den vorhandenen zonalen nichtflüchtigen Speicher verwendet
So erstellen Sie mit der Google Cloud Console einen Job, der vorhandene zonale nichtflüchtige Speicher verwendet:
Rufen Sie in der Google Cloud Console die Seite Jobliste auf.
Klicken Sie auf
Erstellen. Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich ist die Seite Jobdetails ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie den Jobnamen im Feld Jobname an.
Geben Sie beispielsweise
example-disk-job
ein.Konfigurieren Sie den Bereich Aufgabendetails:
Fügen Sie im Fenster New runnable (Neu ausführbar) mindestens ein Skript oder einen Container hinzu, damit der Job ausgeführt werden kann.
So führen Sie beispielsweise ein Skript aus, das den Inhalt einer Datei mit dem Namen
example.txt
ausgibt, die sich im Stammverzeichnis des nichtflüchtigen Speichers befindet, den dieser Job verwendet:Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie das folgende Skript in das Textfeld ein:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Ersetzen Sie MOUNT_PATH durch den Pfad, in dem Sie den nichtflüchtigen Speicher auf den VMs für diesen Job bereitstellen möchten, z. B.
/mnt/disks/example-disk
.Klicken Sie auf Fertig.
Geben Sie im Feld Aufgabenanzahl die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
1
ein (Standardeinstellung).Geben Sie im Feld Parallelism die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
ein (Standardeinstellung).
Konfigurieren Sie die Seite Ressourcenspezifikationen:
Klicken Sie im linken Bereich auf Ressourcenspezifikationen. Die Seite Ressourcenspezifikationen wird geöffnet.
Wählen Sie den Standort für diesen Job aus. Wenn Sie einen vorhandenen zonalen nichtflüchtigen Speicher verwenden möchten, müssen sich die VMs eines Jobs in derselben Zone befinden.
Wählen Sie im Feld Region eine Region aus.
Wenn Sie beispielsweise den zonalen nichtflüchtigen Beispielspeicher verwenden möchten, wählen Sie
us-central1 (Iowa)
(Standardeinstellung) aus.Wählen Sie im Feld Zone eine Zone aus.
Wählen Sie beispielsweise
us-central1-a (Iowa)
aus.
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Führen Sie für jeden vorhandenen zonalen nichtflüchtigen Speicher, den Sie für diesen Job bereitstellen möchten, folgende Schritte aus:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Abschnitt Volume-Typ die Option Nichtflüchtiger Speicher (Standardeinstellung) aus.
Wählen Sie in der Liste Laufwerk einen vorhandenen zonalen nichtflüchtigen Speicher aus, den Sie für diesen Job bereitstellen möchten. Das Laufwerk muss sich in derselben Zone wie dieser Job befinden.
Wählen Sie beispielsweise den vorhandenen zonalen nichtflüchtigen Speicher aus, den Sie vorbereitet haben, der sich in der Zone
us-central1-a
befindet und die Dateiexample.txt
enthält.Optional: Wenn Sie diesen zonalen nichtflüchtigen Speicher umbenennen möchten, gehen Sie so vor:
Wählen Sie Gerätenamen anpassen aus.
Geben Sie im Feld Gerätename den neuen Namen für das Laufwerk ein.
Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad (MOUNT_PATH) für diesen nichtflüchtigen Speicher ein:
Geben Sie beispielsweise Folgendes ein:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Ersetzen Sie EXISTING_PERSISTENT_DISK_NAME durch den Namen des Laufwerks. Wenn Sie den zonalen nichtflüchtigen Speicher umbenannt haben, verwenden Sie den neuen Namen.
Ersetzen Sie beispielsweise EXISTING_PERSISTENT_DISK_NAME durch
example-disk
.Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Um die Jobkonfiguration zu überprüfen, klicken Sie im linken Bereich auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
Im folgenden Beispiel wird mit der gcloud CLI ein Job erstellt, der einen vorhandenen nichtflüchtigen Speicher und einen neuen nichtflüchtigen Speicher anhängt und bereitstellt.
Der Job hat drei Aufgaben, die jeweils ein Skript ausführen, um eine Datei im neuen nichtflüchtigen Speicher output_task_TASK_INDEX.txt
zu erstellen, wobei TASK_INDEX der Index der einzelnen Aufgaben ist: 0, 1 und 2.
Verwenden Sie den Befehl gcloud batch jobs submit
, um über die gcloud CLI einen Job zu erstellen, der nichtflüchtige Speicher verwendet.
Geben Sie in der JSON-Konfigurationsdatei des Jobs den nichtflüchtigen Speicher im Feld instances
an und stellen Sie den nichtflüchtigen Speicher im Feld volumes
bereit.
Erstellen Sie eine JSON-Datei.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, erstellen Sie eine JSON-Datei mit folgendem Inhalt:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
ist die Projekt-ID Ihres Projekts.EXISTING_PERSISTENT_DISK_NAME
ist der Name eines vorhandenen nichtflüchtigen Speichers.EXISTING_PERSISTENT_DISK_LOCATION
: durch den Speicherort eines vorhandenen nichtflüchtigen Speichers. Bei jedem vorhandenen zonalen nichtflüchtigen Speicher muss der Standort des Jobs die Zone des Laufwerks sein. Bei jedem vorhandenen regionalen nichtflüchtigen Speicher muss der Standort des Jobs entweder die Region des Laufwerks oder, bei Angabe von Zonen, eine oder beide der Zonen sein, in denen sich der regionale nichtflüchtige Speicher befindet. Wenn Sie keine vorhandenen nichtflüchtigen Speicher angeben, können Sie einen beliebigen Speicherort auswählen. Weitere Informationen zum FeldallowedLocations
NEW_PERSISTENT_DISK_SIZE
: durch die Größe des neuen nichtflüchtigen Speichers in GB. Die zulässige Größe hängt vom Typ des nichtflüchtigen Speichers ab, aber der Mindestwert beträgt oft 10 GB (10
) und der Höchstwert oft 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: der Laufwerkstyp des neuen nichtflüchtigen Speichers, entwederpd-standard
,pd-balanced
,pd-ssd
oderpd-extreme
. Der Standardlaufwerkstyp für nichtflüchtige Speicher ohne Startfunktion istpd-standard
.NEW_PERSISTENT_DISK_NAME
ist der Name des neuen nichtflüchtigen Speichers.
Wenn Sie eine VM-Instanzvorlage für diesen Job verwenden, erstellen Sie wie zuvor gezeigt eine JSON-Datei. Ersetzen Sie jedoch das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name der Instanzvorlage für diesen Job. Für einen Job, der nichtflüchtige Speicher verwendet, müssen in dieser Instanzvorlage die nichtflüchtigen Speicher definiert und angehängt werden, die der Job verwenden soll. In diesem Beispiel muss die Vorlage einen neuen nichtflüchtigen Speicher mit dem NamenNEW_PERSISTENT_DISK_NAME
definieren und anhängen sowie einen vorhandenen nichtflüchtigen Speicher mit dem NamenEXISTING_PERSISTENT_DISK_NAME
anhängen.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
Im folgenden Beispiel wird mit der Batch API ein Job erstellt, mit dem ein vorhandener nichtflüchtiger Speicher und ein neuer nichtflüchtiger Speicher angehängt und bereitgestellt werden. Der Job hat 3 Aufgaben, die jeweils ein Skript ausführen, um eine Datei im neuen nichtflüchtigen Speicher output_task_TASK_INDEX.txt
zu erstellen, wobei TASK_INDEX der Index der einzelnen Aufgaben ist: 0, 1 und 2.
Wenn Sie mit der Batch API einen Job erstellen möchten, der nichtflüchtige Speicher verwendet, verwenden Sie die Methode jobs.create
.
Geben Sie in der Anfrage den nichtflüchtigen Speicher im Feld instances
an und stellen Sie den nichtflüchtigen Speicher im Feld volumes
bereit.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, senden Sie die folgende Anfrage:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
ist die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: der Name des Jobs.EXISTING_PERSISTENT_DISK_NAME
ist der Name eines vorhandenen nichtflüchtigen Speichers.EXISTING_PERSISTENT_DISK_LOCATION
: durch den Speicherort eines vorhandenen nichtflüchtigen Speichers. Bei jedem vorhandenen zonalen nichtflüchtigen Speicher muss der Standort des Jobs die Zone des Laufwerks sein. Bei jedem vorhandenen regionalen nichtflüchtigen Speicher muss der Standort des Jobs entweder die Region des Laufwerks oder, bei Angabe von Zonen, eine oder beide der Zonen sein, in denen sich der regionale nichtflüchtige Speicher befindet. Wenn Sie keine vorhandenen nichtflüchtigen Speicher angeben, können Sie einen beliebigen Speicherort auswählen. Weitere Informationen zum FeldallowedLocations
NEW_PERSISTENT_DISK_SIZE
: durch die Größe des neuen nichtflüchtigen Speichers in GB. Die zulässige Größe hängt vom Typ des nichtflüchtigen Speichers ab, aber der Mindestwert beträgt oft 10 GB (10
) und der Höchstwert oft 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: der Laufwerkstyp des neuen nichtflüchtigen Speichers, entwederpd-standard
,pd-balanced
,pd-ssd
oderpd-extreme
. Der Standardlaufwerkstyp für nichtflüchtige Speicher ohne Startfunktion istpd-standard
.NEW_PERSISTENT_DISK_NAME
ist der Name des neuen nichtflüchtigen Speichers.
Wenn Sie eine VM-Instanzvorlage für diesen Job verwenden, erstellen Sie wie zuvor gezeigt eine JSON-Datei. Ersetzen Sie jedoch das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name der Instanzvorlage für diesen Job. Für einen Job, der nichtflüchtige Speicher verwendet, müssen in dieser Instanzvorlage die nichtflüchtigen Speicher definiert und angehängt werden, die der Job verwenden soll. In diesem Beispiel muss die Vorlage einen neuen nichtflüchtigen Speicher mit dem NamenNEW_PERSISTENT_DISK_NAME
definieren und anhängen sowie einen vorhandenen nichtflüchtigen Speicher mit dem NamenEXISTING_PERSISTENT_DISK_NAME
anhängen.
Einfach loslegen (Go)
Wenn Sie einen Batch-Job erstellen möchten, der neue oder vorhandene nichtflüchtige Speicher mithilfe der Cloud-Clientbibliotheken für Go verwendet, verwenden Sie die Funktion CreateJob
und fügen Sie Folgendes ein:
- Fügen Sie eines der folgenden Elemente hinzu, um den VMs für einen Job nichtflüchtige Speicher hinzuzufügen:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie den Typ
AllocationPolicy_AttachedDisk
ein. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, fügen Sie den Typ
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
ein.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie den Typ
- Verwenden Sie den Typ
Volume
mit dem TypVolume_DeviceName
und dem FeldMountPath
, um die nichtflüchtigen Speicher für den Job bereitzustellen. Verwenden Sie bei neuen nichtflüchtigen Speichern auch das FeldMountOptions
, um das Schreiben zu aktivieren.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden.
Java
Wenn Sie einen Batch-Job erstellen möchten, der neue oder vorhandene nichtflüchtige Speicher mithilfe der Cloud-Clientbibliotheken für Java verwendet, verwenden Sie die Klasse CreateJobRequest
und fügen Sie Folgendes ein:
- Fügen Sie eines der folgenden Elemente hinzu, um den VMs für einen Job nichtflüchtige Speicher hinzuzufügen:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, schließen Sie die Methode
setDisks
ein. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, schließen Sie die Methode
setInstanceTemplate
ein.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, schließen Sie die Methode
- Verwenden Sie die Klasse
Volume
mit der MethodesetDeviceName
und der MethodesetMountPath
, um die nichtflüchtigen Speicher für den Job bereitzustellen. Verwenden Sie für neue nichtflüchtige Speicher zusätzlich die MethodesetMountOptions
, um das Schreiben zu aktivieren.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden.
Node.js
Wenn Sie einen Batchjob erstellen möchten, der neue oder vorhandene nichtflüchtige Speicher mithilfe der Cloud-Clientbibliotheken für Node.js verwendet, verwenden Sie die Methode createJob
und fügen Sie Folgendes ein:
- Fügen Sie eines der folgenden Elemente hinzu, um den VMs für einen Job nichtflüchtige Speicher hinzuzufügen:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie die Klasse
AllocationPolicy.AttachedDisk
ein. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, fügen Sie das Attribut
instanceTemplate
ein.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie die Klasse
- Verwenden Sie die Klasse
Volume
mit den AttributendeviceName
undmountPath
, um die nichtflüchtigen Speicher für den Job bereitzustellen. Verwenden Sie für neue nichtflüchtige Speicher außerdem das AttributmountOptions
, um das Schreiben zu ermöglichen.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden.
Python
Wenn Sie einen Batch-Job erstellen möchten, der neue oder vorhandene nichtflüchtige Speicher mithilfe der Cloud-Clientbibliotheken für Python verwendet, verwenden Sie die Funktion CreateJob
und fügen Sie Folgendes ein:
- Fügen Sie eines der folgenden Elemente hinzu, um den VMs für einen Job nichtflüchtige Speicher hinzuzufügen:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie die Klasse
AttachedDisk
ein. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, schließen Sie das Attribut
instance_template
ein.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, fügen Sie die Klasse
- Verwenden Sie die Klasse
Volume
mit dem Attributdevice_name
und dem Attributmount_path
, um die nichtflüchtigen Speicher für den Job bereitzustellen. Verwenden Sie bei neuen nichtflüchtigen Speichern auch das Attributmount_options
, um das Schreiben zu ermöglichen.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden.
C++
Zum Erstellen eines Batchjobs, der neue oder vorhandene nichtflüchtige Speicher mithilfe der Cloud-Clientbibliotheken für C++ verwendet, verwenden Sie die Funktion CreateJob
und fügen Folgendes hinzu:
- Fügen Sie eines der folgenden Elemente hinzu, um den VMs für einen Job nichtflüchtige Speicher hinzuzufügen:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, nutzen Sie die Methode
set_remote_path
. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, nutzen Sie die Methode
set_instance_template
.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, nutzen Sie die Methode
- Verwenden Sie das Feld
volumes
mit den FelderndeviceName
undmountPath
, um die nichtflüchtigen Speicher für den Job bereitzustellen. Für neue nichtflüchtige Speicher aktivieren Sie außerdem das FeldmountOptions
, um das Schreiben zu aktivieren.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden.
Lokale SSD verwenden
Für einen Job, der lokale SSDs verwendet, gelten die folgenden Einschränkungen:
- Alle lokalen SSDs: Prüfen Sie die Einschränkungen für lokale SSDs.
- Instanzvorlagen Wenn Sie beim Erstellen dieses Jobs eine VM-Instanzvorlage angeben möchten, müssen Sie alle nichtflüchtigen Speicher für diesen Job in der Instanzvorlage anhängen. Wenn Sie keine Instanzvorlage verwenden möchten, müssen Sie alle nichtflüchtigen Speicher direkt in der Jobdefinition anhängen.
Sie können einen Job, der eine lokale SSD verwendet, mit der gcloud CLI oder Batch API erstellen.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, mit dem eine lokale SSD erstellt, angehängt und bereitgestellt wird. Der Job hat außerdem drei Aufgaben, die jeweils ein Skript ausführen, um eine Datei auf der lokalen SSD namens output_task_TASK_INDEX.txt
zu erstellen, wobei TASK_INDEX
der Index der einzelnen Aufgaben ist: 0
, 1
und 2
.
gcloud
Verwenden Sie den Befehl gcloud batch jobs submit
, um über die gcloud CLI einen Job zu erstellen, der lokale SSDs verwendet.
Erstellen Sie in der JSON-Konfigurationsdatei des Jobs die lokalen SSDs im Feld instances
und hängen Sie sie an. Stellen Sie die lokalen SSDs im Feld volumes
bereit.
Erstellen Sie eine JSON-Datei.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, erstellen Sie eine JSON-Datei mit folgendem Inhalt:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
MACHINE_TYPE
: Der Maschinentyp der VMs des Jobs, der vordefiniert oder benutzerdefiniert sein kann. Die zulässige Anzahl lokaler SSDs hängt vom Maschinentyp der VMs Ihres Jobs ab.LOCAL_SSD_NAME
: der Name einer lokalen SSD, die für diesen Job erstellt wurde.LOCAL_SSD_SIZE
: die Größe aller lokalen SSDs in GB Jede lokale SSD hat 375 GB, daher muss dieser Wert ein Vielfaches von375
GB sein. Legen Sie diesen Wert beispielsweise für zwei lokale SSDs auf750
GB fest.
Wenn Sie eine VM-Instanzvorlage für diesen Job verwenden, erstellen Sie wie zuvor gezeigt eine JSON-Datei. Ersetzen Sie jedoch das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name der Instanzvorlage für diesen Job. Für einen Job, der lokale SSDs verwendet, müssen in dieser Instanzvorlage die lokalen SSDs definiert und angehängt werden, die der Job verwenden soll. In diesem Beispiel muss die Vorlage eine lokale SSD mit dem NamenLOCAL_SSD_NAME
definieren und anhängen.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
Wenn Sie mit der Batch API einen Job erstellen möchten, der lokale SSDs verwendet, verwenden Sie die Methode jobs.create
.
Erstellen Sie in der Anfrage die lokalen SSDs im Feld instances
und hängen Sie sie an und stellen Sie sie im Feld volumes
bereit.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, senden Sie die folgende Anfrage:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
ist die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: der Name des Jobs.MACHINE_TYPE
: Der Maschinentyp der VMs des Jobs, der vordefiniert oder benutzerdefiniert sein kann. Die zulässige Anzahl lokaler SSDs hängt vom Maschinentyp der VMs Ihres Jobs ab.LOCAL_SSD_NAME
: der Name einer lokalen SSD, die für diesen Job erstellt wurde.LOCAL_SSD_SIZE
: die Größe aller lokalen SSDs in GB Jede lokale SSD hat 375 GB, daher muss dieser Wert ein Vielfaches von375
GB sein. Legen Sie diesen Wert beispielsweise für zwei lokale SSDs auf750
GB fest.
Wenn Sie eine VM-Instanzvorlage für diesen Job verwenden, erstellen Sie wie zuvor gezeigt eine JSON-Datei. Ersetzen Sie jedoch das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name der Instanzvorlage für diesen Job. Für einen Job, der lokale SSDs verwendet, müssen in dieser Instanzvorlage die lokalen SSDs definiert und angehängt werden, die der Job verwenden soll. In diesem Beispiel muss die Vorlage eine lokale SSD mit dem NamenLOCAL_SSD_NAME
definieren und anhängen.
Cloud Storage-Bucket verwenden
Wählen Sie eine der folgenden Methoden aus, um einen Job zu erstellen, der einen vorhandenen Cloud Storage-Bucket verwendet:
- Empfohlen: Stellen Sie einen Bucket direkt auf den VMs Ihres Jobs bereit. Geben Sie dazu den Bucket in der Definition des Jobs an, wie in diesem Abschnitt gezeigt. Wenn der Job ausgeführt wird, wird der Bucket automatisch mit Cloud Storage FUSE auf den VMs für den Job bereitgestellt.
- Erstellen Sie mithilfe des
gsutil
-Befehlszeilentools oder der Clientbibliotheken für die Cloud Storage API einen Job mit Aufgaben, die direkt auf einen Cloud Storage-Bucket zugreifen. Informationen dazu, wie Sie direkt von einer VM aus auf einen Cloud Storage-Bucket zugreifen, finden Sie in der Compute Engine-Dokumentation unter Daten in Cloud Storage-Buckets schreiben und lesen.
Bevor Sie einen Job erstellen, der einen Bucket verwendet, erstellen Sie einen Bucket oder identifizieren Sie einen vorhandenen Bucket. Weitere Informationen finden Sie unter Buckets erstellen und Buckets auflisten.
Sie können einen Job erstellen, der einen Cloud Storage-Bucket verwendet, mit der Google Cloud Console, der gcloud CLI, Batch API, Go, Java, Node.js, Python oder C++.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, der einen Cloud Storage-Bucket bereitstellt. Der Job hat außerdem drei Aufgaben, die jeweils ein Skript ausführen, um eine Datei im Bucket namens output_task_TASK_INDEX.txt
zu erstellen, wobei TASK_INDEX
der Index jeder Aufgabe ist: 0
, 1
und 2
.
Console
So erstellen Sie über die Google Cloud Console einen Job, der einen Cloud Storage-Bucket verwendet:
Rufen Sie in der Google Cloud Console die Seite Jobliste auf.
Klicken Sie auf
Erstellen. Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich ist die Seite Jobdetails ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie den Jobnamen im Feld Jobname an.
Geben Sie beispielsweise
example-bucket-job
ein.Konfigurieren Sie den Bereich Aufgabendetails:
Fügen Sie im Fenster New runnable (Neu ausführbar) mindestens ein Skript oder einen Container hinzu, damit der Job ausgeführt werden kann.
Gehen Sie beispielsweise so vor:
Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie das folgende Skript in das Textfeld ein:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Ersetzen Sie MOUNT_PATH durch den Bereitstellungspfad, über den die Runnables dieses Jobs auf einen vorhandenen Cloud Storage-Bucket zugreifen. Der Pfad muss mit
/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie diesen Bucket beispielsweise mit einem Verzeichnis namensmy-bucket
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
fest.Klicken Sie auf Fertig.
Geben Sie im Feld Aufgabenanzahl die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
3
ein.Geben Sie im Feld Parallelism die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
ein (Standardeinstellung).
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Gehen Sie für jeden Cloud Storage-Bucket, den Sie für diesen Job bereitstellen möchten, so vor:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Abschnitt Volume-Typ die Option Cloud Storage-Bucket aus.
Geben Sie im Feld Name des Storage-Buckets den Namen eines vorhandenen Buckets ein.
Geben Sie beispielsweise den Bucket ein, den Sie im Runnable dieses Jobs angegeben haben.
Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad des Buckets (MOUNT_PATH) ein, den Sie im Runnable angegeben haben.
Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Um die Jobkonfiguration zu überprüfen, klicken Sie im linken Bereich auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
Verwenden Sie den Befehl gcloud batch jobs submit
, um über die gcloud CLI einen Job zu erstellen, der einen Cloud Storage-Bucket verwendet.
Stellen Sie den Bucket in der JSON-Konfigurationsdatei des Jobs im Feld volumes
bereit.
So erstellen Sie beispielsweise einen Job, der Dateien an einen Cloud Storage ausgibt:
Erstellen Sie eine package.json-Datei mit folgendem Inhalt:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
BUCKET_PATH
: der Pfad des Bucket-Verzeichnisses, auf das dieser Job zugreifen soll, der mit dem Namen des Buckets beginnen muss. Bei einem Bucket mit dem NamenBUCKET_NAME
stellt der PfadBUCKET_NAME
beispielsweise das Stammverzeichnis des Buckets und der PfadBUCKET_NAME/subdirectory
das Unterverzeichnissubdirectory
dar.MOUNT_PATH
: Der Bereitstellungspfad, mit dem die Runnables des Jobs auf diesen Bucket zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie diesen Bucket beispielsweise mit einem Verzeichnis namensmy-bucket
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
fest.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
Wenn Sie mit der Batch API einen Job erstellen möchten, der einen Cloud Storage-Bucket verwendet, verwenden Sie die Methode jobs.create
und stellen Sie den Bucket im Feld volumes
bereit.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Ersetzen Sie Folgendes:
PROJECT_ID
ist die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: der Name des Jobs.BUCKET_PATH
: der Pfad des Bucket-Verzeichnisses, auf das dieser Job zugreifen soll, der mit dem Namen des Buckets beginnen muss. Bei einem Bucket mit dem NamenBUCKET_NAME
stellt der PfadBUCKET_NAME
beispielsweise das Stammverzeichnis des Buckets und der PfadBUCKET_NAME/subdirectory
das Unterverzeichnissubdirectory
dar.MOUNT_PATH
: Der Bereitstellungspfad, mit dem die Runnables des Jobs auf diesen Bucket zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie diesen Bucket beispielsweise mit einem Verzeichnis namensmy-bucket
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
fest.
Einfach loslegen (Go)
Go
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Go API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Java
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Java API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Node.js
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Node.js API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
C++
C++
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch C++ API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Netzwerkdateisystem verwenden
Sie können einen Job erstellen, der ein vorhandenes Network File System (NFS) wie eine Filestore-Dateifreigabe mit der Google Cloud Console, der gcloud CLI oder der Batch API verwendet.
Bevor Sie einen Job erstellen, der ein NFS verwendet, muss die Firewall Ihres Netzwerks so konfiguriert sein, dass Traffic zwischen den VMs des Jobs und dem NFS zugelassen wird. Weitere Informationen finden Sie unter Firewallregeln für Filestore konfigurieren.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, der einen NFS angibt und bereitstellt. Der Job hat außerdem drei Aufgaben, die jeweils ein Skript zum Erstellen einer Datei mit dem Namen output_task_TASK_INDEX.txt
auf dem NFS ausführen, wobei TASK_INDEX
der Index jeder Aufgabe ist: 0
, 1
und 2
.
Console
So erstellen Sie mit der Google Cloud Console einen Job, der ein NFS verwendet:
Rufen Sie in der Google Cloud Console die Seite Jobliste auf.
Klicken Sie auf
Erstellen. Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich ist die Seite Jobdetails ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie den Jobnamen im Feld Jobname an.
Geben Sie beispielsweise
example-nfs-job
ein.Konfigurieren Sie den Bereich Aufgabendetails:
Fügen Sie im Fenster New runnable (Neu ausführbar) mindestens ein Skript oder einen Container hinzu, damit der Job ausgeführt werden kann.
Gehen Sie beispielsweise so vor:
Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie das folgende Skript in das Textfeld ein:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Ersetzen Sie MOUNT_PATH durch den Bereitstellungspfad, den die ausführbare Datei des Jobs für den Zugriff auf dieses NFS verwendet. Der Pfad muss mit
/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie dieses NFS beispielsweise mit einem Verzeichnis namensmy-nfs
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.Klicken Sie auf Fertig.
Geben Sie im Feld Aufgabenanzahl die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
3
ein.Geben Sie im Feld Parallelism die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
ein (Standardeinstellung).
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Gehen Sie für jeden Cloud Storage-Bucket, den Sie für diesen Job bereitstellen möchten, so vor:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Bereich Volume-Typ die Option Netzwerkdateisystem aus.
Geben Sie im Feld Dateiserver die IP-Adresse des Servers ein, auf dem sich das NFS befindet, das Sie in der ausführbaren Datei dieses Jobs angegeben haben.
Wenn Ihr NFS beispielsweise eine Filestore-Dateifreigabe ist, geben Sie die IP-Adresse der Filestore-Instanz an, die Sie durch Beschreiben der Filestore-Instanz abrufen können.
Geben Sie im Feld Remote-Pfad einen Pfad ein, der auf das NFS zugreifen kann, das Sie im vorherigen Schritt angegeben haben.
Der Pfad des NFS-Verzeichnisses muss mit einem
/
beginnen, gefolgt vom Stammverzeichnis des NFS.Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad zu NFS (MOUNT_PATH) ein, den Sie im vorherigen Schritt angegeben haben.
Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Um die Jobkonfiguration zu überprüfen, klicken Sie im linken Bereich auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
Verwenden Sie den Befehl gcloud batch jobs submit
, um über die gcloud CLI einen Job zu erstellen, der ein NFS verwendet.
Stellen Sie das NFS in der JSON-Konfigurationsdatei des Jobs im Feld volumes
bereit.
Erstellen Sie eine package.json-Datei mit folgendem Inhalt:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
NFS_IP_ADDRESS
: die IP-Adresse des NFS. Wenn Ihr NFS beispielsweise eine Filestore-Dateifreigabe ist, geben Sie die IP-Adresse der Filestore-Instanz an. Diese erhalten Sie durch Beschreiben der Filestore-Instanz.NFS_PATH
: der Pfad des NFS-Verzeichnisses, auf das dieser Job zugreifen soll. Er muss mit einem/
beginnen, gefolgt vom Stammverzeichnis des NFS. Bei einer Filestore-Dateifreigabe namensFILE_SHARE_NAME
steht beispielsweise der Pfad/FILE_SHARE_NAME
für das Stammverzeichnis der Dateifreigabe und der Pfad/FILE_SHARE_NAME/subdirectory
für das Unterverzeichnissubdirectory
.MOUNT_PATH
: Der Bereitstellungspfad, mit dem die Runnables des Jobs auf dieses NFS zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie dieses NFS beispielsweise mit einem Verzeichnis namensmy-nfs
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
Wenn Sie mit der Batch API einen Job erstellen möchten, der ein NFS verwendet, verwenden Sie die Methode jobs.create
und stellen Sie das NFS im Feld volumes
bereit.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Ersetzen Sie Folgendes:
PROJECT_ID
ist die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: der Name des Jobs.NFS_IP_ADDRESS
: die IP-Adresse des Netzwerkdateisystems. Wenn Ihr NFS beispielsweise eine Filestore-Dateifreigabe ist, geben Sie die IP-Adresse der Filestore-Instanz an. Diese erhalten Sie durch Beschreiben der Filestore-Instanz.NFS_PATH
: der Pfad des NFS-Verzeichnisses, auf das dieser Job zugreifen soll. Er muss mit einem/
beginnen, gefolgt vom Stammverzeichnis des NFS. Bei einer Dateifreigabe mit dem NamenFILE_SHARE_NAME
steht beispielsweise der Pfad/FILE_SHARE_NAME
für das Stammverzeichnis der Dateifreigabe und der Pfad/FILE_SHARE_NAME/subdirectory
für ein Unterverzeichnis.MOUNT_PATH
: Der Bereitstellungspfad, mit dem die Runnables des Jobs auf dieses NFS zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie dieses NFS beispielsweise mit einem Verzeichnis namensmy-nfs
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.
Nächste Schritte
- Wenn beim Erstellen oder Ausführen eines Jobs Probleme auftreten, lesen Sie den Abschnitt Fehlerbehebung.
- Aufträge und Aufgaben ansehen
- Weitere Informationen zu Optionen für die Joberstellung