In diesem Dokument wird beschrieben, wie Sie einen Batchjob erstellen und ausführen, der ein oder mehrere externe Speichervolumes verwendet. Externe Speicheroptionen umfassen neue oder vorhandene Speicheroptionen nichtflüchtige Speicher, neue lokale SSDs, vorhandene Cloud Storage-Buckets, und ein bestehendes Network File System (NFS) wie Filestore-Dateifreigabe.
Unabhängig davon, ob Sie externe Speicher-Volumes hinzufügen, Die Compute Engine-VM für einen Job hat ein Bootlaufwerk, das Speicher bereitstellt für das Betriebssystem-Image und die Anweisungen des Jobs. Informationen zum Konfigurieren des Bootlaufwerks für einen Job finden Sie unter Übersicht zur VM-Betriebssystemumgebung.
Hinweise
- Wenn Sie Batch noch nicht verwendet haben, lesen Sie den Hilfeartikel Batch-Dateien erstellen und ausführen und aktivieren Sie Batch, indem Sie die Voraussetzungen für Projekte und Nutzer erfüllen.
-
Bitten Sie Ihren Administrator, Ihnen die folgenden IAM-Rollen zuzuweisen, um die Berechtigungen zu erhalten, die Sie zum Erstellen eines Jobs benötigen:
-
Batch-Job-Bearbeiter (
roles/batch.jobsEditor
) für das Projekt -
Dienstkontonutzer (
roles/iam.serviceAccountUser
) im Dienstkonto des Jobs, das standardmäßig das Compute Engine-Standarddienstkonto ist -
Erstellen Sie einen Job, der einen Cloud Storage-Bucket verwendet:
Storage-Objekt-Betrachter (
roles/storage.objectViewer
) für den Bucket
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
-
Batch-Job-Bearbeiter (
Job erstellen, der Speichervolumes verwendet
Optional kann ein Job einen oder mehrere der folgenden Arten von externen Speicher-Volumes. Weitere Informationen zu allen Arten von Speicher-Volumes Unterschiede und Einschränkungen finden Sie in der Dokumentation zu Compute Engine-VM-Speicheroptionen
- Nichtflüchtiger Speicher: zonaler oder regionaler, nichtflüchtiger Blockspeicher
- lokaler SSD: hochleistungsfähiger temporärer Blockspeicher
- Cloud Storage-Bucket: preiswerter Objektspeicher
- Network File System (NFS): ein verteiltes Dateisystem nach dem Network File System-Protokoll Beispiel: Ein Filestore-Dateifreigabe, ein leistungsstarkes NFS, das in Google Cloud gehostet wird,
Sie können einem Job erlauben, jedes Speicher-Volume zu verwenden, indem Sie es einschließen
in der Jobdefinition angeben und seine
Bereitstellungspfad (mountPath
)
in Ihren Runnables. Informationen zum Erstellen eines Jobs, der Speicher-Volumes verwendet, finden Sie unter
einem oder mehreren der folgenden Abschnitte:
- Nichtflüchtigen Speicher verwenden
- Lokale SSD verwenden
- Cloud Storage-Bucket verwenden
- Netzwerkdateisystem verwenden
Nichtflüchtigen Speicher verwenden
Für einen Job, der nichtflüchtige Speicher verwendet, gelten die folgenden Einschränkungen:
Alle nichtflüchtigen Speicher: Überprüfen Sie den Einschränkungen für alle nichtflüchtigen Speicher.
Neue und vorhandene nichtflüchtige Speicher im Vergleich: Jeder nichtflüchtige Speicher in einem Job kann entweder neu (in dem Job definiert und erstellt) oder vorhanden (bereits die in Ihrem Projekt erstellt und im Job angegeben wurden). Um einen nichtflüchtigen Speicher zu nutzen, muss es sein formatiert und im die VMs des Jobs, die sich am selben Standort wie der nichtflüchtige Speicher befinden müssen. stellt alle nichtflüchtigen Speicher bereit, die Sie in einen Job aufnehmen, und formatiert neue nichtflüchtige Speicher; Sie müssen jedoch alle vorhandene nichtflüchtige Speicher, die ein Job verwenden soll.
Die unterstützten Standortoptionen, Formatierungsoptionen, und Halterungsoptionen zwischen neuen und vorhandenen nichtflüchtigen Speichern, wie im Folgenden beschrieben. Tabelle:
Neue nichtflüchtige Speicher Vorhandene nichtflüchtige Speicher Formatoptionen Das nichtflüchtige Laufwerk wird automatisch mit einem
ext4
-Dateisystem formatiert.Sie müssen den nichtflüchtigen Speicher formatieren, um ein
ext4
-Dateisystem zu verwenden, bevor Sie ihn für einen Job verwenden können.Bereitstellungsoptionen Alle Optionen werden unterstützt.
Alle Optionen außer „Schreiben“ werden unterstützt. Dies ist auf Einschränkungen von Modus für mehrere Autoren.
Sie müssen den nichtflüchtigen Speicher von allen VMs trennen, an die er angehängt ist, bevor Sie ihn für einen Job verwenden können.
Speicherortoptionen Sie können nur zonale nichtflüchtige Speicher erstellen.
Sie können einen beliebigen Standort für Ihre Stelle auswählen. Die persistente Laufwerke werden in der Zone erstellt, in der Ihr Projekt ausgeführt wird.
Sie können zonale und regionale nichtflüchtige Speicher auswählen.
Sie müssen den Speicherort des Jobs (oder, falls angegeben, nur die zulässigen Speicherorte des Jobs) auf nur Speicherorte festlegen, die alle persistenten Laufwerke des Jobs enthalten. Bei einem zonalen nichtflüchtigen Speicher muss der Speicherort des Jobs beispielsweise der der Zone des Laufwerks sein. Bei einem regionalen nichtflüchtigen Speicher muss der Speicherort des Jobs entweder der der Region des Laufwerks oder, wenn Zonen angegeben werden, eine oder beide der Zonen sein, in denen sich der regionale nichtflüchtige Speicher befindet.Instanzvorlagen: Wenn Sie Beim Erstellen dieses Jobs eine VM-Instanzvorlage verwenden, Sie müssen alle nichtflüchtigen Speicher für diesen Job in der Instanz anhängen Vorlage. Wenn Sie keine Instanzvorlage verwenden möchten, müssen Sie alle nichtflüchtigen Laufwerke direkt in der Jobdefinition anhängen.
Sie können einen Job mit einem nichtflüchtigen Laufwerk mit der Google Cloud Console, der gcloud CLI, der Batch API, C++, Go, Java, Node.js oder Python erstellen.
Console
Im folgenden Beispiel wird in der Google Cloud Console ein Job erstellt, der ein Script ausführt, um eine Datei von einem vorhandenen zonalen nichtflüchtigen Laufwerk in der Zone us-central1-a
zu lesen. Im Beispielskript wird davon ausgegangen,
über einen zonalen nichtflüchtigen Speicher verfügt, der eine Textdatei namens
example.txt
im Stammverzeichnis.
Optional: Beispiel für einen zonalen nichtflüchtigen Speicher erstellen
Wenn Sie einen zonalen nichtflüchtigen Speicher erstellen möchten, mit dem Sie das Beispielscript ausführen können, gehen Sie so vor, bevor Sie den Job erstellen:
Hängen Sie einen neuen, leeren nichtflüchtigen Speicher namens
example-disk
an eine Linux-VM imus-central1-a
und führen Sie dann Befehle zum Formatieren und Bereitstellen auf der VM aus. auf dem Laufwerk. Eine Anleitung finden Sie unter Nichtflüchtigen Speicher zu Instanz hinzufügen.Trennen Sie die Verbindung zur VM noch nicht.
Führen Sie die folgenden Befehle auf der VM aus, um
example.txt
auf dem nichtflüchtigen Laufwerk zu erstellen:Um das aktuelle Arbeitsverzeichnis in das Stammverzeichnis der nichtflüchtigen Speicher den folgenden Befehl ein:
cd VM_MOUNT_PATH
Ersetzen Sie VM_MOUNT_PATH durch den Pfad zum Verzeichnis, in dem der nichtflüchtige Speicher im vorherigen Schritt bereitgestellt wurde, z. B.
/mnt/disks/example-disk
.Drücken Sie
Enter
.Zum Erstellen und Definieren einer Datei mit dem Namen
example.txt
: geben Sie den folgenden Befehl ein:cat > example.txt
Drücken Sie
Enter
.Geben Sie den Inhalt der Datei ein. Geben Sie beispielsweise
Hello world!
ein.Drücken Sie zum Speichern der Datei
Ctrl+D
(oderCommand+D
unter macOS).
Wenn Sie fertig sind, können Sie die Verbindung zur VM trennen.
Trennen Sie den nichtflüchtigen Speicher von der VM.
Wenn Sie die VM nicht mehr benötigen, können Sie sie löschen. Dadurch wird die Verbindung zum nichtflüchtigen Speicher automatisch getrennt.
Andernfalls trennen Sie den nichtflüchtigen Speicher. Eine Anleitung finden Sie unter Bootlaufwerke trennen und anhängen. Trennen Sie dabei das nichtflüchtige Laufwerk
example-disk
anstelle des Bootlaufwerks der VM.
Job erstellen, der den vorhandenen zonalen nichtflüchtigen Speicher verwendet
So erstellen Sie mit der Google Cloud Console einen Job, der vorhandene zonale persistente Laufwerke verwendet:
Rufen Sie in der Google Cloud Console die Seite Jobliste auf.
Klicken Sie auf
Erstellen. Die Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich ist die Seite Jobdetails ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie im Feld Jobname den Jobnamen an.
Geben Sie beispielsweise
example-disk-job
ein.Konfigurieren Sie den Abschnitt Aufgabendetails:
Fügen Sie im Fenster New Runnable (Neu ausführbar) mindestens ein Skript hinzu oder Container für die Ausführung dieses Jobs.
Um beispielsweise ein Skript auszuführen, das den Inhalt einer Datei ausgibt, den Namen
example.txt
hat und sich im Stammverzeichnis befindet des nichtflüchtigen Speichers, den dieser Job verwendet, gehen Sie so vor:Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie das folgende Skript in das Textfeld ein:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Ersetzen Sie MOUNT_PATH durch den Pfad zu in dem Sie den nichtflüchtigen Speicher auf den VMs bereitstellen möchten, für diesen Job, z. B.
/mnt/disks/example-disk
.Klicken Sie auf Fertig.
Geben Sie im Feld Task count (Aufgabenanzahl) die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
1
ein (Standardeinstellung).Geben Sie im Feld Parallelität die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
(Standardeinstellung) ein.
Konfigurieren Sie die Seite Ressourcenspezifikationen:
Klicken Sie im linken Bereich auf Ressourcenspezifikationen. Die Seite Ressourcenspezifikationen wird geöffnet.
Wählen Sie den Standort für diese Stelle aus. Zur Verwendung eines vorhandenen zonalen nichtflüchtigen Speichers müssen die VMs eines Jobs die sich in derselben Zone befinden.
Wählen Sie im Feld Region eine Region aus.
Wenn Sie beispielsweise den Beispiel-zonalen nichtflüchtigen Speicher verwenden möchten, wählen Sie
us-central1 (Iowa)
(Standardeinstellung) aus.Wählen Sie im Feld Zone eine Zone aus.
Wählen Sie beispielsweise
us-central1-a (Iowa)
aus.
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Für jeden vorhandenen zonalen nichtflüchtigen Speicher, auf dem Sie die Bereitstellung vornehmen möchten gehen Sie so vor:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Abschnitt Volume-Typ die Option Nichtflüchtiger Speicher (Standardeinstellung) aus.
Wählen Sie in der Liste Laufwerk ein Vorhandener zonaler nichtflüchtiger Speicher, auf dem Sie die Bereitstellung vornehmen möchten für diesen Job. Das Laufwerk muss sich in derselben Zone wie dieser Job befinden.
Wählen Sie beispielsweise den vorhandenen zonalen nichtflüchtigen Speicher aus. die Sie vorbereitet haben und die sich im
us-central1-a
und enthält die Dateiexample.txt
.Optional: Wenn Sie diesen zonalen nichtflüchtigen Speicher umbenennen möchten, gehen Sie so vor:
Wählen Sie Gerätenamen anpassen aus.
Geben Sie im Feld Gerätename den neuen Namen für das Laufwerk ein.
Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad ein. (MOUNT_PATH) dafür nichtflüchtiger Speicher:
Geben Sie beispielsweise Folgendes ein:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Ersetzen Sie EXISTING_PERSISTENT_DISK_NAME durch den Namen des Laufwerks. Wenn Sie den zonalen nichtflüchtigen Speicher umbenannt haben, verwenden Sie den neuen Namen.
Ersetzen Sie beispielsweise EXISTING_PERSISTENT_DISK_NAME durch
example-disk
.Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Um die Jobkonfiguration zu überprüfen, Klicken Sie auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
Im folgenden Beispiel wird mit der gcloud CLI ein Job erstellt, der
einen vorhandenen nichtflüchtigen Speicher und einen neuen nichtflüchtigen Speicher hinzufügt und stellt ihn bereit.
Der Job umfasst drei Aufgaben, die jeweils ein Skript ausführen, um eine Datei im neuen
Nichtflüchtiger Speicher mit dem Namen output_task_TASK_INDEX.txt
wobei TASK_INDEX der Index jeder Aufgabe ist: 0, 1 und
2.
Verwenden Sie den Befehl gcloud batch jobs submit
, um mit der gcloud CLI einen Job zu erstellen, der nichtflüchtige Laufwerke verwendet.
Geben Sie in der JSON-Konfigurationsdatei des Jobs die nichtflüchtigen Speicher in der
instances
und stellen Sie den nichtflüchtigen Speicher im Feld volumes
bereit.
Erstellen Sie eine JSON-Datei.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, erstellen Sie eine JSON-Datei mit folgendem Inhalt:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
: die Projekt-ID Ihres Projekts.EXISTING_PERSISTENT_DISK_NAME
: der Name eines vorhandenen nichtflüchtigen Speichers.EXISTING_PERSISTENT_DISK_LOCATION
: die Speicherort eines vorhandenen nichtflüchtigen Speichers. Für jede vorhandene zonale Nichtflüchtiger Speicher muss der Speicherort des Jobs die Zone des Laufwerks sein. für muss der Speicherort des Jobs entweder die Region des Laufwerks oder, bei Angabe von Zonen, eine oder beiden spezifischen Zonen, in denen der regionale nichtflüchtige Speicher befindet. Wenn Sie keine vorhandenen nichtflüchtigen Laufwerke angeben, können Sie einen beliebigen Speicherort auswählen. Weitere Informationen zum FeldallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: die Größe des den neuen nichtflüchtigen Speicher in GB. Die zulässigen Größen hängen vom Typ des nichtflüchtigen Speichers ab. Die Mindestgröße beträgt jedoch häufig 10 GB (10
) und die maximale Größe 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: den Laufwerktyp des neuen nichtflüchtigen Speichers, entwederpd-standard
,pd-balanced
,pd-ssd
oderpd-extreme
. Der Standardlaufwerktyp für nichtflüchtige Laufwerke, die nicht als Bootlaufwerk dienen, istpd-standard
.NEW_PERSISTENT_DISK_NAME
: Name des neuen nichtflüchtigen Laufwerks.
Wenn Sie mit einer VM-Instanzvorlage für diesen Job, wie oben gezeigt eine JSON-Datei erstellen, außer dass Feld „
instances
“ Dabei gilt:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
wobei
INSTANCE_TEMPLATE_NAME
der Name ist der Instanzvorlage für diesen Job. Bei einem Job, der nichtflüchtige Laufwerke verwendet, müssen in dieser Instanzvorlage die nichtflüchtigen Laufwerke definiert und angehängt werden, die für den Job verwendet werden sollen. In diesem Beispiel Die Vorlage muss einen neuen nichtflüchtigen Speicher namensNEW_PERSISTENT_DISK_NAME
und und hängen Sie einen vorhandenen nichtflüchtigen Speicher mit dem NamenEXISTING_PERSISTENT_DISK_NAME
.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
Im folgenden Beispiel wird mit der Batch API ein Job erstellt, mit dem ein vorhandener und ein neuer nichtflüchtiger Speicher angehängt und bereitgestellt werden. Der Job hat drei Aufgaben, bei denen jeweils ein Script ausgeführt wird, um eine Datei auf dem neuen nichtflüchtigen Laufwerk namens output_task_TASK_INDEX.txt
zu erstellen. Dabei ist TASK_INDEX der Index der jeweiligen Aufgabe: 0, 1 und 2.
Verwenden Sie die jobs.create
-Methode, um mit der Batch API einen Job zu erstellen, der nichtflüchtige Speicher nutzt.
Geben Sie in der Anfrage die nichtflüchtigen Speicher in der
instances
und stellen Sie den nichtflüchtigen Speicher im Feld volumes
bereit.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, stellen Sie die folgende Anfrage:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
: die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: Der Name des Jobs.EXISTING_PERSISTENT_DISK_NAME
: der Name eines vorhandenen nichtflüchtigen Speichers.EXISTING_PERSISTENT_DISK_LOCATION
: der Speicherort eines vorhandenen nichtflüchtigen Speichers. Für jedes vorhandene zonale Laufwerk muss der Speicherort des Jobs die Zone des Laufwerks sein. Für jedes vorhandene regionale Laufwerk muss der Speicherort des Jobs entweder die Region des Laufwerks oder, wenn Zonen angegeben werden, eine oder beide der Zonen sein, in denen sich das regionale Laufwerk befindet. Wenn Sie keine vorhandene persistente können Sie einen beliebigen Speicherort auswählen. Weitere Informationen zum FeldallowedLocations
NEW_PERSISTENT_DISK_SIZE
: die Größe des den neuen nichtflüchtigen Speicher in GB. Die zulässigen Größen hängen vom Typ des nichtflüchtigen Speichers ab. Die Mindestgröße beträgt jedoch häufig 10 GB (10
) und die maximale Größe 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: den Laufwerktyp des neuen nichtflüchtigen Speichers, entwederpd-standard
,pd-balanced
,pd-ssd
oderpd-extreme
. Der Standardlaufwerktyp für nichtflüchtige Laufwerke, die nicht als Bootlaufwerk dienen, istpd-standard
.NEW_PERSISTENT_DISK_NAME
: Name des neuen nichtflüchtigen Laufwerks.
Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, erstellen Sie eine JSON-Datei wie oben gezeigt. Ersetzen Sie dabei das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name der Instanzvorlage für diesen Job. Für einen Job, bei dem nichtflüchtigen Speichers definieren und anhängen, nichtflüchtige Speicher, die der Job verwenden soll. In diesem Beispiel muss die Vorlage ein neues nichtflüchtiges Laufwerk mit dem NamenNEW_PERSISTENT_DISK_NAME
definieren und anhängen sowie ein vorhandenes nichtflüchtiges Laufwerk mit dem NamenEXISTING_PERSISTENT_DISK_NAME
anhängen.
C++
Um einen Batchjob zu erstellen, der neue oder vorhandene verwendet
nichtflüchtige Speicher mit
die Cloud-Clientbibliotheken für C++, verwenden Sie
CreateJob
-Funktion
und Folgendes enthalten:
- Wenn Sie nichtflüchtige Laufwerke für einen Job an die VMs anhängen möchten, geben Sie einen der folgenden Befehle ein:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, verwenden Sie die Methode
set_remote_path
. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, verwenden Sie die Methode
set_instance_template
.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, verwenden Sie die Methode
- Verwenden Sie das Feld
volumes
zusammen mit den FelderndeviceName
undmountPath
, um die nichtflüchtigen Laufwerke mit dem Job zu verbinden. Bei neuen nichtflüchtigen Speichern gilt: verwenden Sie das FeldmountOptions
, um den Schreibvorgang zu ermöglichen.
Ein Codebeispiel für einen ähnlichen Anwendungsfall finden Sie unter Cloud Storage-Bucket verwenden
Go
Um einen Batchjob zu erstellen, der neue oder vorhandene verwendet
nichtflüchtige Speicher mit
die Cloud-Clientbibliotheken für Go, verwenden Sie
CreateJob
-Funktion
und Folgendes enthalten:
- So hängen Sie nichtflüchtige Speicher für einen Job an die VMs an:
eines der folgenden Elemente enthalten:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
Fügen Sie den Typ
AllocationPolicy_AttachedDisk
hinzu. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden,
Fügen Sie den Typ
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
hinzu.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
Fügen Sie den Typ
- Stellen Sie die nichtflüchtigen Speicher für den Job mit der Methode
Volume
-Typ mit dem TypVolume_DeviceName
undMountPath
ein. Verwenden Sie für neue nichtflüchtige Speicher auch dieMountOptions
, um den Schreibvorgang zu ermöglichen.
Java
Um einen Batchjob zu erstellen, der neue oder vorhandene verwendet
nichtflüchtige Speicher mit
die Cloud-Clientbibliotheken für Java, verwenden Sie
CreateJobRequest
Kurs
und Folgendes enthalten:
- So hängen Sie nichtflüchtige Speicher für einen Job an die VMs an:
eines der folgenden Elemente enthalten:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, geben Sie die
setDisks
-Methode an. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, fügen Sie die
setInstanceTemplate
-Methode hinzu.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden, geben Sie die
- Stellen Sie die nichtflüchtigen Speicher für den Job mit der Methode
Volume
Kurs mit der MethodesetDeviceName
undsetMountPath
-Methode. Verwenden Sie für neue nichtflüchtige Speicher ebenfalls die MethodesetMountOptions
, um das Schreiben zu aktivieren.
Verwenden Sie beispielsweise das folgende Codebeispiel:
Node.js
Um einen Batchjob zu erstellen, der neue oder vorhandene verwendet
nichtflüchtige Speicher mit
Die Cloud-Clientbibliotheken für Node.js verwenden die Methode
createJob
-Methode
und Folgendes enthalten:
- Wenn Sie nichtflüchtige Laufwerke für einen Job an die VMs anhängen möchten, geben Sie einen der folgenden Befehle ein:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
enthalten die Klasse
AllocationPolicy.AttachedDisk
. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, fügen Sie die Property
instanceTemplate
hinzu.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
enthalten die Klasse
- Stellen Sie die nichtflüchtigen Speicher für den Job mit der Methode
Volume
Kurs mit der PropertydeviceName
undmountPath
-Property. Verwenden Sie für neue nichtflüchtige Speicher auch diemountOptions
-Property um das Schreiben zu ermöglichen.
Python
Wenn Sie mit den Cloud-Clientbibliotheken für Python einen Batchjob erstellen möchten, der neue oder vorhandene persistente Laufwerke verwendet, verwenden Sie die Funktion CreateJob
und geben Sie Folgendes an:
- Wenn Sie nichtflüchtige Laufwerke für einen Job an die VMs anhängen möchten, geben Sie einen der folgenden Befehle ein:
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
enthalten die Klasse
AttachedDisk
. - Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden,
Das Attribut
instance_template
muss enthalten sein.
- Wenn Sie für diesen Job keine VM-Instanzvorlage verwenden,
enthalten die Klasse
- Stellen Sie die nichtflüchtigen Speicher für den Job mit der Methode
Volume
Kurs mit dem Attributdevice_name
undmount_path
. Verwenden Sie für neue nichtflüchtige Speicher auch das Attributmount_options
, um das Schreiben zu aktivieren.
Verwenden Sie dazu beispielsweise das folgende Codebeispiel:
Lokale SSD verwenden
Für Jobs, bei denen lokale SSDs verwendet werden, gelten die folgenden Einschränkungen:
- Alle lokalen SSDs für alle lokalen SSDs gelten.
- Instanzvorlagen Wenn Sie beim Erstellen dieses Jobs eine VM-Instanzvorlage angeben, Sie müssen alle nichtflüchtigen Speicher für diesen Job im Instanzvorlage. Wenn Sie keine Instanzvorlage verwenden möchten, müssen Sie alle nichtflüchtigen Speicher direkt in der Jobdefinition anhängen.
Sie können einen Job erstellen, der eine lokale SSD verwendet, mit der Methode
gcloud CLI, Batch API, Java oder Python verwenden.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, mit dem Sie
eine lokale SSD bereitstellt. Der Job umfasst außerdem 3 Aufgaben
Jeder dieser Server führt ein Skript aus, um eine Datei mit dem Namen
output_task_TASK_INDEX.txt
, wobei
TASK_INDEX
ist der Index jeder Aufgabe:
0
, 1
und 2
.
gcloud
So erstellen Sie einen Job, der lokale SSDs verwendet:
gcloud CLI verwenden, verwenden Sie die
gcloud batch jobs submit
-Befehl
Erstellen und binden Sie in der JSON-Konfigurationsdatei des Jobs die lokalen SSDs im Feld instances
und stellen Sie sie im Feld volumes
bereit.
Erstellen Sie eine JSON-Datei.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, erstellen Sie eine JSON-Datei mit folgendem Inhalt:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
MACHINE_TYPE
: die Maschinentyp, bei dem es sich um vordefiniert oder benutzerdefiniert, der VMs des Jobs. Die zulässige Anzahl lokaler SSDs hängt vom Maschinentyp der VMs Ihres Jobs ab.LOCAL_SSD_NAME
: der Name einer lokalen SSD, die für diesen Job erstellt wurde.LOCAL_SSD_SIZE
: die Größe von alle lokalen SSDs in GB an. Jede lokale SSD hat 375 GB, muss dieser Wert ein Vielfaches von375
GB sein. Legen Sie diesen Wert beispielsweise für zwei lokale SSDs auf750
GB fest.
Wenn Sie mit einer VM-Instanzvorlage für diesen Job, wie oben gezeigt eine JSON-Datei erstellen, außer dass Feld „
instances
“ Dabei gilt:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
wobei
INSTANCE_TEMPLATE_NAME
der Name ist der Instanzvorlage für diesen Job. Bei einem Job, der lokale SSDs verwendet, müssen in dieser Instanzvorlage die lokalen SSDs definiert und angehängt werden, die für den Job verwendet werden sollen. In diesem Beispiel muss die Vorlage eine lokale SSD mit dem NamenLOCAL_SSD_NAME
definieren und anhängen.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: Der Name des Jobs.LOCATION
: der Standort des Jobs.JSON_CONFIGURATION_FILE
: der Pfad zu einer JSON-Datei mit den Konfigurationsdetails des Jobs.
API
So erstellen Sie einen Job, der lokale SSDs verwendet:
Batch API verwenden, verwenden Sie
jobs.create
-Methode.
Erstellen Sie in der Anfrage die lokalen SSDs in der
instances
und stellen Sie die lokalen SSDs im Feld volumes
bereit.
Wenn Sie für diesen Job keine Instanzvorlage verwenden, gehen Sie so vor: Anfrage:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
PROJECT_ID
: die Projekt-ID Ihres Projekts.LOCATION
: den Standort der Stelle.JOB_NAME
: Der Name des Jobs.MACHINE_TYPE
: Der Maschinentyp der VMs des Jobs. Dieser kann vordefiniert oder benutzerdefiniert sein. Die zulässige Anzahl lokaler SSDs hängt vom Maschinentyp der VMs Ihres Jobs ab.LOCAL_SSD_NAME
: Der Name einer lokalen SSD, die für diesen Job erstellt wurde.LOCAL_SSD_SIZE
: die Größe von alle lokalen SSDs in GB an. Jede lokale SSD hat 375 GB, muss dieser Wert ein Vielfaches von375
GB sein. Für Legen Sie diesen Wert beispielsweise für zwei lokale SSDs auf750
GB fest.
Wenn Sie für diesen Job eine VM-Instanzvorlage verwenden, erstellen Sie eine JSON-Datei wie oben gezeigt. Ersetzen Sie dabei das Feld
instances
durch Folgendes:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Dabei ist
INSTANCE_TEMPLATE_NAME
der Name. der Instanzvorlage für diesen Job. Bei einem Job, der lokale SSDs verwendet, müssen in dieser Instanzvorlage die lokalen SSDs definiert und angehängt werden, die für den Job verwendet werden sollen. In diesem Beispiel muss die Vorlage eine lokale SSD mit dem NamenLOCAL_SSD_NAME
definieren und anhängen.
Go
Java
Node.js
Python
Cloud Storage-Bucket verwenden
So erstellen Sie einen Job, der einen vorhandenen Cloud Storage-Bucket verwendet: wählen Sie eine der folgenden Methoden aus:
- Empfohlen: Sie können einen Bucket direkt auf den VMs Ihres Jobs bereitstellen, indem Sie ihn in der Jobdefinition angeben, wie in diesem Abschnitt gezeigt. Wenn der Job ausgeführt wird, wird der Bucket automatisch mithilfe von Cloud Storage FUSE
- Job mit Aufgaben erstellen, die direkt auf ein Cloud Storage-Bucket mithilfe der gcloud CLI oder Clientbibliotheken für die Cloud Storage API. Informationen zum direkten Zugriff auf einen Cloud Storage-Bucket über eine VM finden Sie in der Compute Engine-Dokumentation unter Daten in Google Cloud Storage-Buckets schreiben und daraus lesen.
Bevor Sie einen Job erstellen, der einen Bucket verwendet, erstellen Sie einen Bucket oder identifizieren Sie einen vorhanden ist. Weitere Informationen finden Sie unter Buckets erstellen und Buckets auflisten.
Sie können einen Job mit einem Cloud Storage-Bucket mit der Google Cloud Console, der gcloud CLI, der Batch API, C++, Go, Java, Node.js oder Python erstellen.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, bei dem ein
Cloud Storage-Bucket. Der Job hat außerdem 3 Aufgaben, die jeweils ausgeführt werden
ein Skript zum Erstellen einer Datei im Bucket namens
output_task_TASK_INDEX.txt
Dabei ist TASK_INDEX
der Index jeder Aufgabe:
0
, 1
und 2
.
Console
So erstellen Sie mit der Google Cloud Console einen Job, der einen Cloud Storage-Bucket verwendet:
Rufen Sie in der Google Cloud Console die Seite Aufgabenliste auf.
Klicken Sie auf
Erstellen. Die Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich Die Seite Jobdetails ist ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie im Feld Jobname den Jobnamen an.
Geben Sie beispielsweise
example-bucket-job
ein.Konfigurieren Sie den Abschnitt Aufgabendetails:
Fügen Sie im Fenster New Runnable (Neu ausführbar) mindestens ein Skript hinzu oder Container für die Ausführung dieses Jobs.
Gehen Sie beispielsweise so vor:
Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie das folgende Skript in das Textfeld ein:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Ersetzen Sie MOUNT_PATH durch den Bereitstellungspfad, über den die ausführbaren Dateien dieses Jobs auf einen vorhandenen Cloud Storage-Bucket zugreifen. Der Pfad muss mit
/mnt/disks/
beginnen, gefolgt von einem von Ihnen ausgewählten Verzeichnis oder Pfad. Wenn Sie diesen Bucket beispielsweise mit einem Verzeichnis namensmy-bucket
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
fest.Klicken Sie auf Fertig.
Geben Sie im Feld Task count (Aufgabenanzahl) die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
3
ein.Geben Sie im Feld Parallelität die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
(Standardeinstellung) ein.
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Für jeden Cloud Storage-Bucket, den Sie bereitstellen möchten gehen Sie so vor:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Abschnitt Volume-Typ die Option Cloud Storage-Bucket aus.
Geben Sie im Feld Name des Speicher-Buckets den Namen eines vorhandenen Buckets ein.
Geben Sie beispielsweise den Bucket ein, den Sie in der ausführbaren Datei dieses Jobs angegeben haben.
Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad des Bucket (MOUNT_PATH), den Sie das im Runnable angegeben ist.
Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Wenn Sie die Jobkonfiguration überprüfen möchten, klicken Sie im linken Bereich auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
So erstellen Sie einen Job, der einen Cloud Storage-Bucket verwendet, mithilfe der Methode
gcloud CLI verwenden, verwenden Sie die
gcloud batch jobs submit
-Befehl
Stellen Sie den Bucket in der JSON-Konfigurationsdatei des Jobs im
volumes
.
So erstellen Sie beispielsweise einen Job, der Dateien an einen Cloud Storage ausgibt:
Erstellen Sie eine package.json-Datei mit folgendem Inhalt:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
BUCKET_PATH
: Der Pfad zum Bucket-Verzeichnis, auf das dieser Job zugreifen soll. Er muss mit dem Namen des Buckets beginnen. Für einen Bucket mit dem NamenBUCKET_NAME
, der PfadBUCKET_NAME
steht für das Stammverzeichnis des Buckets und des PfadsBUCKET_NAME/subdirectory
steht für das Unterverzeichnissubdirectory
.MOUNT_PATH
: der Bereitstellungspfad des Jobs die Runnables verwenden, um auf diesen Bucket zuzugreifen. Der Pfad muss mit/mnt/disks/
gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Für Wenn Sie diesen Bucket mit einem Verzeichnis namensmy-bucket
, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
fest.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: Der Name des Jobs.LOCATION
: den Standort der Stelle.JSON_CONFIGURATION_FILE
: der Pfad zu einer JSON-Datei mit den Konfigurationsdetails des Jobs.
API
So erstellen Sie einen Job, der einen Cloud Storage-Bucket verwendet, mithilfe der Methode
Batch API verwenden, verwenden Sie
jobs.create
-Methode
und stellen Sie den Bucket im Feld volumes
bereit.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Ersetzen Sie Folgendes:
PROJECT_ID
: die Projekt-ID Ihres Projekts.LOCATION
: den Standort der Stelle.JOB_NAME
: der Name des Jobs.BUCKET_PATH
: Pfad des Bucket-Verzeichnisses auf den dieser Job zugreifen soll. Er muss mit dem Namen des Buckets. Für einen Bucket namensBUCKET_NAME
, der PfadBUCKET_NAME
steht für die Wurzel. Verzeichnis des Buckets und PfadBUCKET_NAME/subdirectory
steht für das Unterverzeichnissubdirectory
.MOUNT_PATH
: der Bereitstellungspfad des Jobs die Runnables verwenden, um auf diesen Bucket zuzugreifen. Der Pfad muss mit/mnt/disks/
gefolgt von einem Verzeichnis oder Pfad Ihrer Wahl. Wenn Sie diesen Bucket beispielsweise mit einem im Verzeichnismy-bucket
, legen Sie den Bereitstellungspfad auf/mnt/disks/my-bucket
.
C++
C++
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch C++ API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Go
Go
Weitere Informationen finden Sie in der Batch Go API Referenzdokumentation.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Java
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Java API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Node.js
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Node.js API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Batch Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Batch zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Netzwerkdateisystem verwenden
Sie können einen Job erstellen, der ein vorhandenes Network File System (NFS) verwendet, wie eine Filestore-Dateifreigabe über die Google Cloud Console, die gcloud CLI oder Batch API
Bevor Sie einen Job erstellen, der ein NFS verwendet, prüfen Sie, ob die Firewall Ihres Netzwerks richtig konfiguriert ist, um den Traffic zwischen den VMs Ihres Jobs und dem NFS zuzulassen. Weitere Informationen finden Sie unter Firewallregeln für Filestore konfigurieren.
Im folgenden Beispiel wird beschrieben, wie Sie einen Job erstellen, der
stellt ein NFS bereit. Der Job enthält außerdem drei Aufgaben, bei denen jeweils ein Script ausgeführt wird, um eine Datei im NFS mit dem Namen output_task_TASK_INDEX.txt
zu erstellen. Dabei ist TASK_INDEX
der Index der einzelnen Aufgaben: 0
, 1
und 2
.
Console
So erstellen Sie einen Job, der ein NFS verwendet, mit der Google Cloud Console:
Rufen Sie in der Google Cloud Console die Seite Jobliste auf.
Klicken Sie auf
Erstellen. Die Seite Batchjob erstellen wird geöffnet. Im linken Bereich ist die Seite Jobdetails ausgewählt.Konfigurieren Sie die Seite Jobdetails:
Optional: Passen Sie den Jobnamen im Feld Jobname an.
Geben Sie beispielsweise
example-nfs-job
ein.Konfigurieren Sie den Abschnitt Aufgabendetails:
Fügen Sie im Fenster New Runnable (Neu ausführbar) mindestens ein Skript hinzu oder Container für die Ausführung dieses Jobs.
Gehen Sie beispielsweise so vor:
Klicken Sie das Kästchen Script an. Ein Textfeld wird angezeigt.
Geben Sie in das Textfeld das folgende Script ein:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Ersetzen Sie MOUNT_PATH durch den Bereitstellungspfad, den die ausführbare Datei des Jobs für den Zugriff auf dieses NFS verwendet. Der Pfad muss mit
/mnt/disks/
beginnen, gefolgt von einem von Ihnen ausgewählten Verzeichnis oder Pfad. Wenn Sie diesen NFS beispielsweise mit einem Verzeichnis namensmy-nfs
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.Klicken Sie auf Fertig.
Geben Sie im Feld Task count (Aufgabenanzahl) die Anzahl der Aufgaben für diesen Job ein.
Geben Sie beispielsweise
3
ein.Geben Sie im Feld Parallelität die Anzahl der Aufgaben ein, die gleichzeitig ausgeführt werden sollen.
Geben Sie beispielsweise
1
(Standardeinstellung) ein.
Konfigurieren Sie die Seite Zusätzliche Konfigurationen:
Klicken Sie im linken Bereich auf Zusätzliche Konfigurationen. Die Seite Zusätzliche Konfigurationen wird geöffnet.
Für jeden Cloud Storage-Bucket, den Sie bereitstellen möchten gehen Sie so vor:
Klicken Sie im Abschnitt Speichervolumen auf Neues Volume hinzufügen. Das Fenster Neues Volume wird angezeigt.
Führen Sie im Fenster Neues Volume die folgenden Schritte aus:
Wählen Sie im Bereich Volume-Typ die Option Network File System aus.
Geben Sie in das Feld Dateiserver die IP-Adresse des Server mit dem NFS, den Sie in der ausführbaren Datei dieses Jobs angegeben haben, befindet.
Wenn Ihr NFS beispielsweise ein Filestore-Dateifreigabe, Geben Sie dann die IP-Adresse von Filestore an. die Sie erhalten, indem Sie beschreiben der Filestore-Instanz
Geben Sie im Feld Remote-Pfad einen Pfad ein, über den auf das im vorherigen Schritt angegebene NFS zugegriffen werden kann.
Der Pfad des NFS-Verzeichnisses muss mit
/
beginnen, gefolgt vom Stammverzeichnis des NFS.Geben Sie im Feld Bereitstellungspfad den Bereitstellungspfad zum NFS ein (MOUNT_PATH), die Sie in aus dem vorherigen Schritt.
Klicken Sie auf Fertig.
Optional: Konfigurieren Sie die anderen Felder für diesen Job.
Optional: Wenn Sie die Jobkonfiguration überprüfen möchten, klicken Sie im linken Bereich auf Vorschau.
Klicken Sie auf Erstellen.
Auf der Seite Jobdetails wird der von Ihnen erstellte Job angezeigt.
gcloud
So erstellen Sie einen Job, der ein NFS verwendet, mithilfe der Methode
gcloud CLI verwenden, verwenden Sie die
gcloud batch jobs submit
-Befehl
Stellen Sie das NFS in der JSON-Konfigurationsdatei des Jobs in der
volumes
.
Erstellen Sie eine package.json-Datei mit folgendem Inhalt:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Ersetzen Sie Folgendes:
NFS_IP_ADDRESS
: die IP-Adresse des NFS. Wenn Ihr NFS beispielsweise eine Filestore-Dateifreigabe ist, geben Sie die IP-Adresse der Filestore-Instanz an. Sie können sie erhalten, indem Sie die Filestore-Instanz beschreiben.NFS_PATH
: Der Pfad zum NFS-Verzeichnis, auf das dieser Job zugreifen soll. Er muss mit einem/
beginnen, gefolgt vom Stammverzeichnis des NFS. Beispiel: Für eine Filestore-Dateifreigabe namensFILE_SHARE_NAME
, der Pfad/FILE_SHARE_NAME
steht für die Wurzel Verzeichnis der Dateifreigabe und den Pfad/FILE_SHARE_NAME/subdirectory
steht für das Unterverzeichnissubdirectory
.MOUNT_PATH
: Der Bereitstellungspfad, über den die ausführbaren Dateien des Jobs auf dieses NFS zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad, den Sie auswählen. Wenn Sie diesen NFS beispielsweise mit einem Verzeichnis namensmy-nfs
darstellen möchten, legen Sie den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.
Führen Sie dazu diesen Befehl aus:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Ersetzen Sie Folgendes:
JOB_NAME
: der Name des Jobs.LOCATION
: den Standort der Stelle.JSON_CONFIGURATION_FILE
: der Pfad für eine JSON-Datei mit den Konfigurationsdetails des Jobs.
API
So erstellen Sie einen Job, der ein NFS verwendet, mithilfe der Methode
Batch API verwenden, verwenden Sie
jobs.create
-Methode
und stellen Sie das NFS im Feld volumes
bereit.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Ersetzen Sie Folgendes:
PROJECT_ID
: die Projekt-ID Ihres Projekts.LOCATION
: der Standort des Jobs.JOB_NAME
: Der Name des Jobs.NFS_IP_ADDRESS
: die IP-Adresse des Network File Systems. Wenn zum Beispiel NFS ist eine Filestore-Dateifreigabe, die IP-Adresse von Filestore angeben die Sie erhalten, indem Sie beschreiben der Filestore-InstanzNFS_PATH
: Pfad des NFS-Verzeichnisses auf den dieser Job zugreifen soll. Er muss mit einem/
beginnen. gefolgt vom Stammverzeichnis des NFS. Bei einer Filestore-Dateifreigabe mit dem NamenFILE_SHARE_NAME
steht der Pfad/FILE_SHARE_NAME
beispielsweise für das Stammverzeichnis der Dateifreigabe und der Pfad/FILE_SHARE_NAME/subdirectory
für ein Unterverzeichnis.MOUNT_PATH
: Der Bereitstellungspfad, über den die ausführbaren Dateien des Jobs auf dieses NFS zugreifen. Der Pfad muss mit/mnt/disks/
beginnen, gefolgt von einem Verzeichnis oder Pfad, den Sie auswählen. Wenn Sie dieses NFS beispielsweise mit einem Verzeichnis namensmy-nfs
den Bereitstellungspfad auf/mnt/disks/my-nfs
fest.
Java
Node.js
Python
Nächste Schritte
- Wenn beim Erstellen oder Ausführen eines Jobs Probleme auftreten, lesen Sie den Abschnitt Fehlerbehebung.
- Aufträge und Aufgaben ansehen
- Weitere Informationen zu Optionen für die Joberstellung