Membuat dan menjalankan tugas yang menggunakan volume penyimpanan

Dokumen ini menjelaskan cara membuat dan menjalankan tugas Batch yang menggunakan satu atau beberapa volume penyimpanan eksternal. Opsi penyimpanan eksternal mencakup disk persisten baru atau yang sudah ada, SSD lokal baru, bucket Cloud Storage yang ada, dan sistem file jaringan (NFS) yang ada seperti berbagi file Filestore.

Terlepas dari apakah Anda menambahkan volume penyimpanan eksternal, setiap VM Compute Engine untuk tugas memiliki disk booting, yang menyediakan penyimpanan untuk image dan petunjuk sistem operasi (OS) tugas. Untuk informasi tentang cara mengonfigurasi disk booting untuk tugas, lihat Ringkasan lingkungan OS VM.

Sebelum memulai

  1. Jika belum pernah menggunakan Batch, baca Mulai menggunakan Batch dan aktifkan Batch dengan menyelesaikan prasyarat untuk project dan pengguna.
  2. Untuk mendapatkan izin yang diperlukan untuk membuat tugas, minta administrator untuk memberi Anda peran IAM berikut:

    Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses ke project, folder, dan organisasi.

    Anda mungkin juga bisa mendapatkan izin yang diperlukan melalui peran khusus atau peran bawaan lainnya.

Membuat tugas yang menggunakan volume penyimpanan

Secara opsional, tugas dapat menggunakan satu atau beberapa jenis volume penyimpanan external berikut. Untuk mengetahui informasi selengkapnya tentang semua jenis volume penyimpanan serta perbedaan dan batasan untuk setiap volume, lihat dokumentasi untuk Opsi penyimpanan VM Compute Engine.

Anda dapat mengizinkan tugas menggunakan setiap volume penyimpanan dengan menyertakannya dalam definisi tugas dan menentukan jalur pemasangan (mountPath) dalam runnable. Untuk mempelajari cara membuat tugas yang menggunakan volume penyimpanan, lihat satu atau beberapa bagian berikut:

Menggunakan persistent disk

Tugas yang menggunakan persistent disk memiliki batasan berikut:

  • Semua persistent disk: Tinjau batasan untuk semua persistent disk.

  • Persistent disk baru versus yang sudah ada: Setiap persistent disk dalam tugas dapat berupa baru (ditentukan dalam dan dibuat dengan tugas) atau sudah ada (sudah dibuat dalam project Anda dan ditentukan dalam tugas). Untuk menggunakan persistent disk, persistent disk harus diformat dan dipasang ke VM tugas, yang harus berada di lokasi yang sama dengan persistent disk. Batch memasang persistent disk yang Anda sertakan dalam tugas dan memformat persistent disk baru, tetapi Anda harus memformat dan melepas pemasangan persistent disk yang ada yang ingin Anda gunakan untuk tugas.

    Opsi lokasi, opsi format, dan opsi pemasangan yang didukung bervariasi antara disk persisten baru dan yang sudah ada seperti yang dijelaskan dalam tabel berikut:

    Persistent disk baru Persistent disk yang ada
    Opsi format

    Persistent disk diformat secara otomatis dengan sistem file ext4.

    Anda harus memformat disk persisten untuk menggunakan sistem file ext4 sebelum menggunakannya untuk tugas.

    Opsi pemasangan

    Semua opsi didukung.

    Semua opsi kecuali menulis didukung. Hal ini disebabkan oleh pembatasan mode multi-penulis.

    Anda harus melepaskan persistent disk dari VM yang terpasang sebelum menggunakannya untuk tugas.

    Opsi lokasi

    Anda hanya dapat membuat persistent disk zonal.

    Anda dapat memilih lokasi mana pun untuk tugas Anda. Persistent disk dibuat di zona tempat project Anda berjalan.

    Anda dapat memilih persistent disk zonal dan regional.


    Anda harus menetapkan lokasi tugas (atau, jika ditentukan, hanya lokasi yang diizinkan tugas) ke hanya lokasi yang berisi semua disk persisten tugas. Misalnya, untuk persistent disk zona, lokasi tugas harus berupa zona disk; untuk persistent disk regional, lokasi tugas harus berupa region disk atau, jika menentukan zona, satu atau kedua zona tertentu tempat persistent disk regional berada.

  • Template instance: Jika ingin menggunakan template instance VM saat membuat tugas ini, Anda harus melampirkan persistent disk untuk tugas ini dalam template instance. Jika tidak, jika Anda tidak ingin menggunakan template instance, Anda harus melampirkan persistent disk apa pun secara langsung dalam definisi tugas.

Anda dapat membuat tugas yang menggunakan disk persisten menggunakan konsol Google Cloud, gcloud CLI, Batch API, C++, Go, Java, Node.js, atau Python.

Konsol

Dengan menggunakan konsol Google Cloud, contoh berikut membuat tugas yang menjalankan skrip untuk membaca file dari disk persisten zonal yang ada dan terletak di zona us-central1-a. Contoh skrip mengasumsikan bahwa tugas memiliki disk persisten zonal yang ada yang berisi file teks bernama example.txt di direktori root.

Opsional: Membuat contoh persistent disk zonal

Jika Anda ingin membuat persistent disk zona yang dapat digunakan untuk menjalankan contoh skrip, lakukan hal berikut sebelum membuat tugas:

  1. Lampirkan persistent kosong baru bernama example-disk ke VM Linux di zona us-central1-a, lalu jalankan perintah di VM untuk memformat dan memasang disk. Untuk mengetahui petunjuknya, lihat Menambahkan persistent disk ke VM.

    Jangan putuskan koneksi dari VM.

  2. Untuk membuat example.txt di disk persisten, jalankan perintah berikut di VM:

    1. Untuk mengubah direktori kerja saat ini ke direktori root persistent disk, ketik perintah berikut:

      cd VM_MOUNT_PATH
      

      Ganti VM_MOUNT_PATH dengan jalur ke direktori tempat persistent disk dipasang ke VM ini pada langkah sebelumnya—misalnya, /mnt/disks/example-disk.

    2. Tekan Enter.

    3. Untuk membuat dan menentukan file bernama example.txt, ketikkan perintah berikut:

      cat > example.txt
      
    4. Tekan Enter.

    5. Ketik konten file. Misalnya, ketik Hello world!.

    6. Untuk menyimpan file, tekan Ctrl+D (atau Command+D di macOS).

    Setelah selesai, Anda dapat memutuskan koneksi dari VM.

  3. Lepaskan persistent disk dari VM.

    • Jika tidak lagi memerlukan VM, Anda dapat menghapus VM, yang akan otomatis melepaskan persistent disk.

    • Jika tidak, lepaskan persistent disk. Untuk petunjuknya, lihat Melepaskan dan memasang kembali boot disk dan lepaskan persistent disk example-disk, bukan boot disk VM.

Membuat tugas yang menggunakan persistent disk zona yang ada

Untuk membuat tugas yang menggunakan disk persisten zonal yang ada menggunakan konsol Google Cloud, lakukan hal berikut:

  1. Di konsol Google Cloud, buka halaman Daftar tugas.

    Buka Daftar tugas

  2. Klik Create. Halaman Create batch job akan terbuka. Di panel kiri, halaman Detail tugas dipilih.

  3. Konfigurasikan halaman Detail tugas:

    1. Opsional: Di kolom Nama tugas, sesuaikan nama tugas.

      Misalnya, masukkan example-disk-job.

    2. Konfigurasikan bagian Detail tugas:

      1. Di jendela New runnable, tambahkan minimal satu skrip atau penampung agar tugas ini dapat dijalankan.

        Misalnya, untuk menjalankan skrip yang mencetak konten file yang bernama example.txt dan terletak di direktori utama persistent disk yang digunakan tugas ini, lakukan tindakan berikut:

        1. Centang kotak Script. Kotak teks akan muncul.

        2. Di kotak teks, masukkan skrip berikut:

          echo "Here is the content of the example.txt file in the persistent disk."
          cat MOUNT_PATH/example.txt
          

          Ganti MOUNT_PATH dengan jalur ke tempat Anda berencana memasang persistent disk ke VM untuk tugas ini, misalnya, /mnt/disks/example-disk.

        3. Klik Done.

      2. Di kolom Task count, masukkan jumlah tugas untuk tugas ini.

        Misalnya, masukkan 1 (default).

      3. Di kolom Parallelism, masukkan jumlah tugas yang akan berjalan secara serentak.

        Misalnya, masukkan 1 (default).

  4. Konfigurasi halaman Spesifikasi resource:

    1. Di panel kiri, klik Spesifikasi resource. Halaman Resource specifications akan terbuka.

    2. Pilih lokasi untuk tugas ini. Untuk menggunakan persistent disk zona yang ada, VM tugas harus berada di zona yang sama.

      1. Di kolom Region, pilih region.

        Misalnya, untuk menggunakan contoh persistent disk zona, pilih us-central1 (Iowa) (default).

      2. Di kolom Zone, pilih zona.

        Misalnya, pilih us-central1-a (Iowa).

  5. Konfigurasi halaman Konfigurasi tambahan:

    1. Di panel kiri, klik Konfigurasi tambahan. Halaman Konfigurasi tambahan akan terbuka.

    2. Untuk setiap persistent disk zona yang ada yang ingin Anda pasang ke tugas ini, lakukan hal berikut:

      1. Di bagian Storage volume, klik Add new volume. Jendela Volume baru akan muncul.

      2. Di jendela New volume, lakukan hal berikut:

        1. Di bagian Volume type, pilih Persistent disk (default).

        2. Dalam daftar Disk, pilih persistent disk zona yang ada yang ingin Anda pasang ke tugas ini. Disk harus berada di zona yang sama dengan tugas ini.

          Misalnya, pilih persistent disk zonal yang ada yang Anda siapkan, yang terletak di zona us-central1-a dan berisi file example.txt.

        3. Opsional: Jika Anda ingin mengganti nama persistent disk zonal ini, lakukan tindakan berikut:

          1. Pilih Sesuaikan nama perangkat.

          2. Di kolom Device name, masukkan nama baru untuk disk Anda.

        4. Di kolom Mount path, masukkan jalur pemasangan (MOUNT_PATH) untuk persistent disk ini:

          Misalnya, masukkan hal berikut:

          /mnt/disks/EXISTING_PERSISTENT_DISK_NAME
          

          Ganti EXISTING_PERSISTENT_DISK_NAME dengan nama disk. Jika Anda mengganti nama persistent disk zonal, gunakan nama baru.

          Misalnya, ganti EXISTING_PERSISTENT_DISK_NAME dengan example-disk.

        5. Klik Done.

  6. Opsional: Konfigurasikan kolom lain untuk tugas ini.

  7. Opsional: Untuk meninjau konfigurasi tugas, di panel kiri, klik Pratinjau.

  8. Klik Create.

Halaman Detail tugas menampilkan tugas yang Anda buat.

gcloud

Dengan menggunakan gcloud CLI, contoh berikut membuat tugas yang memasang dan memasang persistent disk yang ada dan persistent disk baru. Tugas ini memiliki 3 tugas yang masing-masing menjalankan skrip untuk membuat file di disk persisten baru bernama output_task_TASK_INDEX.txt dengan TASK_INDEX adalah indeks setiap tugas: 0, 1, dan 2.

Untuk membuat tugas yang menggunakan persistent disk menggunakan gcloud CLI, gunakan perintah gcloud batch jobs submit. Dalam file konfigurasi JSON tugas, tentukan persistent disk di kolom instances dan pasang persistent disk di kolom volumes.

  1. Buat file JSON.

    • Jika Anda tidak menggunakan template instance untuk tugas ini, buat file JSON dengan konten berikut:

      {
          "allocationPolicy": {
              "instances": [
                  {
                      "policy": {
                          "disks": [
                              {
                                  "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                                  "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME"
                              },
                              {
                                  "newDisk": {
                                      "sizeGb": NEW_PERSISTENT_DISK_SIZE,
                                      "type": "NEW_PERSISTENT_DISK_TYPE"
                                  },
                                  "deviceName": "NEW_PERSISTENT_DISK_NAME"
                              }
                          ]
                      }
                  }
              ],
              "location": {
                  "allowedLocations": [
                      "EXISTING_PERSISTENT_DISK_LOCATION"
                  ]
              }
          },
          "taskGroups": [
              {
                  "taskSpec": {
                      "runnables": [
                          {
                              "script": {
                                  "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                              }
                          }
                      ],
                      "volumes": [
                          {
                              "deviceName": "NEW_PERSISTENT_DISK_NAME",
                              "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME",
                              "mountOptions": "rw,async"
                          },
                          {
      
                              "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                              "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME"
                          }
                      ]
                  },
                  "taskCount":3
              }
          ],
          "logsPolicy": {
              "destination": "CLOUD_LOGGING"
          }
      }
      

      Ganti kode berikut:

      • PROJECT_ID: Project ID project Anda.
      • EXISTING_PERSISTENT_DISK_NAME: nama persistent disk yang ada.
      • EXISTING_PERSISTENT_DISK_LOCATION: lokasi persistent disk yang ada. Untuk setiap persistent disk zona yang ada, lokasi tugas harus berupa zona disk; untuk setiap persistent disk regional yang ada, lokasi tugas harus berupa region disk atau, jika menentukan zona, satu atau kedua zona tertentu tempat persistent disk regional berada. Jika tidak menentukan disk persisten yang ada, Anda dapat memilih lokasi mana pun. Pelajari kolom allowedLocations lebih lanjut.
      • NEW_PERSISTENT_DISK_SIZE: ukuran persistent disk baru dalam GB. Ukuran yang diizinkan bergantung pada jenis persistent disk, tetapi ukuran minimumnya sering kali 10 GB (10) dan ukuran maksimumnya sering kali 64 TB (64000).
      • NEW_PERSISTENT_DISK_TYPE: jenis disk persistent disk baru, baik pd-standard, pd-balanced, pd-ssd, maupun pd-extreme. Jenis disk default untuk persistent disk non-boot adalah pd-standard.
      • NEW_PERSISTENT_DISK_NAME: nama persistent disk baru.
    • Jika Anda menggunakan template instance VM untuk tugas ini, buat file JSON seperti yang ditunjukkan sebelumnya, kecuali ganti kolom instances dengan yang berikut ini:

      "instances": [
          {
              "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
          }
      ],
      

      dengan INSTANCE_TEMPLATE_NAME adalah nama template instance untuk tugas ini. Untuk tugas yang menggunakan disk persisten, template instance ini harus menentukan dan melampirkan disk persisten yang ingin Anda gunakan untuk tugas. Untuk contoh ini, template harus menentukan dan melampirkan persistent disk baru bernama NEW_PERSISTENT_DISK_NAME dan serta melampirkan persistent disk yang ada bernama EXISTING_PERSISTENT_DISK_NAME.

  2. Jalankan perintah berikut:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Ganti kode berikut:

    • JOB_NAME: nama tugas.

    • LOCATION: lokasi tugas.

    • JSON_CONFIGURATION_FILE: jalur untuk file JSON dengan detail konfigurasi tugas.

API

Dengan menggunakan Batch API, contoh berikut membuat tugas yang melampirkan dan memasang persistent disk yang ada dan persistent disk baru. Tugas ini memiliki 3 tugas yang masing-masing menjalankan skrip untuk membuat file di disk persisten baru yang bernama output_task_TASK_INDEX.txt dengan TASK_INDEX adalah indeks setiap tugas: 0, 1, dan 2.

Untuk membuat tugas yang menggunakan disk persisten menggunakan Batch API, gunakan metode jobs.create. Dalam permintaan, tentukan persistent disk di kolom instances dan pasang persistent disk di kolom volumes.

  • Jika Anda tidak menggunakan template instance untuk tugas ini, buat permintaan berikut:

    POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
    
    {
        "allocationPolicy": {
            "instances": [
                {
                    "policy": {
                        "disks": [
                            {
                                "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                                "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME"
                            },
                            {
                                "newDisk": {
                                    "sizeGb": NEW_PERSISTENT_DISK_SIZE,
                                    "type": "NEW_PERSISTENT_DISK_TYPE"
                                },
                                "deviceName": "NEW_PERSISTENT_DISK_NAME"
                            }
                        ]
                    }
                }
            ],
            "location": {
                "allowedLocations": [
                    "EXISTING_PERSISTENT_DISK_LOCATION"
                ]
            }
        },
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "deviceName": "NEW_PERSISTENT_DISK_NAME",
                            "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME",
                            "mountOptions": "rw,async"
                        },
                        {
    
                            "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                            "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME"
                        }
                    ]
                },
                "taskCount":3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Ganti kode berikut:

    • PROJECT_ID: Project ID project Anda.
    • LOCATION: lokasi tugas.
    • JOB_NAME: nama tugas.
    • EXISTING_PERSISTENT_DISK_NAME: nama persistent disk yang ada.
    • EXISTING_PERSISTENT_DISK_LOCATION: lokasi persistent disk yang ada. Untuk setiap persistent disk zona yang ada, lokasi tugas harus berupa zona disk; untuk setiap persistent disk regional yang ada, lokasi tugas harus berupa region disk atau, jika menentukan zona, satu atau dua zona tertentu tempat persistent disk regional berada. Jika tidak menentukan persistent disk yang ada, Anda dapat memilih lokasi mana pun. Pelajari lebih lanjut kolom allowedLocations.
    • NEW_PERSISTENT_DISK_SIZE: ukuran persistent disk baru dalam GB. Ukuran yang diizinkan bergantung pada jenis persistent disk, tetapi ukuran minimumnya sering kali 10 GB (10) dan ukuran maksimumnya sering kali 64 TB (64000).
    • NEW_PERSISTENT_DISK_TYPE: jenis disk persistent disk baru, baik pd-standard, pd-balanced, pd-ssd, maupun pd-extreme. Jenis disk default untuk persistent disk non-boot adalah pd-standard.
    • NEW_PERSISTENT_DISK_NAME: nama persistent disk baru.
  • Jika Anda menggunakan template instance VM untuk tugas ini, buat file JSON seperti yang ditunjukkan sebelumnya, kecuali ganti kolom instances dengan yang berikut ini:

    "instances": [
        {
            "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
        }
    ],
    ...
    

    Dengan INSTANCE_TEMPLATE_NAME adalah nama template instance untuk tugas ini. Untuk tugas yang menggunakan disk persisten, template instance ini harus menentukan dan melampirkan disk persisten yang ingin Anda gunakan untuk tugas. Untuk contoh ini, template harus menentukan dan melampirkan persistent disk baru bernama NEW_PERSISTENT_DISK_NAME dan serta melampirkan persistent disk yang ada bernama EXISTING_PERSISTENT_DISK_NAME.

C++

Untuk membuat tugas Batch yang menggunakan disk persisten baru atau yang sudah ada menggunakan Library Klien Cloud untuk C++, gunakan fungsi CreateJob dan sertakan hal berikut:

  • Untuk memasang persistent disk ke VM untuk tugas, sertakan salah satu dari hal berikut:
    • Jika Anda tidak menggunakan template instance VM untuk tugas ini, gunakan metode set_remote_path.
    • Jika Anda menggunakan template instance VM untuk tugas ini, gunakan metode set_instance_template.
  • Untuk memasang persistent disk ke tugas, gunakan kolom volumes dengan kolom deviceName dan mountPath. Untuk persistent disk baru, gunakan juga kolom mountOptions untuk mengaktifkan penulisan.

Untuk contoh kode kasus penggunaan serupa, lihat Menggunakan bucket Cloud Storage.

Go

Untuk membuat tugas Batch yang menggunakan disk persisten baru atau yang ada menggunakan Library Klien Cloud untuk Go, gunakan fungsi CreateJob dan sertakan hal berikut:

import (
	"context"
	"fmt"
	"io"

	batch "cloud.google.com/go/batch/apiv1"
	"cloud.google.com/go/batch/apiv1/batchpb"
	durationpb "google.golang.org/protobuf/types/known/durationpb"
)

// Creates and runs a job with persistent disk
func createJobWithPD(w io.Writer, projectID, jobName, pdName string) error {
	// jobName := job-name
	// pdName := disk-name
	ctx := context.Background()
	batchClient, err := batch.NewClient(ctx)
	if err != nil {
		return fmt.Errorf("batchClient error: %w", err)
	}
	defer batchClient.Close()

	runn := &batchpb.Runnable{
		Executable: &batchpb.Runnable_Script_{
			Script: &batchpb.Runnable_Script{
				Command: &batchpb.Runnable_Script_Text{
					Text: "echo Hello world from script 1 for task ${BATCH_TASK_INDEX}",
				},
			},
		},
	}
	volume := &batchpb.Volume{
		MountPath: fmt.Sprintf("/mnt/disks/%v", pdName),
		Source: &batchpb.Volume_DeviceName{
			DeviceName: pdName,
		},
	}

	// The disk type of the new persistent disk, either pd-standard,
	// pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced
	disk := &batchpb.AllocationPolicy_Disk{
		Type:   "pd-balanced",
		SizeGb: 10,
	}

	taskSpec := &batchpb.TaskSpec{
		ComputeResource: &batchpb.ComputeResource{
			// CpuMilli is milliseconds per cpu-second. This means the task requires 1 CPU.
			CpuMilli:  1000,
			MemoryMib: 16,
		},
		MaxRunDuration: &durationpb.Duration{
			Seconds: 3600,
		},
		MaxRetryCount: 2,
		Runnables:     []*batchpb.Runnable{runn},
		Volumes:       []*batchpb.Volume{volume},
	}

	taskGroups := []*batchpb.TaskGroup{
		{
			TaskCount: 4,
			TaskSpec:  taskSpec,
		},
	}

	labels := map[string]string{"env": "testing", "type": "container"}

	// Policies are used to define on what kind of virtual machines the tasks will run on.
	// Read more about local disks here: https://cloud.google.com/compute/docs/disks/persistent-disks
	allocationPolicy := &batchpb.AllocationPolicy{
		Instances: []*batchpb.AllocationPolicy_InstancePolicyOrTemplate{{
			PolicyTemplate: &batchpb.AllocationPolicy_InstancePolicyOrTemplate_Policy{
				Policy: &batchpb.AllocationPolicy_InstancePolicy{
					MachineType: "n1-standard-1",
					Disks: []*batchpb.AllocationPolicy_AttachedDisk{
						{
							Attached: &batchpb.AllocationPolicy_AttachedDisk_NewDisk{
								NewDisk: disk,
							},
							DeviceName: pdName,
						},
					},
				},
			},
		}},
	}

	// We use Cloud Logging as it's an out of the box available option
	logsPolicy := &batchpb.LogsPolicy{
		Destination: batchpb.LogsPolicy_CLOUD_LOGGING,
	}

	job := &batchpb.Job{
		Name:             jobName,
		TaskGroups:       taskGroups,
		AllocationPolicy: allocationPolicy,
		Labels:           labels,
		LogsPolicy:       logsPolicy,
	}

	request := &batchpb.CreateJobRequest{
		Parent: fmt.Sprintf("projects/%s/locations/%s", projectID, "us-central1"),
		JobId:  jobName,
		Job:    job,
	}

	created_job, err := batchClient.CreateJob(ctx, request)
	if err != nil {
		return fmt.Errorf("unable to create job: %w", err)
	}

	fmt.Fprintf(w, "Job created: %v\n", created_job)
	return nil
}

Java

Untuk membuat tugas Batch yang menggunakan disk persisten baru atau yang ada menggunakan Library Klien Cloud untuk Java, gunakan class CreateJobRequest dan sertakan hal berikut:

Misalnya, gunakan contoh kode berikut:


import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.AttachedDisk;
import com.google.cloud.batch.v1.AllocationPolicy.Disk;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.AllocationPolicy.LocationPolicy;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.common.collect.Lists;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreatePersistentDiskJob {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Google Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";
    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";
    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";
    // The size of the new persistent disk in GB.
    // The allowed sizes depend on the type of persistent disk,
    // but the minimum is often 10 GB (10) and the maximum is often 64 TB (64000).
    int diskSize = 10;
    // The name of the new persistent disk.
    String newPersistentDiskName = "DISK-NAME";
    // The name of an existing persistent disk.
    String existingPersistentDiskName = "EXISTING-DISK-NAME";
    // The location of an existing persistent disk. For more info :
    // https://cloud.google.com/batch/docs/create-run-job-storage#gcloud
    String location = "regions/us-central1";
    // The disk type of the new persistent disk, either pd-standard,
    // pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced.
    String newDiskType = "pd-balanced";

    createPersistentDiskJob(projectId, region, jobName, newPersistentDiskName,
            diskSize, existingPersistentDiskName, location, newDiskType);
  }

  // Creates a job that attaches and mounts an existing persistent disk and a new persistent disk
  public static Job createPersistentDiskJob(String projectId, String region, String jobName,
                                            String newPersistentDiskName, int diskSize,
                                            String existingPersistentDiskName,
                                            String location, String newDiskType)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {
      // Define what will be done as part of the job.
      String text = "echo Hello world from task ${BATCH_TASK_INDEX}. "
              + ">> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt";
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(text)
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      TaskSpec task = TaskSpec.newBuilder()
              // Jobs can be divided into tasks. In this case, we have only one task.
              .addAllVolumes(volumes(newPersistentDiskName, existingPersistentDiskName))
              .addRunnables(runnable)
              .setMaxRetryCount(2)
              .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
              .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder()
          .setTaskCount(3)
          .setParallelism(1)
          .setTaskSpec(task)
          .build();

      // Policies are used to define the type of virtual machines the tasks will run on.
      InstancePolicy policy = InstancePolicy.newBuilder()
              .addAllDisks(attachedDisks(newPersistentDiskName, diskSize, newDiskType,
                  projectId, location, existingPersistentDiskName))
              .build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(
                  InstancePolicyOrTemplate.newBuilder()
                      .setPolicy(policy))
                  .setLocation(LocationPolicy.newBuilder().addAllowedLocations(location))
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              // We use Cloud Logging as it's an out-of-the-box option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(LogsPolicy.Destination.CLOUD_LOGGING))
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());

      return result;
    }
  }

  // Creates link to existing disk and creates configuration for new disk
  private static Iterable<AttachedDisk> attachedDisks(String newPersistentDiskName, int diskSize,
                                                      String newDiskType, String projectId,
                                                      String existingPersistentDiskLocation,
                                                      String existingPersistentDiskName) {
    AttachedDisk newDisk = AttachedDisk.newBuilder()
            .setDeviceName(newPersistentDiskName)
            .setNewDisk(Disk.newBuilder().setSizeGb(diskSize).setType(newDiskType))
            .build();

    String diskPath = String.format("projects/%s/%s/disks/%s", projectId,
            existingPersistentDiskLocation, existingPersistentDiskName);

    AttachedDisk existingDisk = AttachedDisk.newBuilder()
            .setDeviceName(existingPersistentDiskName)
            .setExistingDisk(diskPath)
            .build();

    return Lists.newArrayList(existingDisk, newDisk);
  }

  // Describes a volume and parameters for it to be mounted to a VM.
  private static Iterable<Volume> volumes(String newPersistentDiskName,
                                          String existingPersistentDiskName) {
    Volume newVolume = Volume.newBuilder()
            .setDeviceName(newPersistentDiskName)
            .setMountPath("/mnt/disks/" + newPersistentDiskName)
            .addMountOptions("rw")
            .addMountOptions("async")
            .build();

    Volume existingVolume = Volume.newBuilder()
            .setDeviceName(existingPersistentDiskName)
            .setMountPath("/mnt/disks/" + existingPersistentDiskName)
            .build();

    return Lists.newArrayList(newVolume, existingVolume);
  }
}

Node.js

Untuk membuat tugas Batch yang menggunakan disk persisten baru atau yang sudah ada menggunakan Library Klien Cloud untuk Node.js, gunakan metode createJob dan sertakan hal berikut:

// Imports the Batch library
const batchLib = require('@google-cloud/batch');
const batch = batchLib.protos.google.cloud.batch.v1;

// Instantiates a client
const batchClient = new batchLib.v1.BatchServiceClient();

/**
 * TODO(developer): Update these variables before running the sample.
 */
// Project ID or project number of the Google Cloud project you want to use.
const projectId = await batchClient.getProjectId();
// The name of the job that will be created.
// It needs to be unique for each project and region pair.
const jobName = 'batch-create-persistent-disk-job';
// Name of the region you want to use to run the job. Regions that are
// available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
const region = 'europe-central2';
// The name of an existing persistent disk.
const existingPersistentDiskName = 'existing-persistent-disk-name';
// The name of the new persistent disk.
const newPersistentDiskName = 'new-persistent-disk-name';
// The size of the new persistent disk in GB.
// The allowed sizes depend on the type of persistent disk,
// but the minimum is often 10 GB (10) and the maximum is often 64 TB (64000).
const diskSize = 10;
// The location of an existing persistent disk. For more info :
// https://cloud.google.com/batch/docs/create-run-job-storage#gcloud
const location = 'regions/us-central1';
// The disk type of the new persistent disk, either pd-standard,
// pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced.
const newDiskType = 'pd-balanced';

// Define what will be done as part of the job.
const runnable = new batch.Runnable({
  script: new batch.Runnable.Script({
    commands: [
      '-c',
      'echo Hello world! This is task ${BATCH_TASK_INDEX}.' +
        '>> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt',
    ],
  }),
});

// Define volumes and their parameters to be mounted to a VM.
const newVolume = new batch.Volume({
  deviceName: newPersistentDiskName,
  mountPath: `/mnt/disks/${newPersistentDiskName}`,
  mountOptions: ['rw', 'async'],
});

const existingVolume = new batch.Volume({
  deviceName: existingPersistentDiskName,
  mountPath: `/mnt/disks/${existingPersistentDiskName}`,
});

const task = new batch.TaskSpec({
  runnables: [runnable],
  volumes: [newVolume, existingVolume],
  maxRetryCount: 2,
  maxRunDuration: {seconds: 3600},
});

// Tasks are grouped inside a job using TaskGroups.
const group = new batch.TaskGroup({
  taskCount: 3,
  taskSpec: task,
});

const newDisk = new batch.AllocationPolicy.Disk({
  type: newDiskType,
  sizeGb: diskSize,
});

// Policies are used to define on what kind of virtual machines the tasks will run on.
// Read more about local disks here: https://cloud.google.com/compute/docs/disks/persistent-disks
const instancePolicy = new batch.AllocationPolicy.InstancePolicy({
  disks: [
    // Create configuration for new disk
    new batch.AllocationPolicy.AttachedDisk({
      deviceName: newPersistentDiskName,
      newDisk,
    }),
    // Create link to existing disk
    new batch.AllocationPolicy.AttachedDisk({
      existingDisk: `projects/${projectId}/${location}/disks/${existingPersistentDiskName}`,
      deviceName: existingPersistentDiskName,
    }),
  ],
});

const locationPolicy = new batch.AllocationPolicy.LocationPolicy({
  allowedLocations: [location],
});

const allocationPolicy = new batch.AllocationPolicy.InstancePolicyOrTemplate({
  instances: [{policy: instancePolicy}],
  location: locationPolicy,
});

const job = new batch.Job({
  name: jobName,
  taskGroups: [group],
  labels: {env: 'testing', type: 'script'},
  allocationPolicy,
  // We use Cloud Logging as it's an option available out of the box
  logsPolicy: new batch.LogsPolicy({
    destination: batch.LogsPolicy.Destination.CLOUD_LOGGING,
  }),
});
// The job's parent is the project and region in which the job will run
const parent = `projects/${projectId}/locations/${region}`;

async function callCreateBatchPersistentDiskJob() {
  // Construct request
  const request = {
    parent,
    jobId: jobName,
    job,
  };

  // Run request
  const [response] = await batchClient.createJob(request);
  console.log(JSON.stringify(response));
}

await callCreateBatchPersistentDiskJob();

Python

Untuk membuat tugas Batch yang menggunakan disk persisten baru atau yang sudah ada menggunakan Library Klien Cloud untuk Python, gunakan fungsi CreateJob dan sertakan hal berikut:

  • Untuk memasang persistent disk ke VM untuk tugas, sertakan salah satu dari hal berikut:
  • Untuk memasang persistent disk ke tugas, gunakan class Volume dengan atribut device_name dan atribut mount_path. Untuk persistent disk baru, gunakan juga atribut mount_options untuk mengaktifkan penulisan.

Misalnya, gunakan contoh kode berikut:

from google.cloud import batch_v1


def create_with_pd_job(
    project_id: str,
    region: str,
    job_name: str,
    disk_name: str,
    zone: str,
    existing_disk_name=None,
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances with mounted persistent disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        disk_name: name of the disk to be mounted for your Job.
        existing_disk_name(optional): existing disk name, which you want to attach to a job

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = (
        "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/"
        + disk_name
        + "/output_task_${BATCH_TASK_INDEX}.txt"
    )
    task.runnables = [runnable]
    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    volume = batch_v1.Volume()
    volume.device_name = disk_name
    volume.mount_path = f"/mnt/disks/{disk_name}"
    task.volumes = [volume]

    if existing_disk_name:
        volume2 = batch_v1.Volume()
        volume2.device_name = existing_disk_name
        volume2.mount_path = f"/mnt/disks/{existing_disk_name}"
        task.volumes.append(volume2)

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    disk = batch_v1.AllocationPolicy.Disk()
    # The disk type of the new persistent disk, either pd-standard,
    # pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced
    disk.type_ = "pd-balanced"
    disk.size_gb = 10

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # Read more about local disks here: https://cloud.google.com/compute/docs/disks/persistent-disks
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "n1-standard-1"

    attached_disk = batch_v1.AllocationPolicy.AttachedDisk()
    attached_disk.new_disk = disk
    attached_disk.device_name = disk_name
    policy.disks = [attached_disk]

    if existing_disk_name:
        attached_disk2 = batch_v1.AllocationPolicy.AttachedDisk()
        attached_disk2.existing_disk = (
            f"projects/{project_id}/zones/{zone}/disks/{existing_disk_name}"
        )
        attached_disk2.device_name = existing_disk_name
        policy.disks.append(attached_disk2)

    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy

    allocation_policy = batch_v1.AllocationPolicy()
    allocation_policy.instances = [instances]

    location = batch_v1.AllocationPolicy.LocationPolicy()
    location.allowed_locations = [f"zones/{zone}"]
    allocation_policy.location = location

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script"}

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Menggunakan SSD lokal

Tugas yang menggunakan SSD lokal memiliki batasan berikut:

Anda dapat membuat tugas yang menggunakan SSD lokal menggunakan gcloud CLI, Batch API, Java, atau Python. Contoh berikut menjelaskan cara membuat tugas yang membuat, melampirkan, dan memasang SSD lokal. Tugas ini juga memiliki 3 tugas yang masing-masing menjalankan skrip untuk membuat file di SSD lokal bernama output_task_TASK_INDEX.txt dengan TASK_INDEX adalah indeks setiap tugas: 0, 1, dan 2.

gcloud

Untuk membuat tugas yang menggunakan SSD lokal menggunakan gcloud CLI, gunakan perintah gcloud batch jobs submit. Dalam file konfigurasi JSON tugas, buat dan lampirkan SSD lokal di kolom instances dan pasang SSD lokal di kolom volumes.

  1. Buat file JSON.

    • Jika Anda tidak menggunakan template instance untuk tugas ini, buat file JSON dengan konten berikut:

      {
          "allocationPolicy": {
              "instances": [
                  {
                      "policy": {
                          "machineType": MACHINE_TYPE,
                          "disks": [
                              {
                                  "newDisk": {
                                      "sizeGb": LOCAL_SSD_SIZE,
                                      "type": "local-ssd"
                                  },
                                  "deviceName": "LOCAL_SSD_NAME"
                              }
                          ]
                      }
                  }
              ]
          },
          "taskGroups": [
              {
                  "taskSpec": {
                      "runnables": [
                          {
                              "script": {
                                  "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                              }
                          }
                      ],
                      "volumes": [
                          {
                              "deviceName": "LOCAL_SSD_NAME",
                              "mountPath": "/mnt/disks/LOCAL_SSD_NAME",
                              "mountOptions": "rw,async"
                          }
                      ]
                  },
                  "taskCount":3
              }
          ],
          "logsPolicy": {
              "destination": "CLOUD_LOGGING"
          }
      }
      

      Ganti kode berikut:

      • MACHINE_TYPE: jenis mesin VM tugas, yang dapat berupa jenis yang telah ditetapkan atau kustom. Jumlah SSD lokal yang diizinkan bergantung pada jenis mesin untuk VM tugas Anda.
      • LOCAL_SSD_NAME: nama SSD lokal yang dibuat untuk tugas ini.
      • LOCAL_SSD_SIZE: ukuran semua SSD lokal dalam GB. Setiap SSD lokal berukuran 375 GB, sehingga nilai ini harus merupakan kelipatan 375 GB. Misalnya, untuk 2 SSD lokal, tetapkan nilai ini ke 750 GB.
    • Jika Anda menggunakan template instance VM untuk tugas ini, buat file JSON seperti yang ditunjukkan sebelumnya, kecuali ganti kolom instances dengan yang berikut ini:

      "instances": [
          {
              "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
          }
      ],
      

      dengan INSTANCE_TEMPLATE_NAME adalah nama template instance untuk tugas ini. Untuk tugas yang menggunakan SSD lokal, template instance ini harus menentukan dan melampirkan SSD lokal yang ingin Anda gunakan untuk tugas. Untuk contoh ini, template harus menentukan dan melampirkan SSD lokal bernama LOCAL_SSD_NAME.

  2. Jalankan perintah berikut:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Ganti kode berikut:

    • JOB_NAME: nama tugas.
    • LOCATION: lokasi tugas.
    • JSON_CONFIGURATION_FILE: jalur untuk file JSON dengan detail konfigurasi tugas.

API

Untuk membuat tugas yang menggunakan SSD lokal menggunakan Batch API, gunakan metode jobs.create. Dalam permintaan, buat dan lampirkan SSD lokal di kolom instances dan pasang SSD lokal di kolom volumes.

  • Jika Anda tidak menggunakan template instance untuk tugas ini, buat permintaan berikut:

    POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
    
    {
        "allocationPolicy": {
            "instances": [
                {
                    "policy": {
                        "machineType": MACHINE_TYPE,
                        "disks": [
                            {
                                "newDisk": {
                                    "sizeGb": LOCAL_SSD_SIZE,
                                    "type": "local-ssd"
                                },
                                "deviceName": "LOCAL_SSD_NAME"
                            }
                        ]
                    }
                }
            ]
        },
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "deviceName": "LOCAL_SSD_NAME",
                            "mountPath": "/mnt/disks/LOCAL_SSD_NAME",
                            "mountOptions": "rw,async"
                        }
                    ]
                },
                "taskCount":3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Ganti kode berikut:

    • PROJECT_ID: Project ID project Anda.
    • LOCATION: lokasi tugas.
    • JOB_NAME: nama tugas.
    • MACHINE_TYPE: jenis mesin VM tugas, yang dapat berupa jenis yang telah ditetapkan atau kustom. Jumlah SSD lokal yang diizinkan bergantung pada jenis mesin untuk VM tugas Anda.
    • LOCAL_SSD_NAME: nama SSD lokal yang dibuat untuk tugas ini.
    • LOCAL_SSD_SIZE: ukuran semua SSD lokal dalam GB. Setiap SSD lokal berukuran 375 GB, sehingga nilai ini harus merupakan kelipatan 375 GB. Misalnya, untuk 2 SSD lokal, tetapkan nilai ini ke 750 GB.
  • Jika Anda menggunakan template instance VM untuk tugas ini, buat file JSON seperti yang ditunjukkan sebelumnya, kecuali ganti kolom instances dengan yang berikut ini:

    "instances": [
        {
            "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
        }
    ],
    ...
    

    Dengan INSTANCE_TEMPLATE_NAME adalah nama template instance untuk tugas ini. Untuk tugas yang menggunakan SSD lokal, template instance ini harus menentukan dan melampirkan SSD lokal yang ingin Anda gunakan untuk tugas. Untuk contoh ini, template harus menentukan dan melampirkan SSD lokal bernama LOCAL_SSD_NAME.

Go

import (
	"context"
	"fmt"
	"io"

	batch "cloud.google.com/go/batch/apiv1"
	"cloud.google.com/go/batch/apiv1/batchpb"
	durationpb "google.golang.org/protobuf/types/known/durationpb"
)

// Creates and runs a job with local SSD
// Note: local SSD does not guarantee Local SSD data persistence.
// More details here: https://cloud.google.com/compute/docs/disks/local-ssd#data_persistence
func createJobWithSSD(w io.Writer, projectID, jobName, ssdName string) error {
	// jobName := job-name
	// ssdName := disk-name
	ctx := context.Background()
	batchClient, err := batch.NewClient(ctx)
	if err != nil {
		return fmt.Errorf("batchClient error: %w", err)
	}
	defer batchClient.Close()

	runn := &batchpb.Runnable{
		Executable: &batchpb.Runnable_Script_{
			Script: &batchpb.Runnable_Script{
				Command: &batchpb.Runnable_Script_Text{
					Text: "echo Hello world from script 1 for task ${BATCH_TASK_INDEX}",
				},
			},
		},
	}
	volume := &batchpb.Volume{
		MountPath: fmt.Sprintf("/mnt/disks/%v", ssdName),
		Source: &batchpb.Volume_DeviceName{
			DeviceName: ssdName,
		},
	}

	// The size of all the local SSDs in GB. Each local SSD is 375 GB,
	// so this value must be a multiple of 375 GB.
	// For example, for 2 local SSDs, set this value to 750 GB.
	disk := &batchpb.AllocationPolicy_Disk{
		Type:   "local-ssd",
		SizeGb: 375,
	}

	taskSpec := &batchpb.TaskSpec{
		ComputeResource: &batchpb.ComputeResource{
			// CpuMilli is milliseconds per cpu-second. This means the task requires 1 CPU.
			CpuMilli:  1000,
			MemoryMib: 16,
		},
		MaxRunDuration: &durationpb.Duration{
			Seconds: 3600,
		},
		MaxRetryCount: 2,
		Runnables:     []*batchpb.Runnable{runn},
		Volumes:       []*batchpb.Volume{volume},
	}

	taskGroups := []*batchpb.TaskGroup{
		{
			TaskCount: 4,
			TaskSpec:  taskSpec,
		},
	}

	labels := map[string]string{"env": "testing", "type": "container"}

	allocationPolicy := &batchpb.AllocationPolicy{
		Instances: []*batchpb.AllocationPolicy_InstancePolicyOrTemplate{{
			PolicyTemplate: &batchpb.AllocationPolicy_InstancePolicyOrTemplate_Policy{
				Policy: &batchpb.AllocationPolicy_InstancePolicy{
					// The allowed number of local SSDs depends on the machine type for your job's VMs.
					// In this case, we tell the system to use "n1-standard-1" machine type, which require to attach local ssd manually.
					// Read more about local disks here: https://cloud.google.com/compute/docs/disks/local-ssd#lssd_disk_options
					MachineType: "n1-standard-1",
					Disks: []*batchpb.AllocationPolicy_AttachedDisk{
						{
							Attached: &batchpb.AllocationPolicy_AttachedDisk_NewDisk{
								NewDisk: disk,
							},
							DeviceName: ssdName,
						},
					},
				},
			},
		}},
	}

	// We use Cloud Logging as it's an out of the box available option
	logsPolicy := &batchpb.LogsPolicy{
		Destination: batchpb.LogsPolicy_CLOUD_LOGGING,
	}

	job := &batchpb.Job{
		Name:             jobName,
		TaskGroups:       taskGroups,
		AllocationPolicy: allocationPolicy,
		Labels:           labels,
		LogsPolicy:       logsPolicy,
	}

	request := &batchpb.CreateJobRequest{
		Parent: fmt.Sprintf("projects/%s/locations/%s", projectID, "us-central1"),
		JobId:  jobName,
		Job:    job,
	}

	created_job, err := batchClient.CreateJob(ctx, request)
	if err != nil {
		return fmt.Errorf("unable to create job: %w", err)
	}

	fmt.Fprintf(w, "Job created: %v\n", created_job)
	return nil
}

Java


import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.AttachedDisk;
import com.google.cloud.batch.v1.AllocationPolicy.Disk;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateLocalSsdJob {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Google Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";
    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";
    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";
    // The name of a local SSD created for this job.
    String localSsdName = "SSD-NAME";
    // The machine type, which can be predefined or custom, of the job's VMs.
    // The allowed number of local SSDs depends on the machine type
    // for your job's VMs are listed on: https://cloud.google.com/compute/docs/disks#localssds
    String machineType = "c3d-standard-8-lssd";
    // The size of all the local SSDs in GB. Each local SSD is 375 GB,
    // so this value must be a multiple of 375 GB.
    // For example, for 2 local SSDs, set this value to 750 GB.
    int ssdSize = 375;

    createLocalSsdJob(projectId, region, jobName, localSsdName, ssdSize, machineType);
  }

  // Create a job that uses local SSDs
  public static Job createLocalSsdJob(String projectId, String region, String jobName,
                                      String localSsdName, int ssdSize, String machineType)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {
      // Define what will be done as part of the job.
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(
                          "echo Hello world! This is task ${BATCH_TASK_INDEX}. "
                                  + "This job has a total of ${BATCH_TASK_COUNT} tasks.")
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      Volume volume = Volume.newBuilder()
          .setDeviceName(localSsdName)
          .setMountPath("/mnt/disks/" + localSsdName)
          .addMountOptions("rw")
          .addMountOptions("async")
          .build();

      TaskSpec task = TaskSpec.newBuilder()
          // Jobs can be divided into tasks. In this case, we have only one task.
          .addVolumes(volume)
          .addRunnables(runnable)
          .setMaxRetryCount(2)
          .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
          .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder()
          .setTaskCount(3)
          .setParallelism(1)
          .setTaskSpec(task)
          .build();

      // Policies are used to define on what kind of virtual machines the tasks will run on.
      InstancePolicy policy = InstancePolicy.newBuilder()
          .setMachineType(machineType)
          .addDisks(AttachedDisk.newBuilder()
              .setDeviceName(localSsdName)
              // For example, local SSD uses type "local-ssd".
              // Persistent disks and boot disks use "pd-balanced", "pd-extreme", "pd-ssd"
              // or "pd-standard".
              .setNewDisk(Disk.newBuilder().setSizeGb(ssdSize).setType("local-ssd")))
          .build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(
                  InstancePolicyOrTemplate.newBuilder()
                      .setPolicy(policy)
                      .build())
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              // We use Cloud Logging as it's an out of the box available option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(LogsPolicy.Destination.CLOUD_LOGGING))
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());

      return result;
    }
  }
}

Node.js

// Imports the Batch library
const batchLib = require('@google-cloud/batch');
const batch = batchLib.protos.google.cloud.batch.v1;

// Instantiates a client
const batchClient = new batchLib.v1.BatchServiceClient();

/**
 * TODO(developer): Update these variables before running the sample.
 */
// Project ID or project number of the Google Cloud project you want to use.
const projectId = await batchClient.getProjectId();
// Name of the region you want to use to run the job. Regions that are
// available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
const region = 'europe-central2';
// The name of the job that will be created.
// It needs to be unique for each project and region pair.
const jobName = 'batch-local-ssd-job';
// The name of a local SSD created for this job.
const localSsdName = 'ssd-name';
// The machine type, which can be predefined or custom, of the job's VMs.
// The allowed number of local SSDs depends on the machine type
// for your job's VMs are listed on: https://cloud.google.com/compute/docs/disks#localssds
const machineType = 'c3d-standard-8-lssd';
// The size of all the local SSDs in GB. Each local SSD is 375 GB,
// so this value must be a multiple of 375 GB.
// For example, for 2 local SSDs, set this value to 750 GB.
const ssdSize = 375;

// Define what will be done as part of the job.
const runnable = new batch.Runnable({
  script: new batch.Runnable.Script({
    commands: [
      '-c',
      'echo Hello world! This is task ${BATCH_TASK_INDEX}. This job has a total of ${BATCH_TASK_COUNT} tasks.',
    ],
  }),
});

const task = new batch.TaskSpec({
  runnables: [runnable],
  maxRetryCount: 2,
  maxRunDuration: {seconds: 3600},
});

// Tasks are grouped inside a job using TaskGroups.
const group = new batch.TaskGroup({
  taskCount: 3,
  taskSpec: task,
});

// Policies are used to define on what kind of virtual machines the tasks will run on.
const instancePolicy = new batch.AllocationPolicy.InstancePolicy({
  machineType,
  disks: [
    new batch.AllocationPolicy.AttachedDisk({
      deviceName: localSsdName,
      // For example, local SSD uses type "local-ssd".
      // Persistent disks and boot disks use "pd-balanced", "pd-extreme", "pd-ssd"
      // or "pd-standard".
      newDisk: new batch.AllocationPolicy.AttachedDisk({
        type: 'local-ssd',
        sizeGb: ssdSize,
      }),
    }),
  ],
});

const allocationPolicy = new batch.AllocationPolicy.InstancePolicyOrTemplate({
  instances: [{policy: instancePolicy}],
});

const job = new batch.Job({
  name: jobName,
  taskGroups: [group],
  labels: {env: 'testing', type: 'script'},
  allocationPolicy,
  // We use Cloud Logging as it's an option available out of the box
  logsPolicy: new batch.LogsPolicy({
    destination: batch.LogsPolicy.Destination.CLOUD_LOGGING,
  }),
});
// The job's parent is the project and region in which the job will run
const parent = `projects/${projectId}/locations/${region}`;

async function callCreateBatchGPUJob() {
  // Construct request
  const request = {
    parent,
    jobId: jobName,
    job,
  };

  // Run request
  const [response] = await batchClient.createJob(request);
  console.log(JSON.stringify(response));
}

await callCreateBatchGPUJob();

Python

from google.cloud import batch_v1


def create_local_ssd_job(
    project_id: str, region: str, job_name: str, ssd_name: str
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances with mounted local SSD.
    Note: local SSD does not guarantee Local SSD data persistence.
    More details here: https://cloud.google.com/compute/docs/disks/local-ssd#data_persistence

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        ssd_name: name of the local ssd to be mounted for your Job.

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = "echo Hello world! This is task ${BATCH_TASK_INDEX}. This job has a total of ${BATCH_TASK_COUNT} tasks."
    task.runnables = [runnable]
    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    volume = batch_v1.Volume()
    volume.device_name = ssd_name
    volume.mount_path = f"/mnt/disks/{ssd_name}"
    task.volumes = [volume]

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    disk = batch_v1.AllocationPolicy.Disk()
    disk.type_ = "local-ssd"
    # The size of all the local SSDs in GB. Each local SSD is 375 GB,
    # so this value must be a multiple of 375 GB.
    # For example, for 2 local SSDs, set this value to 750 GB.
    disk.size_gb = 375
    assert disk.size_gb % 375 == 0

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # The allowed number of local SSDs depends on the machine type for your job's VMs.
    # In this case, we tell the system to use "n1-standard-1" machine type, which require to attach local ssd manually.
    # Read more about local disks here: https://cloud.google.com/compute/docs/disks/local-ssd#lssd_disk_options
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "n1-standard-1"

    attached_disk = batch_v1.AllocationPolicy.AttachedDisk()
    attached_disk.new_disk = disk
    attached_disk.device_name = ssd_name
    policy.disks = [attached_disk]

    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy

    allocation_policy = batch_v1.AllocationPolicy()
    allocation_policy.instances = [instances]

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script"}
    # We use Cloud Logging as it's an out of the box available option
    job.logs_policy = batch_v1.LogsPolicy()
    job.logs_policy.destination = batch_v1.LogsPolicy.Destination.CLOUD_LOGGING

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Menggunakan bucket Cloud Storage

Untuk membuat tugas yang menggunakan bucket Cloud Storage yang ada, pilih salah satu metode berikut:

  • Direkomendasikan: Pasang bucket langsung ke VM tugas Anda dengan menentukan bucket dalam definisi tugas, seperti yang ditunjukkan di bagian ini. Saat tugas berjalan, bucket akan otomatis dipasang ke VM untuk tugas Anda menggunakan Cloud Storage FUSE.
  • Buat tugas dengan tugas yang langsung mengakses bucket Cloud Storage menggunakan gcloud CLI atau library klien untuk Cloud Storage API. Untuk mempelajari cara mengakses bucket Cloud Storage langsung dari VM, lihat dokumentasi Compute Engine untuk Menulis dan membaca data dari bucket Cloud Storage.

Sebelum membuat tugas yang menggunakan bucket, buat bucket atau identifikasi bucket yang ada. Untuk mengetahui informasi selengkapnya, lihat Membuat bucket dan Mencantumkan bucket.

Anda dapat membuat tugas yang menggunakan bucket Cloud Storage menggunakan Konsol Google Cloud, gcloud CLI, Batch API, C++, Go, Java, Node.js, atau Python.

Contoh berikut menjelaskan cara membuat tugas yang memasang bucket Cloud Storage. Tugas ini juga memiliki 3 tugas yang masing-masing menjalankan skrip untuk membuat file di bucket bernama output_task_TASK_INDEX.txt dengan TASK_INDEX adalah indeks setiap tugas: 0, 1, dan 2.

Konsol

Untuk membuat tugas yang menggunakan bucket Cloud Storage menggunakan konsol Google Cloud, lakukan hal berikut:

  1. Di konsol Google Cloud, buka halaman Daftar tugas.

    Buka Daftar tugas

  2. Klik Create. Halaman Create batch job akan terbuka. Di panel kiri, halaman Detail tugas dipilih.

  3. Konfigurasikan halaman Detail tugas:

    1. Opsional: Di kolom Nama tugas, sesuaikan nama tugas.

      Misalnya, masukkan example-bucket-job.

    2. Konfigurasikan bagian Detail tugas:

      1. Di jendela New runnable, tambahkan minimal satu skrip atau penampung agar tugas ini dapat dijalankan.

        Misalnya, lakukan hal berikut:

        1. Centang kotak Script. Kotak teks akan muncul.

        2. Di kotak teks, masukkan skrip berikut:

          echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
          

          Ganti MOUNT_PATH dengan jalur pemasangan yang digunakan runnable tugas ini untuk mengakses bucket Cloud Storage yang ada. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan bucket ini dengan direktori bernama my-bucket, tetapkan jalur pemasangan ke /mnt/disks/my-bucket.

        3. Klik Done.

      2. Di kolom Task count, masukkan jumlah tugas untuk tugas ini.

        Misalnya, masukkan 3.

      3. Di kolom Parallelism, masukkan jumlah tugas yang akan berjalan secara serentak.

        Misalnya, masukkan 1 (default).

  4. Konfigurasi halaman Konfigurasi tambahan:

    1. Di panel kiri, klik Konfigurasi tambahan. Halaman Konfigurasi tambahan akan terbuka.

    2. Untuk setiap bucket Cloud Storage yang ingin Anda pasang ke tugas ini, lakukan hal berikut:

      1. Di bagian Storage volume, klik Add new volume. Jendela Volume baru akan muncul.

      2. Di jendela New volume, lakukan hal berikut:

        1. Di bagian Volume type, pilih Cloud Storage bucket.

        2. Di kolom Storage Bucket name, masukkan nama bucket yang ada.

          Misalnya, masukkan bucket yang Anda tentukan dalam tugas yang dapat dijalankan ini.

        3. Di kolom Mount path, masukkan jalur pemasangan bucket (MOUNT_PATH), yang Anda tentukan dalam runnable.

        4. Klik Done.

  5. Opsional: Konfigurasikan kolom lain untuk tugas ini.

  6. Opsional: Untuk meninjau konfigurasi tugas, di panel kiri, klik Pratinjau.

  7. Klik Create.

Halaman Detail tugas menampilkan tugas yang Anda buat.

gcloud

Untuk membuat tugas yang menggunakan bucket Cloud Storage menggunakan gcloud CLI, gunakan perintah gcloud batch jobs submit. Dalam file konfigurasi JSON tugas, pasang bucket di kolom volumes.

Misalnya, untuk membuat tugas yang menghasilkan file ke Cloud Storage:

  1. Buat file JSON dengan konten berikut:

    {
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "gcs": {
                                "remotePath": "BUCKET_PATH"
                            },
                            "mountPath": "MOUNT_PATH"
                        }
                    ]
                },
                "taskCount": 3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Ganti kode berikut:

    • BUCKET_PATH: jalur direktori bucket yang ingin Anda akses tugas ini, yang harus dimulai dengan nama bucket. Misalnya, untuk bucket bernama BUCKET_NAME, jalur BUCKET_NAME mewakili direktori root bucket dan jalur BUCKET_NAME/subdirectory mewakili subdirektori subdirectory.
    • MOUNT_PATH: jalur pemasangan yang digunakan oleh tugas yang dapat dijalankan untuk mengakses bucket ini. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan bucket ini dengan direktori bernama my-bucket, tetapkan jalur pemasangan ke /mnt/disks/my-bucket.
  2. Jalankan perintah berikut:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Ganti kode berikut:

    • JOB_NAME: nama tugas.
    • LOCATION: lokasi tugas.
    • JSON_CONFIGURATION_FILE: jalur untuk file JSON dengan detail konfigurasi tugas.

API

Untuk membuat tugas yang menggunakan bucket Cloud Storage menggunakan Batch API, gunakan metode jobs.create dan pasang bucket di kolom volumes.

POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME

{
    "taskGroups": [
        {
            "taskSpec": {
                "runnables": [
                    {
                        "script": {
                            "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                        }
                    }
                ],
                "volumes": [
                    {
                        "gcs": {
                            "remotePath": "BUCKET_PATH"
                        },
                        "mountPath": "MOUNT_PATH"
                    }
                ]
            },
            "taskCount": 3
        }
    ],
    "logsPolicy": {
            "destination": "CLOUD_LOGGING"
    }
}

Ganti kode berikut:

  • PROJECT_ID: Project ID project Anda.
  • LOCATION: lokasi tugas.
  • JOB_NAME: nama tugas.
  • BUCKET_PATH: jalur direktori bucket yang ingin Anda akses tugas ini, yang harus dimulai dengan nama bucket. Misalnya, untuk bucket bernama BUCKET_NAME, jalur BUCKET_NAME mewakili direktori root bucket dan jalur BUCKET_NAME/subdirectory mewakili subdirektori subdirectory.
  • MOUNT_PATH: jalur pemasangan yang digunakan oleh tugas yang dapat dijalankan untuk mengakses bucket ini. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan bucket ini dengan direktori bernama my-bucket, tetapkan jalur pemasangan ke /mnt/disks/my-bucket.

C++

C++

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Batch C++ API.

Untuk melakukan autentikasi ke Batch, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

#include "google/cloud/batch/v1/batch_client.h"

  [](std::string const& project_id, std::string const& location_id,
     std::string const& job_id, std::string const& bucket_name) {
    // Initialize the request; start with the fields that depend on the sample
    // input.
    google::cloud::batch::v1::CreateJobRequest request;
    request.set_parent("projects/" + project_id + "/locations/" + location_id);
    request.set_job_id(job_id);
    // Most of the job description is fixed in this example; use a string to
    // initialize it, and then override the GCS remote path.
    auto constexpr kText = R"pb(
      task_groups {
        task_count: 4
        task_spec {
          compute_resource { cpu_milli: 500 memory_mib: 16 }
          max_retry_count: 2
          max_run_duration { seconds: 3600 }
          runnables {
            script {
              text: "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt"
            }
          }
          volumes { mount_path: "/mnt/share" }
        }
      }
      allocation_policy {
        instances {
          policy { machine_type: "e2-standard-4" provisioning_model: STANDARD }
        }
      }
      labels { key: "env" value: "testing" }
      labels { key: "type" value: "script" }
      logs_policy { destination: CLOUD_LOGGING }
    )pb";
    auto* job = request.mutable_job();
    if (!google::protobuf::TextFormat::ParseFromString(kText, job)) {
      throw std::runtime_error("Error parsing Job description");
    }
    job->mutable_task_groups(0)
        ->mutable_task_spec()
        ->mutable_volumes(0)
        ->mutable_gcs()
        ->set_remote_path(bucket_name);
    // Create a client and issue the request.
    auto client = google::cloud::batch_v1::BatchServiceClient(
        google::cloud::batch_v1::MakeBatchServiceConnection());
    auto response = client.CreateJob(request);
    if (!response) throw std::move(response).status();
    std::cout << "Job : " << response->DebugString() << "\n";
  }

Go

Go

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Batch Go API.

Untuk melakukan autentikasi ke Batch, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

import (
	"context"
	"fmt"
	"io"

	batch "cloud.google.com/go/batch/apiv1"
	"cloud.google.com/go/batch/apiv1/batchpb"
	durationpb "google.golang.org/protobuf/types/known/durationpb"
)

// Creates and runs a job that executes the specified script
func createScriptJobWithBucket(w io.Writer, projectID, region, jobName, bucketName string) error {
	// projectID := "your_project_id"
	// region := "us-central1"
	// jobName := "some-job"
	// jobName := "some-bucket"

	ctx := context.Background()
	batchClient, err := batch.NewClient(ctx)
	if err != nil {
		return fmt.Errorf("NewClient: %w", err)
	}
	defer batchClient.Close()

	// Define what will be done as part of the job.
	command := &batchpb.Runnable_Script_Text{
		Text: "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt",
	}

	// Specify the Google Cloud Storage bucket to mount
	volume := &batchpb.Volume{
		Source: &batchpb.Volume_Gcs{
			Gcs: &batchpb.GCS{
				RemotePath: bucketName,
			},
		},
		MountPath:    "/mnt/share",
		MountOptions: []string{},
	}

	// We can specify what resources are requested by each task.
	resources := &batchpb.ComputeResource{
		// CpuMilli is milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
		CpuMilli:  500,
		MemoryMib: 16,
	}

	taskSpec := &batchpb.TaskSpec{
		Runnables: []*batchpb.Runnable{{
			Executable: &batchpb.Runnable_Script_{
				Script: &batchpb.Runnable_Script{Command: command},
			},
		}},
		ComputeResource: resources,
		MaxRunDuration: &durationpb.Duration{
			Seconds: 3600,
		},
		MaxRetryCount: 2,
		Volumes:       []*batchpb.Volume{volume},
	}

	// Tasks are grouped inside a job using TaskGroups.
	taskGroups := []*batchpb.TaskGroup{
		{
			TaskCount: 4,
			TaskSpec:  taskSpec,
		},
	}

	// Policies are used to define on what kind of virtual machines the tasks will run on.
	// In this case, we tell the system to use "e2-standard-4" machine type.
	// Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
	allocationPolicy := &batchpb.AllocationPolicy{
		Instances: []*batchpb.AllocationPolicy_InstancePolicyOrTemplate{{
			PolicyTemplate: &batchpb.AllocationPolicy_InstancePolicyOrTemplate_Policy{
				Policy: &batchpb.AllocationPolicy_InstancePolicy{
					MachineType: "e2-standard-4",
				},
			},
		}},
	}

	// We use Cloud Logging as it's an out of the box available option
	logsPolicy := &batchpb.LogsPolicy{
		Destination: batchpb.LogsPolicy_CLOUD_LOGGING,
	}

	jobLabels := map[string]string{"env": "testing", "type": "script"}

	// The job's parent is the region in which the job will run
	parent := fmt.Sprintf("projects/%s/locations/%s", projectID, region)

	job := batchpb.Job{
		TaskGroups:       taskGroups,
		AllocationPolicy: allocationPolicy,
		Labels:           jobLabels,
		LogsPolicy:       logsPolicy,
	}

	req := &batchpb.CreateJobRequest{
		Parent: parent,
		JobId:  jobName,
		Job:    &job,
	}

	created_job, err := batchClient.CreateJob(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create job: %w", err)
	}

	fmt.Fprintf(w, "Job created: %v\n", created_job)

	return nil
}

Java

Java

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Batch Java API.

Untuk melakukan autentikasi ke Batch, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.ComputeResource;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.GCS;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.LogsPolicy.Destination;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithMountedBucket {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";

    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";

    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";

    // Name of the bucket to be mounted for your Job.
    String bucketName = "BUCKET_NAME";

    createScriptJobWithBucket(projectId, region, jobName, bucketName);
  }

  // This method shows how to create a sample Batch Job that will run
  // a simple command on Cloud Compute instances.
  public static void createScriptJobWithBucket(String projectId, String region, String jobName,
      String bucketName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `batchServiceClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {

      // Define what will be done as part of the job.
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(
                          "echo Hello world from task ${BATCH_TASK_INDEX}. >> "
                              + "/mnt/share/output_task_${BATCH_TASK_INDEX}.txt")
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      Volume volume = Volume.newBuilder()
          .setGcs(GCS.newBuilder()
              .setRemotePath(bucketName)
              .build())
          .setMountPath("/mnt/share")
          .build();

      // We can specify what resources are requested by each task.
      ComputeResource computeResource =
          ComputeResource.newBuilder()
              // In milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
              .setCpuMilli(500)
              // In MiB.
              .setMemoryMib(16)
              .build();

      TaskSpec task =
          TaskSpec.newBuilder()
              // Jobs can be divided into tasks. In this case, we have only one task.
              .addRunnables(runnable)
              .addVolumes(volume)
              .setComputeResource(computeResource)
              .setMaxRetryCount(2)
              .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
              .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder().setTaskCount(4).setTaskSpec(task).build();

      // Policies are used to define on what kind of virtual machines the tasks will run on.
      // In this case, we tell the system to use "e2-standard-4" machine type.
      // Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
      InstancePolicy instancePolicy =
          InstancePolicy.newBuilder().setMachineType("e2-standard-4").build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(InstancePolicyOrTemplate.newBuilder().setPolicy(instancePolicy).build())
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              .putLabels("mount", "bucket")
              // We use Cloud Logging as it's an out of the box available option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(Destination.CLOUD_LOGGING).build())
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());
    }
  }
}

Node.js

Node.js

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Batch Node.js API.

Untuk melakukan autentikasi ke Batch, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

/**
 * TODO(developer): Uncomment and replace these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
/**
 * The region you want to the job to run in. The regions that support Batch are listed here:
 * https://cloud.google.com/batch/docs/get-started#locations
 */
// const region = 'us-central-1';
/**
 * The name of the job that will be created.
 * It needs to be unique for each project and region pair.
 */
// const jobName = 'YOUR_JOB_NAME';
/**
 * The name of the bucket to be mounted.
 */
// const bucketName = 'YOUR_BUCKET_NAME';

// Imports the Batch library
const batchLib = require('@google-cloud/batch');
const batch = batchLib.protos.google.cloud.batch.v1;

// Instantiates a client
const batchClient = new batchLib.v1.BatchServiceClient();

// Define what will be done as part of the job.
const task = new batch.TaskSpec();
const runnable = new batch.Runnable();
runnable.script = new batch.Runnable.Script();
runnable.script.text =
  'echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt';
// You can also run a script from a file. Just remember, that needs to be a script that's
// already on the VM that will be running the job. Using runnable.script.text and runnable.script.path is mutually
// exclusive.
// runnable.script.path = '/tmp/test.sh'
task.runnables = [runnable];

const gcsBucket = new batch.GCS();
gcsBucket.remotePath = bucketName;
const gcsVolume = new batch.Volume();
gcsVolume.gcs = gcsBucket;
gcsVolume.mountPath = '/mnt/share';
task.volumes = [gcsVolume];

// We can specify what resources are requested by each task.
const resources = new batch.ComputeResource();
resources.cpuMilli = 2000; // in milliseconds per cpu-second. This means the task requires 2 whole CPUs.
resources.memoryMib = 16;
task.computeResource = resources;

task.maxRetryCount = 2;
task.maxRunDuration = {seconds: 3600};

// Tasks are grouped inside a job using TaskGroups.
const group = new batch.TaskGroup();
group.taskCount = 4;
group.taskSpec = task;

// Policies are used to define on what kind of virtual machines the tasks will run on.
// In this case, we tell the system to use "e2-standard-4" machine type.
// Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
const allocationPolicy = new batch.AllocationPolicy();
const policy = new batch.AllocationPolicy.InstancePolicy();
policy.machineType = 'e2-standard-4';
const instances = new batch.AllocationPolicy.InstancePolicyOrTemplate();
instances.policy = policy;
allocationPolicy.instances = [instances];

const job = new batch.Job();
job.name = jobName;
job.taskGroups = [group];
job.allocationPolicy = allocationPolicy;
job.labels = {env: 'testing', type: 'script'};
// We use Cloud Logging as it's an option available out of the box
job.logsPolicy = new batch.LogsPolicy();
job.logsPolicy.destination = batch.LogsPolicy.Destination.CLOUD_LOGGING;

// The job's parent is the project and region in which the job will run
const parent = `projects/${projectId}/locations/${region}`;

async function callCreateJob() {
  // Construct request
  const request = {
    parent,
    jobId: jobName,
    job,
  };

  // Run request
  const response = await batchClient.createJob(request);
  console.log(response);
}

await callCreateJob();

Python

Python

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Batch Python API.

Untuk melakukan autentikasi ke Batch, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

from google.cloud import batch_v1


def create_script_job_with_bucket(
    project_id: str, region: str, job_name: str, bucket_name: str
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        bucket_name: name of the bucket to be mounted for your Job.

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt"
    task.runnables = [runnable]

    gcs_bucket = batch_v1.GCS()
    gcs_bucket.remote_path = bucket_name
    gcs_volume = batch_v1.Volume()
    gcs_volume.gcs = gcs_bucket
    gcs_volume.mount_path = "/mnt/share"
    task.volumes = [gcs_volume]

    # We can specify what resources are requested by each task.
    resources = batch_v1.ComputeResource()
    resources.cpu_milli = 500  # in milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
    resources.memory_mib = 16
    task.compute_resource = resources

    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # In this case, we tell the system to use "e2-standard-4" machine type.
    # Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
    allocation_policy = batch_v1.AllocationPolicy()
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "e2-standard-4"
    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy
    allocation_policy.instances = [instances]

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script", "mount": "bucket"}
    # We use Cloud Logging as it's an out of the box available option
    job.logs_policy = batch_v1.LogsPolicy()
    job.logs_policy.destination = batch_v1.LogsPolicy.Destination.CLOUD_LOGGING

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Menggunakan sistem file jaringan

Anda dapat membuat tugas yang menggunakan sistem file jaringan (NFS) yang ada, seperti Fileshare Filestore, menggunakan konsol Google Cloud, gcloud CLI, atau Batch API.

Sebelum membuat tugas yang menggunakan NFS, pastikan firewall jaringan Anda dikonfigurasi dengan benar untuk mengizinkan traffic antara VM tugas dan NFS. Untuk mengetahui informasi selengkapnya, lihat Mengonfigurasi aturan firewall untuk Filestore.

Contoh berikut menjelaskan cara membuat tugas yang menentukan dan memasang NFS. Tugas ini juga memiliki 3 tugas yang masing-masing menjalankan skrip untuk membuat file di NFS bernama output_task_TASK_INDEX.txt dengan TASK_INDEX adalah indeks setiap tugas: 0, 1, dan 2.

Konsol

Untuk membuat tugas yang menggunakan NFS menggunakan konsol Google Cloud, lakukan hal berikut:

  1. Di konsol Google Cloud, buka halaman Daftar tugas.

    Buka Daftar tugas

  2. Klik Create. Halaman Create batch job akan terbuka. Di panel kiri, halaman Detail tugas dipilih.

  3. Konfigurasikan halaman Detail tugas:

    1. Opsional: Di kolom Nama tugas, sesuaikan nama tugas.

      Misalnya, masukkan example-nfs-job.

    2. Konfigurasikan bagian Detail tugas:

      1. Di jendela New runnable, tambahkan minimal satu skrip atau penampung agar tugas ini dapat dijalankan.

        Misalnya, lakukan hal berikut:

        1. Centang kotak Script. Kotak teks akan muncul.

        2. Di kotak teks, masukkan skrip berikut:

          echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
          

          Ganti MOUNT_PATH dengan jalur pemasangan yang digunakan tugas yang dapat dijalankan untuk mengakses NFS ini. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan NFS ini dengan direktori bernama my-nfs, tetapkan jalur pemasangan ke /mnt/disks/my-nfs.

        3. Klik Done.

      2. Di kolom Task count, masukkan jumlah tugas untuk tugas ini.

        Misalnya, masukkan 3.

      3. Di kolom Parallelism, masukkan jumlah tugas yang akan berjalan secara serentak.

        Misalnya, masukkan 1 (default).

  4. Konfigurasi halaman Konfigurasi tambahan:

    1. Di panel kiri, klik Konfigurasi tambahan. Halaman Konfigurasi tambahan akan terbuka.

    2. Untuk setiap bucket Cloud Storage yang ingin Anda pasang ke tugas ini, lakukan hal berikut:

      1. Di bagian Storage volume, klik Add new volume. Jendela Volume baru akan muncul.

      2. Di jendela New volume, lakukan hal berikut:

        1. Di bagian Jenis volume, pilih Sistem file jaringan.

        2. Di kolom File server, masukkan alamat IP server tempat NFS yang Anda tentukan dalam tugas yang dapat dijalankan ini berada.

          Misalnya, jika NFS Anda adalah fileshare Filestore, tentukan alamat IP instance Filestore, yang dapat Anda dapatkan dengan menjelaskan instance Filestore.

        3. Di kolom Remote path, masukkan jalur yang dapat mengakses NFS yang Anda tentukan di langkah sebelumnya.

          Jalur direktori NFS harus dimulai dengan / diikuti dengan direktori root NFS.

        4. Di kolom Mount path, masukkan jalur pemasangan ke NFS (MOUNT_PATH), yang Anda tentukan di langkah sebelumnya.

    3. Klik Done.

  5. Opsional: Konfigurasikan kolom lain untuk tugas ini.

  6. Opsional: Untuk meninjau konfigurasi tugas, di panel kiri, klik Pratinjau.

  7. Klik Create.

Halaman Detail tugas menampilkan tugas yang Anda buat.

gcloud

Untuk membuat tugas yang menggunakan NFS menggunakan gcloud CLI, gunakan perintah gcloud batch jobs submit. Dalam file konfigurasi JSON tugas, pasang NFS di kolom volumes.

  1. Buat file JSON dengan konten berikut:

    {
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "nfs": {
                                "server": "NFS_IP_ADDRESS",
                                "remotePath": "NFS_PATH"
                            },
                            "mountPath": "MOUNT_PATH"
                        }
                    ]
                },
                "taskCount": 3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Ganti kode berikut:

    • NFS_IP_ADDRESS: alamat IP NFS. Misalnya, jika NFS Anda adalah file share Filestore, tentukan alamat IP instance Filestore, yang dapat Anda dapatkan dengan menjelaskan instance Filestore.
    • NFS_PATH: jalur direktori NFS yang ingin Anda akses dengan tugas ini, yang harus dimulai dengan / diikuti dengan direktori root NFS. Misalnya, untuk berbagi file Filestore bernama FILE_SHARE_NAME, jalur /FILE_SHARE_NAME mewakili direktori root berbagi file dan jalur /FILE_SHARE_NAME/subdirectory mewakili subdirektori subdirectory.
    • MOUNT_PATH: jalur pemasangan yang digunakan oleh runnable tugas untuk mengakses NFS ini. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan NFS ini dengan direktori bernama my-nfs, tetapkan jalur pemasangan ke /mnt/disks/my-nfs.
  2. Jalankan perintah berikut:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Ganti kode berikut:

    • JOB_NAME: nama tugas.
    • LOCATION: lokasi tugas.
    • JSON_CONFIGURATION_FILE: jalur untuk file JSON dengan detail konfigurasi tugas.

API

Untuk membuat tugas yang menggunakan NFS menggunakan Batch API, gunakan metode jobs.create dan pasang NFS di kolom volumes.

POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME

   {
    "taskGroups": [
        {
            "taskSpec": {
                "runnables": [
                    {
                        "script": {
                            "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                        }
                    }
                ],
                "volumes": [
                    {
                        "nfs": {
                            "server": "NFS_IP_ADDRESS",
                            "remotePath": "NFS_PATH"
                        },
                        "mountPath": "MOUNT_PATH"
                    }
                ]
            },
            "taskCount": 3
        }
    ],
    "logsPolicy": {
        "destination": "CLOUD_LOGGING"
    }
}

Ganti kode berikut:

  • PROJECT_ID: Project ID project Anda.
  • LOCATION: lokasi tugas.
  • JOB_NAME: nama tugas.
  • NFS_IP_ADDRESS: alamat IP Network File System. Misalnya, jika NFS Anda adalah file share Filestore, tentukan alamat IP instance Filestore, yang dapat Anda dapatkan dengan menjelaskan instance Filestore.
  • NFS_PATH: jalur direktori NFS yang ingin Anda akses dengan tugas ini, yang harus dimulai dengan / diikuti dengan direktori root NFS. Misalnya, untuk berbagi file Filestore bernama FILE_SHARE_NAME, jalur /FILE_SHARE_NAME mewakili direktori root berbagi file dan jalur /FILE_SHARE_NAME/subdirectory mewakili subdirektori.
  • MOUNT_PATH: jalur pemasangan yang digunakan oleh runnable tugas untuk mengakses NFS ini. Jalur harus dimulai dengan /mnt/disks/, diikuti dengan direktori atau jalur yang Anda pilih. Misalnya, jika Anda ingin merepresentasikan NFS ini dengan direktori bernama my-nfs, tetapkan jalur pemasangan ke /mnt/disks/my-nfs.

Java


import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.ComputeResource;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.NFS;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateScriptJobWithNfs {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";

    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";

    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";

    // The path of the NFS directory that you want this job to access.
    String nfsPath = "NFS_PATH";
    // The IP address of the Network File System.
    String nfsIpAddress = "NFS_IP_ADDRESS";

    createScriptJobWithNfs(projectId, region, jobName, nfsPath, nfsIpAddress);
  }

  // This method shows how to create a batch script job that specifies and mounts a NFS.
  public static Job createScriptJobWithNfs(String projectId, String region, String jobName,
                                            String nfsPath, String nfsIpAddress)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {

      // Define what will be done as part of the job.
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Runnable.Script.newBuilder()
                      .setText(
                          "echo Hello world from task ${BATCH_TASK_INDEX}. >> "
                              + "/mnt/share/output_task_${BATCH_TASK_INDEX}.txt")
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      // Describes a volume and parameters for it to be mounted to a VM.
      Volume volume = Volume.newBuilder()
          .setNfs(NFS.newBuilder()
              .setServer(nfsIpAddress)
              .setRemotePath(nfsPath)
              .build())
          .setMountPath("/mnt/share")
          .build();

      // We can specify what resources are requested by each task.
      ComputeResource computeResource =
          ComputeResource.newBuilder()
              // In milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
              .setCpuMilli(500)
              // In MiB.
              .setMemoryMib(16)
              .build();

      TaskSpec task =
          TaskSpec.newBuilder()
              // Jobs can be divided into tasks. In this case, we have only one task.
              .addRunnables(runnable)
              .addVolumes(volume)
              .setComputeResource(computeResource)
              .setMaxRetryCount(2)
              .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
              .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder().setTaskCount(4).setTaskSpec(task).build();

      // Policies are used to define on what kind of virtual machines the tasks will run on.
      // In this case, we tell the system to use "e2-standard-4" machine type.
      // Read more about machine types here:
      // https://cloud.google.com/compute/docs/machine-types
      AllocationPolicy.InstancePolicy instancePolicy =
          AllocationPolicy.InstancePolicy.newBuilder().setMachineType("e2-standard-4").build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(AllocationPolicy.InstancePolicyOrTemplate.newBuilder()
                      .setPolicy(instancePolicy).build())
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              .putLabels("mount", "bucket")
              // We use Cloud Logging as it's an out of the box available option.
              .setLogsPolicy(LogsPolicy.newBuilder()
                      .setDestination(LogsPolicy.Destination.CLOUD_LOGGING).build())
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());

      return result;
    }
  }
}

Node.js

// Imports the Batch library
const batchLib = require('@google-cloud/batch');
const batch = batchLib.protos.google.cloud.batch.v1;

// Instantiates a client
const batchClient = new batchLib.v1.BatchServiceClient();

/**
 * TODO(developer): Update these variables before running the sample.
 */
// Project ID or project number of the Google Cloud project you want to use.
const projectId = await batchClient.getProjectId();
// Name of the region you want to use to run the job. Regions that are
// available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
const region = 'europe-central2';
// The name of the job that will be created.
// It needs to be unique for each project and region pair.
const jobName = 'batch-nfs-job';
// The path of the NFS directory that you want this job to access.
const nfsPath = '/your_nfs_path';
// The IP address of the Network File System.
const nfsIpAddress = '0.0.0.0';
// The mount path that the job's tasks use to access the NFS.
const mountPath = '/mnt/disks';

// Define what will be done as part of the job.
const runnable = new batch.Runnable({
  script: new batch.Runnable.Script({
    commands: [
      '-c',
      'echo Hello world from task ${BATCH_TASK_INDEX}. >> ' +
        '/mnt/share/output_task_${BATCH_TASK_INDEX}.txt',
    ],
  }),
});

// Define a volume that uses NFS.
const volume = new batch.Volume({
  nfs: new batch.NFS({
    server: nfsIpAddress,
    remotePath: nfsPath,
  }),
  mountPath,
});

// Specify what resources are requested by each task.
const computeResource = new batch.ComputeResource({
  // In milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
  cpuMilli: 500,
  // In MiB.
  memoryMib: 16,
});

const task = new batch.TaskSpec({
  runnables: [runnable],
  volumes: [volume],
  computeResource,
  maxRetryCount: 2,
  maxRunDuration: {seconds: 3600},
});

// Tasks are grouped inside a job using TaskGroups.
const group = new batch.TaskGroup({
  taskCount: 3,
  taskSpec: task,
});

// Policies are used to define on what kind of virtual machines the tasks will run on.
// In this case, we tell the system to use "e2-standard-4" machine type.
// Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
const instancePolicy = new batch.AllocationPolicy.InstancePolicy({
  machineType: 'e2-standard-4',
});

const allocationPolicy = new batch.AllocationPolicy.InstancePolicyOrTemplate({
  instances: [{policy: instancePolicy}],
});

const job = new batch.Job({
  name: jobName,
  taskGroups: [group],
  allocationPolicy,
  labels: {env: 'testing', type: 'script'},
  // We use Cloud Logging as it's an option available out of the box
  logsPolicy: new batch.LogsPolicy({
    destination: batch.LogsPolicy.Destination.CLOUD_LOGGING,
  }),
});

// The job's parent is the project and region in which the job will run
const parent = `projects/${projectId}/locations/${region}`;

async function callCreateBatchNfsJob() {
  // Construct request
  const request = {
    parent,
    jobId: jobName,
    job,
  };

  // Run request
  const [response] = await batchClient.createJob(request);
  console.log(JSON.stringify(response));
}

await callCreateBatchNfsJob();

Python

from google.cloud import batch_v1


def create_job_with_network_file_system(
    project_id: str,
    region: str,
    job_name: str,
    mount_path: str,
    nfs_ip_address: str,
    nfs_path: str,
) -> batch_v1.Job:
    """
    Creates a Batch job with status events that mounts a Network File System (NFS).
    Function mounts an NFS volume using the provided NFS server, IP address and path.

    Args:
        project_id (str): project ID or project number of the Cloud project you want to use.
        region (str): name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/locations
        job_name (str): the name of the job that will be created.
            It needs to be unique for each project and region pair.
        mount_path (str): The mount path that the job's tasks use to access the NFS.
        nfs_ip_address (str): The IP address of the NFS server (e.g., Filestore instance).
            Documentation on how to create a
            Filestore instance is available here: https://cloud.google.com/filestore/docs/create-instance-gcloud
        nfs_path (str): The path of the NFS directory that the job accesses.
            The path must start with a / followed by the root directory of the NFS.

    Returns:
        batch_v1.Job: The created Batch job object containing configuration details.
    """
    client = batch_v1.BatchServiceClient()

    # Create a runnable with a script that writes a message to a file
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = f"echo Hello world from task ${{BATCH_TASK_INDEX}}. >> {mount_path}/output_task_${{BATCH_TASK_INDEX}}.txt"

    # Define a volume that uses NFS
    volume = batch_v1.Volume()
    volume.nfs = batch_v1.NFS(server=nfs_ip_address, remote_path=nfs_path)
    volume.mount_path = mount_path

    # Create a task specification and assign the runnable and volume to it
    task = batch_v1.TaskSpec()
    task.runnables = [runnable]
    task.volumes = [volume]

    # Specify what resources are requested by each task.
    resources = batch_v1.ComputeResource()
    resources.cpu_milli = 2000  # in milliseconds per cpu-second. This means the task requires 2 whole CPUs.
    resources.memory_mib = 16  # in MiB
    task.compute_resource = resources

    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    # Create a task group and assign the task specification to it
    group = batch_v1.TaskGroup()
    group.task_count = 1
    group.task_spec = task

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # In this case, we tell the system to use "e2-standard-4" machine type.
    # Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "e2-standard-4"
    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy
    allocation_policy = batch_v1.AllocationPolicy()
    allocation_policy.instances = [instances]

    # Create the job and assign the task group and allocation policy to it
    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "container"}
    # We use Cloud Logging as it's an out of the box available option
    job.logs_policy = batch_v1.LogsPolicy()
    job.logs_policy.destination = batch_v1.LogsPolicy.Destination.CLOUD_LOGGING

    # Create the job request and set the job and job ID
    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Langkah selanjutnya