本文档介绍了如何创建和运行使用一个或多个外部存储卷的批处理作业。外部存储选项包括新的或现有的永久性磁盘、新的本地 SSD、现有的 Cloud Storage 存储分区,以及现有的网络文件系统 (NFS),例如 Filestore 文件共享。
无论您是否添加外部存储卷,作业的每个 Compute Engine 虚拟机都有一个启动磁盘,该磁盘为作业的操作系统 (OS) 映像和指令提供存储空间。如需了解如何为作业配置启动磁盘,请改为参阅虚拟机操作系统环境概览。
准备工作
- 如果您之前未使用过批处理功能,请参阅开始使用批处理,并完成适用于项目和用户的前提条件,以启用批处理功能。
-
如需获得创建作业所需的权限,请让您的管理员为您授予以下 IAM 角色:
-
项目的 Batch Job Editor (
roles/batch.jobsEditor
) -
作业的服务账号(默认是默认的 Compute Engine 服务账号)上的 Service Account User (
roles/iam.serviceAccountUser
) -
创建使用 Cloud Storage 存储分区的作业:
存储分区上的 Storage Object Viewer (
roles/storage.objectViewer
)
如需详细了解如何授予角色,请参阅管理对项目、文件夹和组织的访问权限。
-
项目的 Batch Job Editor (
创建使用存储卷的作业
作业可以选择使用以下各类外部存储卷中的一种或多种。如需详细了解所有类型的存储卷以及每种卷的差异和限制,请参阅 Compute Engine 虚拟机存储选项文档。
- 永久性磁盘:可用区级或区域级永久性块存储
- 本地 SSD:高性能暂时性块存储
- Cloud Storage 存储分区:经济实惠的对象存储
- 网络文件系统 (NFS):遵循网络文件系统协议的分布式文件系统,例如 Filestore 文件共享,这是一种托管在 Google Cloud
您可以允许作业使用每个存储卷,方法是在作业的定义中添加该卷,并在可运行文件中指定其挂载路径 (mountPath
)。如需了解如何创建使用存储卷的作业,请参阅以下一个或多个部分:
使用永久性磁盘
使用永久性磁盘的作业存在以下限制:
所有永久性磁盘:查看所有永久性磁盘的限制。
新建永久性磁盘与现有永久性磁盘:作业中的每个永久性磁盘都可以是新建的(在作业中定义并随作业一起创建的),也可以是现有的(已在项目中创建并在作业中指定的)。如需使用永久性磁盘,需要对其进行格式化和挂载到作业的虚拟机,且虚拟机必须位于永久性磁盘所在的位置。批量挂载您在作业中添加的所有永久性磁盘,并格式化所有新的永久性磁盘,但您必须格式化并卸载您希望作业使用的所有现有永久性磁盘。
支持的位置选项、格式选项和挂载选项因新永久性磁盘和现有永久性磁盘而异,如下表所示:
新的永久性磁盘 现有的永久性磁盘 格式选项 永久性磁盘会自动采用
ext4
文件系统格式化。装载选项 支持所有选项。
除写入以外的所有选项均受支持。这是由于多写入者模式的限制所致。
您必须先从永久性磁盘已附加的所有虚拟机中分离永久性磁盘,然后才能将其用于作业。
位置选项 您只能创建可用区永久性磁盘。
您可以为作业选择任何地点。永久性磁盘会在项目运行所在的区域中创建。
您可以选择可用区级和区域级永久性磁盘。
您必须将作业的位置(或仅作业的允许的位置,如果已指定)设置为仅包含作业的所有永久性磁盘的位置。例如,对于可用区级永久性磁盘,作业的存储位置必须是磁盘所在的可用区;对于区域级永久性磁盘,作业的存储位置必须是磁盘所在的区域,或者(如果指定了可用区)是区域级永久性磁盘所在的一个或两个特定可用区。实例模板:如果您想在创建此作业时使用虚拟机实例模板,则必须在实例模板中为此作业附加任何永久性磁盘。否则,如果您不想使用实例模板,则必须直接在作业定义中附加任何永久性磁盘。
您可以使用 Google Cloud 控制台、gcloud CLI、Batch API、C++、Go、Java、Node.js 或 Python 创建使用永久性磁盘的作业。
控制台
以下示例使用 Google Cloud 控制台创建一个作业,该作业会运行脚本,从位于 us-central1-a
可用区中的现有可用区级永久性磁盘读取文件。示例脚本假定作业有一个现有的地区永久性磁盘,其中根目录中包含一个名为 example.txt
的文本文件。
可选:创建示例区域永久性磁盘
如果您想创建可用于运行示例脚本的可用区级永久性磁盘,请在创建作业之前执行以下操作:
将名为
example-disk
的新空白永久性磁盘挂接到us-central1-a
可用区中的 Linux 虚拟机,然后在虚拟机上运行命令以格式化和装载磁盘。如需查看相关说明,请参阅向虚拟机添加永久性磁盘。请勿断开与虚拟机的连接。
如需在永久性磁盘上创建
example.txt
,请在虚拟机上运行以下命令:如需将当前工作目录更改为永久性磁盘的根目录,请输入以下命令:
cd VM_MOUNT_PATH
将 VM_MOUNT_PATH 替换为上一步中将永久性磁盘挂载到此虚拟机的目录的路径,例如
/mnt/disks/example-disk
。按
Enter
键。如需创建并定义名为
example.txt
的文件,请输入以下命令:cat > example.txt
按
Enter
键。输入文件内容。例如,输入
Hello world!
。如需保存文件,请按
Ctrl+D
(在 macOS 上,按Command+D
)。
完成后,您可以断开与虚拟机的连接。
从虚拟机分离永久性磁盘。
如果您不再需要该虚拟机,可以删除虚拟机,系统会自动分离永久性磁盘。
否则,请分离永久性磁盘。如需查看相关说明,请参阅分离和重新挂接启动磁盘,然后分离
example-disk
永久性磁盘(而非虚拟机的启动磁盘)。
创建使用现有区域永久性磁盘的作业
如需使用 Google Cloud 控制台创建使用现有可用区永久性磁盘的作业,请执行以下操作:
在 Google Cloud 控制台中,前往 Job list(作业列表)页面。
点击
创建。系统随即会打开创建批处理作业页面。在左侧窗格中,选择作业详情页面。配置作业详情页面:
可选:在作业名称字段中,自定义作业名称。
例如,输入
example-disk-job
。配置任务详情部分:
在新建可运行对象窗口中,添加至少一个脚本或容器以便此作业运行。
例如,如需运行一个脚本来输出名为
example.txt
且位于此作业使用的永久性磁盘的根目录中的文件的内容,请执行以下操作:选中脚本复选框。系统会显示一个文本框。
在文本框中,输入以下脚本:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
将 MOUNT_PATH 替换为您计划将永久性磁盘挂载到此作业的虚拟机的路径,例如
/mnt/disks/example-disk
。点击完成。
在任务数字段中,输入此作业的任务数量。
例如,输入
1
(默认值)。在并行性字段中,输入要并发运行的任务数量。
例如,输入
1
(默认值)。
配置 Resource specifications 页面:
在左侧窗格中,点击资源规范。 系统随即会打开资源规范页面。
选择此作业的位置。 如需使用现有的可用区级永久性磁盘,作业的虚拟机必须位于同一可用区。
在区域字段中,选择一个区域。
例如,如需使用示例可用区级永久性磁盘,请选择
us-central1 (Iowa)
(默认值)。在可用区字段中,选择一个可用区。
例如,选择
us-central1-a (Iowa)
。
配置 Additional configurations(其他配置)页面:
在左侧窗格中,点击其他配置。 系统会打开其他配置页面。
对于您要挂载到此作业的每个现有可用区级永久性磁盘,请执行以下操作:
在存储卷部分中,点击添加新卷。系统随即会显示新建卷窗口。
在新建卷窗口中,执行以下操作:
在卷类型部分,选择永久性磁盘(默认)。
在磁盘列表中,选择要挂载到此作业的现有可用区级永久性磁盘。磁盘必须与此作业位于同一可用区。
例如,选择您准备好的现有可用区永久性磁盘,该磁盘位于
us-central1-a
可用区中,并包含文件example.txt
。可选:如果您想重命名此区域性永久性磁盘,请执行以下操作:
选择自定义设备名称。
在设备名称字段中,输入磁盘的新名称。
在装载路径字段中,输入此永久性磁盘的装载路径 (MOUNT_PATH):
例如,输入以下内容:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
将 EXISTING_PERSISTENT_DISK_NAME 替换为磁盘的名称。如果您重命名了区域性永久性磁盘,请使用新名称。
例如,将 EXISTING_PERSISTENT_DISK_NAME 替换为
example-disk
。点击完成。
可选:配置此作业的其他字段。
可选:如需查看作业配置,请在左侧窗格中点击预览。
点击创建。
作业详情页面会显示您创建的作业。
gcloud
以下示例使用 gcloud CLI 创建了一个作业,用于挂接和装载现有永久性磁盘和新的永久性磁盘。该作业包含 3 个任务,每个任务都会运行一个脚本,以便在名为 output_task_TASK_INDEX.txt
的新永久性磁盘中创建文件,其中 TASK_INDEX 是每个任务的编号:0、1 和 2。
如需使用 gcloud CLI 创建使用永久性磁盘的作业,请使用 gcloud batch jobs submit
命令。在作业的 JSON 配置文件中,在 instances
字段中指定永久性磁盘,并在 volumes
字段中装载永久性磁盘。
创建一个 JSON 文件。
如果您不为此作业使用实例模板,请创建一个 JSON 文件,其中包含以下内容:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
PROJECT_ID
:您的项目的项目 ID。EXISTING_PERSISTENT_DISK_NAME
:现有永久性磁盘的名称。EXISTING_PERSISTENT_DISK_LOCATION
:现有永久性磁盘的位置。对于每个现有可用区级永久性磁盘,作业的所在位置必须是该磁盘所在的可用区;对于每个现有区域级永久性磁盘,作业的所在位置必须是该磁盘所在的区域,或者(如果指定可用区)是该区域级永久性磁盘所在的一个或两个特定可用区。如果您未指定任何现有永久性磁盘,则可以选择任何位置。详细了解allowedLocations
字段。NEW_PERSISTENT_DISK_SIZE
:新永久性磁盘的大小(以 GB 为单位)。允许的大小取决于永久性磁盘的类型,但最小值通常为 10 GB (10
),最大值通常为 64 TB (64000
)。NEW_PERSISTENT_DISK_TYPE
:新永久性磁盘的磁盘类型,即pd-standard
、pd-balanced
、pd-ssd
或pd-extreme
。非启动永久性磁盘的默认磁盘类型为pd-standard
。NEW_PERSISTENT_DISK_NAME
:新永久性磁盘的名称。
如果您为此作业使用虚拟机实例模板,请创建一个 JSON 文件,如前所示,但将
instances
字段替换为以下内容:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
其中
INSTANCE_TEMPLATE_NAME
是此作业的实例模板的名称。对于使用永久性磁盘的作业,此实例模板必须定义并挂接您希望作业使用的永久性磁盘。对于此示例,模板必须定义并挂接一个名为NEW_PERSISTENT_DISK_NAME
的新永久性磁盘,并挂接一个名为EXISTING_PERSISTENT_DISK_NAME
的现有永久性磁盘。
运行以下命令:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
替换以下内容:
JOB_NAME
:作业的名称。LOCATION
:作业的位置。JSON_CONFIGURATION_FILE
:包含作业配置详细信息的 JSON 文件的路径。
API
以下示例使用 Batch API 创建了一个作业,用于挂接和装载现有永久性磁盘和新的永久性磁盘。该作业包含 3 个任务,每个任务都会运行一个脚本,以便在名为 output_task_TASK_INDEX.txt
的新永久性磁盘中创建文件,其中 TASK_INDEX 是每个任务的编号:0、1 和 2。
如需使用批处理 API 创建使用永久性磁盘的作业,请使用 jobs.create
方法。在请求中,在 instances
字段中指定永久性磁盘,并在 volumes
字段中装载永久性磁盘。
如果您不为此作业使用实例模板,请发出以下请求:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
PROJECT_ID
:您的项目的项目 ID。LOCATION
:作业的位置。JOB_NAME
:作业的名称。EXISTING_PERSISTENT_DISK_NAME
:现有永久性磁盘的名称。EXISTING_PERSISTENT_DISK_LOCATION
:现有永久性磁盘的位置。对于每个现有可用区级永久性磁盘,作业的所在位置必须是磁盘所在的可用区;对于每个现有区域级永久性磁盘,作业的所在位置必须是磁盘所在的区域,或者(如果指定可用区)是区域级永久性磁盘所在的一个或两个特定可用区。如果您未指定任何现有永久性磁盘,则可以选择任何位置。详细了解allowedLocations
字段。NEW_PERSISTENT_DISK_SIZE
:新永久性磁盘的大小(以 GB 为单位)。允许的大小取决于永久性磁盘的类型,但最小值通常为 10 GB (10
),最大值通常为 64 TB (64000
)。NEW_PERSISTENT_DISK_TYPE
:新永久性磁盘的磁盘类型,即pd-standard
、pd-balanced
、pd-ssd
或pd-extreme
。非启动永久性磁盘的默认磁盘类型为pd-standard
。NEW_PERSISTENT_DISK_NAME
:新永久性磁盘的名称。
如果您为此作业使用虚拟机实例模板,请创建一个 JSON 文件,如前所示,但将
instances
字段替换为以下内容:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
其中
INSTANCE_TEMPLATE_NAME
是此作业的实例模板的名称。对于使用永久性磁盘的作业,此实例模板必须定义并挂接您希望作业使用的永久性磁盘。对于此示例,模板必须定义并挂接一个名为NEW_PERSISTENT_DISK_NAME
的新永久性磁盘,并挂接一个名为EXISTING_PERSISTENT_DISK_NAME
的现有永久性磁盘。
C++
如需使用 C++ 版 Cloud 客户端库创建使用新或现有永久性磁盘的批处理作业,请使用 CreateJob
函数,并添加以下内容:
- 如需将永久性磁盘挂接到作业的虚拟机,请添加以下任一项:
- 如果您不为此作业使用虚拟机实例模板,请使用
set_remote_path
方法。 - 如果您为此作业使用虚拟机实例模板,请使用
set_instance_template
方法。
- 如果您不为此作业使用虚拟机实例模板,请使用
- 如需将永久性磁盘挂载到作业,请将
volumes
字段与deviceName
和mountPath
字段搭配使用。对于新的永久性磁盘,还应使用mountOptions
字段启用写入。
如需查看类似用例的代码示例,请参阅使用 Cloud Storage 存储分区。
Go
如需使用 Go 版 Cloud 客户端库创建使用新或现有永久性磁盘的批量作业,请使用 CreateJob
函数,并添加以下内容:
- 如需将永久性磁盘挂接到作业的虚拟机,请添加以下任一项:
- 如果您不为此作业使用虚拟机实例模板,请添加
AllocationPolicy_AttachedDisk
类型。 - 如果您要为此作业使用虚拟机实例模板,请添加
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
类型。
- 如果您不为此作业使用虚拟机实例模板,请添加
- 如需将永久性磁盘挂载到作业,请将
Volume
类型与Volume_DeviceName
类型和MountPath
字段搭配使用。对于新的永久性磁盘,还应使用MountOptions
字段启用写入。
Java
如需使用 Java 版 Cloud 客户端库创建使用新或现有永久性磁盘的批处理作业,请使用 CreateJobRequest
类,并添加以下内容:
- 如需将永久性磁盘挂接到作业的虚拟机,请添加以下任一项:
- 如果您不为此作业使用虚拟机实例模板,请添加
setDisks
方法。 - 如果您要为此作业使用虚拟机实例模板,请添加
setInstanceTemplate
方法。
- 如果您不为此作业使用虚拟机实例模板,请添加
- 如需将永久性磁盘挂载到作业,请将
Volume
类与setDeviceName
方法和setMountPath
方法搭配使用。对于新的永久性磁盘,还应使用setMountOptions
方法启用写入。
例如,请使用以下代码示例:
Node.js
如需使用 Node.js 版 Cloud 客户端库创建使用新或现有永久性磁盘的批量作业,请使用 createJob
方法并添加以下内容:
- 如需将永久性磁盘挂接到作业的虚拟机,请添加以下任一项:
- 如果您不为此作业使用虚拟机实例模板,请添加
AllocationPolicy.AttachedDisk
类。 - 如果您要为此作业使用虚拟机实例模板,请添加
instanceTemplate
属性。
- 如果您不为此作业使用虚拟机实例模板,请添加
- 如需将永久性磁盘挂载到作业,请将
Volume
类与deviceName
属性和mountPath
属性结合使用。对于新的永久性磁盘,还应使用mountOptions
属性启用写入。
Python
如需使用 Python 版 Cloud 客户端库创建使用新或现有永久性磁盘的批处理作业,请使用 CreateJob
函数,并添加以下内容:
- 如需将永久性磁盘挂接到作业的虚拟机,请添加以下任一项:
- 如果您不为此作业使用虚拟机实例模板,请添加
AttachedDisk
类。 - 如果您要为此作业使用虚拟机实例模板,请添加
instance_template
属性。
- 如果您不为此作业使用虚拟机实例模板,请添加
- 如需将永久性磁盘挂载到作业,请将
Volume
类与device_name
属性和mount_path
属性搭配使用。对于新的永久性磁盘,还应使用mount_options
属性启用写入。
例如,请使用以下代码示例:
使用本地 SSD
使用本地 SSD 的作业存在以下限制:
- 所有本地 SSD 请查看所有本地 SSD 的限制。
- 实例模板:如果您想在创建此作业时指定虚拟机实例模板,则必须在实例模板中为此作业挂接任何永久性磁盘。否则,如果您不想使用实例模板,则必须直接在作业定义中附加任何永久性磁盘。
您可以使用 gcloud CLI、Batch API、Java 或 Python 创建使用本地 SSD 的作业。以下示例介绍了如何创建用于创建、附加和挂载本地 SSD 的作业。该作业还有 3 个任务,每个任务都会运行一个脚本,以便在名为 output_task_TASK_INDEX.txt
的本地 SSD 中创建文件,其中 TASK_INDEX
是每个任务的编号:0
、1
和 2
。
gcloud
如需使用 gcloud CLI 创建使用本地 SSD 的作业,请使用 gcloud batch jobs submit
命令。在作业的 JSON 配置文件中,在 instances
字段中创建并附加本地 SSD,并在 volumes
字段中挂载本地 SSD。
创建一个 JSON 文件。
如果您不为此作业使用实例模板,请创建一个 JSON 文件,其中包含以下内容:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
MACHINE_TYPE
:作业虚拟机的机器类型,可以是预定义或自定义。允许的本地 SSD 数量取决于作业虚拟机的机器类型。LOCAL_SSD_NAME
:为此作业创建的本地 SSD 的名称。LOCAL_SSD_SIZE
:所有本地 SSD 的大小(以 GB 为单位)。每个本地 SSD 为 375 GB,因此此值必须为375
GB 的倍数。例如,对于 2 个本地 SSD,请将此值设为750
GB。
如果您为此作业使用虚拟机实例模板,请创建一个 JSON 文件,如前所示,但将
instances
字段替换为以下内容:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
其中
INSTANCE_TEMPLATE_NAME
是此作业的实例模板的名称。对于使用本地 SSD 的作业,此实例模板必须定义并附加您希望作业使用的本地 SSD。对于此示例,模板必须定义并附加一个名为LOCAL_SSD_NAME
的本地 SSD。
运行以下命令:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
替换以下内容:
JOB_NAME
:作业的名称。LOCATION
:作业的位置。JSON_CONFIGURATION_FILE
:包含作业配置详细信息的 JSON 文件的路径。
API
如需使用批处理 API 创建使用本地固态硬盘的作业,请使用 jobs.create
方法。在请求中,在 instances
字段中创建并附加本地 SSD,并在 volumes
字段中挂载本地 SSD。
如果您不为此作业使用实例模板,请发出以下请求:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
PROJECT_ID
:您的项目的项目 ID。LOCATION
:作业的位置。JOB_NAME
:作业的名称。MACHINE_TYPE
:作业虚拟机的机器类型,可以是预定义或自定义。允许的本地 SSD 数量取决于作业虚拟机的机器类型。LOCAL_SSD_NAME
:为此作业创建的本地 SSD 的名称。LOCAL_SSD_SIZE
:所有本地 SSD 的大小(以 GB 为单位)。每个本地 SSD 为 375 GB,因此此值必须为375
GB 的倍数。例如,对于 2 个本地 SSD,请将此值设为750
GB。
如果您为此作业使用虚拟机实例模板,请创建一个 JSON 文件,如前所示,但将
instances
字段替换为以下内容:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
其中
INSTANCE_TEMPLATE_NAME
是此作业的实例模板的名称。对于使用本地 SSD 的作业,此实例模板必须定义并附加您希望作业使用的本地 SSD。对于此示例,模板必须定义并附加一个名为LOCAL_SSD_NAME
的本地 SSD。
Go
Java
Node.js
Python
使用 Cloud Storage 存储桶
如需创建使用现有 Cloud Storage 存储分区的作业,请选择以下方法之一:
- 建议:在作业的定义中指定存储分区,以便将存储分区直接挂载到作业的虚拟机,如本部分所示。作业运行时,系统会使用 Cloud Storage FUSE 自动将该存储分区挂载到作业的虚拟机。
- 使用 gcloud CLI 或 Cloud Storage API 的客户端库创建一个作业,其中包含直接访问 Cloud Storage 存储分区的任务。如需了解如何直接从虚拟机访问 Cloud Storage 存储分区,请参阅 Compute Engine 文档中的对 Cloud Storage 存储分区执行数据读写操作部分。
在创建使用存储分区的作业之前,请创建存储分区或指定现有存储分区。如需了解详情,请参阅创建存储分区和列出存储分区。
您可以使用 Google Cloud 控制台、gcloud CLI、Batch API、C++、Go、Java、Node.js 或 Python 创建使用 Cloud Storage 存储分区的作业。
以下示例介绍了如何创建用于挂载 Cloud Storage 存储分区的作业。该作业还有 3 个任务,每个任务都会运行一个脚本,以便在名为 output_task_TASK_INDEX.txt
的存储分区中创建文件,其中 TASK_INDEX
是每个任务的索引:0
、1
和 2
。
控制台
如需使用 Google Cloud 控制台创建使用 Cloud Storage 存储分区的作业,请执行以下操作:
在 Google Cloud 控制台中,前往 Job list(作业列表)页面。
点击
创建。系统随即会打开创建批处理作业页面。在左侧窗格中,选择作业详情页面。配置作业详情页面:
可选:在作业名称字段中,自定义作业名称。
例如,输入
example-bucket-job
。配置任务详情部分:
在新建可运行对象窗口中,添加至少一个脚本或容器以便此作业运行。
例如,请执行以下操作:
选中脚本复选框。系统会显示一个文本框。
在文本框中,输入以下脚本:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
将 MOUNT_PATH 替换为此作业的可运行文件使用来访问现有 Cloud Storage 存储分区的挂载路径。路径必须以
/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-bucket
的目录表示此存储分区,请将挂载路径设置为/mnt/disks/my-bucket
。点击完成。
在任务数字段中,输入此作业的任务数量。
例如,输入
3
。在并行性字段中,输入要并发运行的任务数量。
例如,输入
1
(默认值)。
配置 Additional configurations(其他配置)页面:
在左侧窗格中,点击其他配置。 系统会打开其他配置页面。
对于要挂载到此作业的每个 Cloud Storage 存储分区,请执行以下操作:
在存储卷部分中,点击添加新卷。系统随即会显示新建卷窗口。
在新建卷窗口中,执行以下操作:
在卷类型部分,选择 Cloud Storage 存储分区。
在存储分区名称字段中,输入现有存储分区的名称。
例如,输入您在此作业的可运行代码中指定的存储分区。
在装载路径字段中,输入您在可运行文件中指定的存储分区 (MOUNT_PATH) 的装载路径。
点击完成。
可选:配置此作业的其他字段。
可选:如需查看作业配置,请在左侧窗格中点击预览。
点击创建。
作业详情页面会显示您创建的作业。
gcloud
如需使用 gcloud CLI 创建使用 Cloud Storage 存储分区的作业,请使用 gcloud batch jobs submit
命令。在作业的 JSON 配置文件中,在 volumes
字段中挂载存储分区。
例如,若要创建一个将文件输出到 Cloud Storage 的作业,请执行以下操作:
使用以下内容创建 JSON 文件:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
BUCKET_PATH
:您希望此作业访问的存储分区目录的路径,该路径必须以存储分区的名称开头。例如,对于名为BUCKET_NAME
的存储分区,路径BUCKET_NAME
表示存储分区的根目录,路径BUCKET_NAME/subdirectory
表示subdirectory
子目录。MOUNT_PATH
:作业的可运行文件使用来访问此存储分区的挂载路径。路径必须以/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-bucket
的目录表示此存储分区,请将装载路径设置为/mnt/disks/my-bucket
。
运行以下命令:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
替换以下内容:
JOB_NAME
:作业的名称。LOCATION
:作业的位置。JSON_CONFIGURATION_FILE
:包含作业配置详细信息的 JSON 文件的路径。
API
如需使用 Batch API 创建使用 Cloud Storage 存储分区的作业,请使用 jobs.create
方法并在 volumes
字段中挂载存储分区。
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
替换以下内容:
PROJECT_ID
:您的项目的项目 ID。LOCATION
:作业的位置。JOB_NAME
:作业的名称。BUCKET_PATH
:您希望此作业访问的存储分区目录的路径,该路径必须以存储分区的名称开头。例如,对于名为BUCKET_NAME
的存储分区,路径BUCKET_NAME
表示存储分区的根目录,路径BUCKET_NAME/subdirectory
表示subdirectory
子目录。MOUNT_PATH
:作业的可运行文件使用来访问此存储分区的挂载路径。路径必须以/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-bucket
的目录表示此存储分区,请将挂载路径设置为/mnt/disks/my-bucket
。
C++
C++
如需了解详情,请参阅 批处理 C++ API 参考文档。
如需向 Batch 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Go
Go
如需了解详情,请参阅 批处理 Go API 参考文档。
如需向 Batch 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Java
Java
如需了解详情,请参阅 批处理 Java API 参考文档。
如需向 Batch 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Node.js
Node.js
如需了解详情,请参阅 批处理 Node.js API 参考文档。
如需向 Batch 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Python
Python
如需了解详情,请参阅 批处理 Python API 参考文档。
如需向 Batch 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
使用网络文件系统
您可以使用 Google Cloud 控制台、gcloud CLI 或 Batch API 创建使用现有网络文件系统 (NFS)(例如 Filestore 文件共享)的作业。
在创建使用 NFS 的作业之前,请确保网络的防火墙已正确配置,以允许作业的虚拟机与 NFS 之间传输流量。如需了解详情,请参阅为 Filestore 配置防火墙规则。
以下示例介绍了如何创建用于指定和挂载 NFS 的作业。该作业还有 3 个任务,每个任务都会运行一个脚本,以便在名为 output_task_TASK_INDEX.txt
的 NFS 中创建文件,其中 TASK_INDEX
是每个任务的编号:0
、1
和 2
。
控制台
如需使用 Google Cloud 控制台创建使用 NFS 的作业,请执行以下操作:
在 Google Cloud 控制台中,前往 Job list(作业列表)页面。
点击
创建。系统随即会打开创建批处理作业页面。在左侧窗格中,选择作业详情页面。配置作业详情页面:
可选:在作业名称字段中,自定义作业名称。
例如,输入
example-nfs-job
。配置任务详情部分:
在新建可运行对象窗口中,添加至少一个脚本或容器以便此作业运行。
例如,请执行以下操作:
选中脚本复选框。系统会显示一个文本框。
在文本框中,输入以下脚本:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
将 MOUNT_PATH 替换为作业的可运行文件使用来访问此 NFS 的挂载路径。路径必须以
/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-nfs
的目录表示此 NFS,请将挂载路径设置为/mnt/disks/my-nfs
。点击完成。
在任务数字段中,输入此作业的任务数量。
例如,输入
3
。在并行性字段中,输入要并发运行的任务数量。
例如,输入
1
(默认值)。
配置 Additional configurations(其他配置)页面:
在左侧窗格中,点击其他配置。 系统会打开其他配置页面。
对于要挂载到此作业的每个 Cloud Storage 存储分区,请执行以下操作:
在存储卷部分中,点击添加新卷。系统随即会显示新建卷窗口。
在新建卷窗口中,执行以下操作:
在卷类型部分中,选择网络文件系统。
在 File server 字段中,输入您在此作业的可运行文件中指定的 NFS 所在服务器的 IP 地址。
例如,如果您的 NFS 是 Filestore 文件共享,请指定 Filestore 实例的 IP 地址,您可以通过描述 Filestore 实例来获取该地址。
在远程路径字段中,输入一个可以访问您在上一步中指定的 NFS 的路径。
NFS 目录的路径必须以
/
开头,后跟 NFS 的根目录。在装载路径字段中,输入您在上一步中指定的 NFS (MOUNT_PATH) 的装载路径。
点击完成。
可选:配置此作业的其他字段。
可选:如需查看作业配置,请在左侧窗格中点击预览。
点击创建。
作业详情页面会显示您创建的作业。
gcloud
如需使用 gcloud CLI 创建使用 NFS 的作业,请使用 gcloud batch jobs submit
命令。在作业的 JSON 配置文件中,在 volumes
字段中挂载 NFS。
使用以下内容创建 JSON 文件:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
替换以下内容:
NFS_IP_ADDRESS
:NFS 的 IP 地址。例如,如果您的 NFS 是 Filestore 文件共享,请指定 Filestore 实例的 IP 地址,您可以通过描述 Filestore 实例来获取该地址。NFS_PATH
:您希望此作业访问的 NFS 目录的路径,必须以/
开头,后跟 NFS 的根目录。例如,对于名为FILE_SHARE_NAME
的 Filestore 文件共享,路径/FILE_SHARE_NAME
表示文件共享的根目录,路径/FILE_SHARE_NAME/subdirectory
表示subdirectory
子目录。MOUNT_PATH
:作业的可运行文件使用来访问此 NFS 的挂载路径。路径必须以/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-nfs
的目录表示此 NFS,请将挂载路径设置为/mnt/disks/my-nfs
。
运行以下命令:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
替换以下内容:
JOB_NAME
:作业的名称。LOCATION
:作业的位置。JSON_CONFIGURATION_FILE
:包含作业配置详细信息的 JSON 文件的路径。
API
如需使用批处理 API 创建使用 NFS 的作业,请使用 jobs.create
方法,并在 volumes
字段中挂载 NFS。
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
替换以下内容:
PROJECT_ID
:您的项目的项目 ID。LOCATION
:作业的位置。JOB_NAME
:作业的名称。NFS_IP_ADDRESS
:网络文件系统的 IP 地址。例如,如果您的 NFS 是 Filestore 文件共享,请指定 Filestore 实例的 IP 地址,您可以通过描述 Filestore 实例来获取该地址。NFS_PATH
:您希望此作业访问的 NFS 目录的路径,必须以/
开头,后跟 NFS 的根目录。例如,对于名为FILE_SHARE_NAME
的 Filestore 文件共享,路径/FILE_SHARE_NAME
表示文件共享的根目录,路径/FILE_SHARE_NAME/subdirectory
表示子目录。MOUNT_PATH
:作业的可运行文件使用来访问此 NFS 的挂载路径。路径必须以/mnt/disks/
开头,后跟您选择的目录或路径。例如,如果您想使用名为my-nfs
的目录表示此 NFS,请将挂载路径设置为/mnt/disks/my-nfs
。