En este documento, se explica cómo crear y ejecutar un trabajo por lotes que use uno o más volúmenes de almacenamiento externo. Las opciones de almacenamiento externo incluyen discos persistentes nuevos o existentes, SSD locales nuevos, buckets de Cloud Storage existentes y un sistema de archivos de red (NFS) existente, como un archivo compartido de Filestore.
Independientemente de si agregas volúmenes de almacenamiento externos, cada VM de Compute Engine para un trabajo tiene un disco de arranque, que proporciona almacenamiento para la imagen y las instrucciones del sistema operativo (SO) del trabajo. Para obtener información sobre cómo configurar el disco de arranque de una tarea, consulta la descripción general del entorno del SO de la VM.
Antes de comenzar
- Si nunca usaste Batch, consulta Cómo comenzar a usar Batch y habilita Batch completando los requisitos previos para proyectos y usuarios.
-
Para obtener los permisos que necesitas para crear un trabajo, pídele a tu administrador que te otorgue los siguientes roles de IAM:
-
Editor de trabajos por lotes (
roles/batch.jobsEditor
) en el proyecto -
Usuario de la cuenta de servicio (
roles/iam.serviceAccountUser
) en la cuenta de servicio del trabajo, que de forma predeterminada es la cuenta de servicio predeterminada de Compute Engine -
Crea un trabajo que use un bucket de Cloud Storage:
Visualizador de objetos de almacenamiento (
roles/storage.objectViewer
) en el bucket
Para obtener más información sobre cómo otorgar roles, consulta Administra el acceso a proyectos, carpetas y organizaciones.
También puedes obtener los permisos necesarios mediante roles personalizados o cualquier otro rol predefinido.
-
Editor de trabajos por lotes (
Crea un trabajo que use volúmenes de almacenamiento
De manera opcional, una tarea puede usar uno o más de cada uno de los siguientes tipos de volúmenes de almacenamiento externo. Para obtener más información sobre todos los tipos de volúmenes de almacenamiento y las diferencias y restricciones de cada uno, consulta la documentación de Opciones de almacenamiento de las VMs de Compute Engine.
- disco persistente: almacenamiento en bloque persistente zonal o regional
- SSD local: Almacenamiento en bloque transitorio de alto rendimiento
- Bucket de Cloud Storage: Almacenamiento de objetos asequible
- sistema de archivos de red (NFS): Es un sistema de archivos distribuido que sigue el protocolo del sistema de archivos de red. Por ejemplo, un recurso compartido de archivos de Filestore, que es un NFS de alto rendimiento alojado en Google Cloud
Para permitir que un trabajo use cada volumen de almacenamiento, inclúyelo en la definición del trabajo y especifica su ruta de activación (mountPath
) en tus ejecutables. Para obtener información sobre cómo crear un trabajo que use volúmenes de almacenamiento, consulta una o más de las siguientes secciones:
- Cómo usar un disco persistente
- Cómo usar un SSD local
- Cómo usar un bucket de Cloud Storage
- Cómo usar un sistema de archivos de red
Usa un disco persistente
Una tarea que usa discos persistentes tiene las siguientes restricciones:
Todos los discos persistentes: Revisa las restricciones para todos los discos persistentes.
Discos persistentes nuevos en comparación con los existentes: Cada disco persistente en un trabajo puede ser nuevo (definido y creado con el trabajo) o existente (ya creado en tu proyecto y especificado en el trabajo). Para usar un disco persistente, este debe formatearse y activarse en las VMs del trabajo, que deben estar en la misma ubicación que el disco persistente. El procesamiento por lotes activa cualquier disco persistente que incluyas en un trabajo y formatea los discos persistentes nuevos, pero debes formatear y desactivar los discos persistentes existentes que quieras que use un trabajo.
Las opciones de ubicación, las opciones de formato y las opciones de activación compatibles varían entre los discos persistentes nuevos y existentes, como se describe en la siguiente tabla:
Discos persistentes nuevos Discos persistentes existentes Opciones de formato El disco persistente se formatea automáticamente con un sistema de archivos
ext4
.Debes formatear el disco persistente para usar un sistema de archivos
ext4
antes de usarlo para una tarea.Opciones de activación Se admiten todas las opciones.
Se admiten todas las opciones, excepto la escritura. Esto se debe a las restricciones del modo multiescritura.
Debes desconectar el disco persistente de las VMs a las que está conectado antes de usarlo para un trabajo.
Opciones de ubicación Solo puedes crear discos persistentes zonales.
Puedes seleccionar cualquier ubicación para tu trabajo. Los discos persistentes se crean en la zona en la que se ejecuta tu proyecto.
Puedes seleccionar discos persistentes zonales y regionales.
Debes configurar la ubicación del trabajo (o, si se especifica, solo las ubicaciones permitidas) en solo las ubicaciones que contengan todos los discos persistentes del trabajo. Por ejemplo, para un disco persistente zonal, la ubicación del trabajo debe ser la zona del disco. Para un disco persistente regional, la ubicación del trabajo debe ser la región del disco o, si se especifican zonas, una o ambas de las zonas específicas en las que se encuentra el disco persistente regional.Plantillas de instancias: Si deseas usar una plantilla de instancias de VM cuando crees este trabajo, debes adjuntar los discos persistentes de este trabajo en la plantilla de instancias. De lo contrario, si no quieres usar una plantilla de instancia, debes adjuntar los discos persistentes directamente en la definición del trabajo.
Puedes crear un trabajo que use un disco persistente con la consola de Google Cloud, gcloud CLI, la API de Batch, C++, Go, Java, Node.js o Python.
Console
En el siguiente ejemplo, se usa la consola de Google Cloud para crear un trabajo que ejecuta una secuencia de comandos para leer un archivo de un disco persistente zonal existente que se encuentra en la zona us-central1-a
. En la secuencia de comandos de ejemplo, se supone que la tarea tiene un disco persistente zonal existente que contiene un archivo de texto llamado example.txt
en el directorio raíz.
Opcional: Crea un disco persistente zonal de ejemplo
Si quieres crear un disco persistente zonal que puedas usar para ejecutar la secuencia de comandos de ejemplo, haz lo siguiente antes de crear tu trabajo:
Conecta un nuevo disco persistente en blanco llamado
example-disk
a una VM de Linux en la zonaus-central1-a
y, luego, ejecuta comandos en la VM para formatear y activar el disco. Para obtener instrucciones, consulta Agrega un disco persistente a tu VM.No te desconectes de la VM todavía.
Para crear
example.txt
en el disco persistente, ejecuta los siguientes comandos en la VM:Para cambiar el directorio de trabajo actual al directorio raíz del disco persistente, escribe el siguiente comando:
cd VM_MOUNT_PATH
Reemplaza VM_MOUNT_PATH por la ruta de acceso al directorio en el que se activó el disco persistente en esta VM en el paso anterior, por ejemplo,
/mnt/disks/example-disk
.Presiona
Enter
.Para crear y definir un archivo llamado
example.txt
, escribe el siguiente comando:cat > example.txt
Presiona
Enter
.Escribe el contenido del archivo. Por ejemplo, escribe
Hello world!
.Para guardar el archivo, presiona
Ctrl+D
(oCommand+D
en macOS).
Cuando hayas terminado, puedes desconectarte de la VM.
Desconecta el disco persistente de la VM.
Si ya no necesitas la VM, puedes borrarla, lo que desconecta automáticamente el disco persistente.
De lo contrario, desconecta el disco persistente. Para obtener instrucciones, consulta Desconecta y vuelve a conectar discos de arranque y desconecta el disco persistente
example-disk
en lugar del disco de arranque de la VM.
Crea un trabajo que use el disco persistente zonal existente
Para crear un trabajo que use discos persistentes zonales existentes con la consola de Google Cloud, haz lo siguiente:
En la consola de Google Cloud, ve a la página Lista de trabajos.
Haz clic en
Crear. Se abrirá la página Create batch job. En el panel izquierdo, se selecciona la página Detalles del trabajo.Configura la página Detalles del trabajo:
Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.
Por ejemplo, ingresa
example-disk-job
.Configura la sección Detalles de la tarea:
En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o un contenedor para que se ejecute esta tarea.
Por ejemplo, para ejecutar una secuencia de comandos que imprima el contenido de un archivo que se llame
example.txt
y se encuentre en el directorio raíz del disco persistente que usa esta tarea, haz lo siguiente:Selecciona la casilla de verificación Secuencia de comandos. Aparecerá un cuadro de texto.
En el cuadro de texto, ingresa la siguiente secuencia de comandos:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Reemplaza MOUNT_PATH por la ruta de acceso a la ubicación en la que planeas activar el disco persistente en las VMs para esta tarea, por ejemplo,
/mnt/disks/example-disk
.Haz clic en Listo.
En el campo Task count, ingresa la cantidad de tareas para este trabajo.
Por ejemplo, ingresa
1
(predeterminado).En el campo Paralelismo, ingresa la cantidad de tareas que se ejecutarán de forma simultánea.
Por ejemplo, ingresa
1
(predeterminado).
Configura la página Especificaciones de recursos:
En el panel izquierdo, haz clic en Especificaciones de recursos. Se abrirá la página Especificaciones de recursos.
Selecciona la ubicación para este trabajo. Para usar un disco persistente zonal existente, las VMs de un trabajo deben estar ubicadas en la misma zona.
En el campo Región, selecciona una región.
Por ejemplo, para usar el disco persistente zonal de ejemplo, selecciona
us-central1 (Iowa)
(opción predeterminada).En el campo Zona, selecciona una zona.
Por ejemplo, selecciona
us-central1-a (Iowa)
.
Configura la página Configuraciones adicionales:
En el panel izquierdo, haz clic en Configuraciones adicionales. Se abrirá la página Configuraciones adicionales.
Para cada disco persistente zonal existente que quieras activar en esta tarea, haz lo siguiente:
En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana New volume.
En la ventana Volumen nuevo, haz lo siguiente:
En la sección Tipo de volumen, selecciona Disco persistente (configuración predeterminada).
En la lista Disco, selecciona un disco persistente zonal existente que quieras activar en esta tarea. El disco debe estar ubicado en la misma zona que esta tarea.
Por ejemplo, selecciona el disco persistente zonal existente que preparaste, que se encuentra en la zona
us-central1-a
y contiene el archivoexample.txt
.Opcional: Si quieres cambiar el nombre de este disco persistente zonal, haz lo siguiente:
Selecciona Personalizar el nombre del dispositivo.
En el campo Nombre del dispositivo, ingresa el nombre nuevo para tu disco.
En el campo Ruta de activación, ingresa la ruta de activación (MOUNT_PATH) para este disco persistente:
Por ejemplo, ingresa lo siguiente:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Reemplaza EXISTING_PERSISTENT_DISK_NAME por el nombre del disco. Si cambiaste el nombre del disco persistente zonal, usa el nombre nuevo.
Por ejemplo, reemplaza EXISTING_PERSISTENT_DISK_NAME por
example-disk
.Haz clic en Listo.
Opcional: Configura los otros campos para este trabajo.
Opcional: Para revisar la configuración del trabajo, haz clic en Obtener vista previa en el panel izquierdo.
Haz clic en Crear.
En la página Detalles del trabajo, se muestra el trabajo que creaste.
gcloud
En el siguiente ejemplo, se usa la CLI de gcloud para crear una tarea que
conecta y activa un disco persistente existente y uno nuevo.
La tarea tiene 3 tareas que ejecutan una secuencia de comandos para crear un archivo en el nuevo disco persistente llamado output_task_TASK_INDEX.txt
, en el que TASK_INDEX es el índice de cada tarea: 0, 1 y 2.
Para crear un trabajo que use discos persistentes con la CLI de gcloud, usa el comando gcloud batch jobs submit
.
En el archivo de configuración JSON del trabajo, especifica los discos persistentes en el campo instances
y activa el disco persistente en el campo volumes
.
Crea un archivo JSON.
Si no usas una plantilla de instancia para esta tarea, crea un archivo JSON con el siguiente contenido:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto de tu proyecto.EXISTING_PERSISTENT_DISK_NAME
: Es el nombre de un disco persistente existente.EXISTING_PERSISTENT_DISK_LOCATION
: Es la ubicación de un disco persistente existente. Para cada disco persistente zonal existente, la ubicación del trabajo debe ser la zona del disco. Para cada disco persistente regional existente, la ubicación del trabajo debe ser la región del disco o, si se especifican zonas, una o ambas de las zonas específicas en las que se encuentra el disco persistente regional. Si no especificas ningún disco persistente existente, puedes seleccionar cualquier ubicación. Obtén más información sobre el campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: Es el tamaño del disco persistente nuevo en GB. Los tamaños permitidos dependen del tipo de disco persistente, pero el mínimo suele ser de 10 GB (10
) y el máximo suele ser de 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: Es el tipo de disco del nuevo disco persistente, ya seapd-standard
,pd-balanced
,pd-ssd
opd-extreme
. El tipo de disco predeterminado para los discos persistentes que no son de arranque espd-standard
.NEW_PERSISTENT_DISK_NAME
: Es el nombre del nuevo disco persistente.
Si usas una plantilla de instancia de VM para este trabajo, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo
instances
por lo siguiente:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
en el que
INSTANCE_TEMPLATE_NAME
es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que use discos persistentes, esta plantilla de instancia debe definir y adjuntar los discos persistentes que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un nuevo disco persistente llamadoNEW_PERSISTENT_DISK_NAME
y conectar un disco persistente existente llamadoEXISTING_PERSISTENT_DISK_NAME
.
Ejecuta el siguiente comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Reemplaza lo siguiente:
JOB_NAME
: Es el nombre del trabajo.LOCATION
: Es la ubicación del trabajo.JSON_CONFIGURATION_FILE
: Es la ruta de acceso a un archivo JSON con los detalles de configuración de la tarea.
API
Con la API de Batch, el siguiente ejemplo crea un trabajo
que conecta y activa un disco persistente existente y un disco
persistente nuevo. La tarea tiene 3 tareas que ejecutan una secuencia de comandos para crear un archivo en el nuevo disco persistente llamado output_task_TASK_INDEX.txt
, en el que TASK_INDEX es el índice de cada tarea: 0, 1 y 2.
Para crear un trabajo que use discos persistentes con la API de Batch, usa el método jobs.create
.
En la solicitud, especifica los discos persistentes en el campo instances
y activa el disco persistente en el campo volumes
.
Si no usas una plantilla de instancias para este trabajo, realiza la siguiente solicitud:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto de tu proyecto.LOCATION
: Es la ubicación del trabajo.JOB_NAME
: Es el nombre del trabajo.EXISTING_PERSISTENT_DISK_NAME
: Es el nombre de un disco persistente existente.EXISTING_PERSISTENT_DISK_LOCATION
: Es la ubicación de un disco persistente existente. Para cada disco persistente zonal existente, la ubicación del trabajo debe ser la zona del disco. Para cada disco persistente regional existente, la ubicación del trabajo debe ser la región del disco o, si se especifican zonas, una o ambas zonas específicas en las que se encuentra el disco persistente regional. Si no especificas ningún disco persistente existente, puedes seleccionar cualquier ubicación. Obtén más información sobre el campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: Es el tamaño del disco persistente nuevo en GB. Los tamaños permitidos dependen del tipo de disco persistente, pero el mínimo suele ser de 10 GB (10
) y el máximo suele ser de 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: Es el tipo de disco del nuevo disco persistente, ya seapd-standard
,pd-balanced
,pd-ssd
opd-extreme
. El tipo de disco predeterminado para los discos persistentes que no son de arranque espd-standard
.NEW_PERSISTENT_DISK_NAME
: Es el nombre del nuevo disco persistente.
Si usas una plantilla de instancia de VM para este trabajo, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo
instances
por lo siguiente:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
En el que
INSTANCE_TEMPLATE_NAME
es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que use discos persistentes, esta plantilla de instancia debe definir y adjuntar los discos persistentes que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un nuevo disco persistente llamadoNEW_PERSISTENT_DISK_NAME
y conectar un disco persistente existente llamadoEXISTING_PERSISTENT_DISK_NAME
.
C++
Para crear un trabajo por lotes que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para C++, usa la función CreateJob
y, luego, incluye lo siguiente:
- Para conectar discos persistentes a las VMs de un trabajo,
incluye una de las siguientes opciones:
- Si no usas una plantilla de instancia de VM para esta tarea, usa el método
set_remote_path
. - Si usas una plantilla de instancia de VM para este trabajo, usa el método
set_instance_template
.
- Si no usas una plantilla de instancia de VM para esta tarea, usa el método
- Para activar los discos persistentes en la tarea, usa el campo
volumes
con los camposdeviceName
ymountPath
. En el caso de los discos persistentes nuevos, también usa el campomountOptions
para habilitar la escritura.
Para ver una muestra de código de un caso de uso similar, consulta Cómo usar un bucket de Cloud Storage.
Go
Para crear un trabajo de Batch que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para Go, usa la función CreateJob
y, luego, incluye lo siguiente:
- Para conectar discos persistentes a las VMs de un trabajo,
incluye una de las siguientes opciones:
- Si no usas una plantilla de instancia de VM para este trabajo, incluye el tipo
AllocationPolicy_AttachedDisk
. - Si usas una plantilla de instancias de VM para este trabajo, incluye el tipo
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
.
- Si no usas una plantilla de instancia de VM para este trabajo, incluye el tipo
- Para activar los discos persistentes en la tarea, usa el tipo
Volume
con el tipoVolume_DeviceName
y el campoMountPath
. En el caso de los discos persistentes nuevos, también usa el campoMountOptions
para habilitar la escritura.
Java
Para crear un trabajo de Batch que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para Java, usa la clase CreateJobRequest
y, luego, incluye lo siguiente:
- Para conectar discos persistentes a las VMs de un trabajo,
incluye una de las siguientes opciones:
- Si no usas una plantilla de instancia de VM para esta tarea, incluye el método
setDisks
. - Si usas una plantilla de instancia de VM para esta tarea, incluye el método
setInstanceTemplate
.
- Si no usas una plantilla de instancia de VM para esta tarea, incluye el método
- Para activar los discos persistentes en la tarea, usa la
clase
Volume
con el métodosetDeviceName
y el métodosetMountPath
. En el caso de los discos persistentes nuevos, también usa el métodosetMountOptions
para habilitar la escritura.
Por ejemplo, usa el siguiente código de muestra:
Node.js
Para crear un trabajo de Batch que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para Node.js, usa el método createJob
y, luego, incluye lo siguiente:
- Para conectar discos persistentes a las VMs de un trabajo,
incluye una de las siguientes opciones:
- Si no usas una plantilla de instancia de VM para esta tarea,
incluye la clase
AllocationPolicy.AttachedDisk
. - Si usas una plantilla de instancias de VM para esta tarea,
incluye la propiedad
instanceTemplate
.
- Si no usas una plantilla de instancia de VM para esta tarea,
incluye la clase
- Para activar los discos persistentes en la tarea, usa la clase
Volume
con la propiedaddeviceName
y la propiedadmountPath
. En el caso de los discos persistentes nuevos, también usa la propiedadmountOptions
para habilitar la escritura.
Python
Para crear un trabajo por lotes que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para Python, usa la función CreateJob
y, luego, incluye lo siguiente:
- Para conectar discos persistentes a las VMs de un trabajo,
incluye una de las siguientes opciones:
- Si no usas una plantilla de instancia de VM para esta tarea,
incluye la clase
AttachedDisk
. - Si usas una plantilla de instancia de VM para este trabajo, incluye el atributo
instance_template
.
- Si no usas una plantilla de instancia de VM para esta tarea,
incluye la clase
- Para activar los discos persistentes en la tarea, usa la
clase
Volume
con los atributosdevice_name
ymount_path
. En el caso de los discos persistentes nuevos, también usa el atributomount_options
para habilitar la escritura.
Por ejemplo, usa el siguiente código de muestra:
Usa un SSD local
Una tarea que usa SSD locales tiene las siguientes restricciones:
- Todos los SSD locales Consulta las restricciones para todos los SSD locales.
- Plantillas de instancias Si deseas especificar una plantilla de instancias de VM cuando creas este trabajo, debes adjuntar los discos persistentes de este trabajo en la plantilla de instancias. De lo contrario, si no quieres usar una plantilla de instancia, debes conectar los discos persistentes directamente en la definición del trabajo.
Puedes crear un trabajo que use un SSD local con la CLI de gcloud, la API de Batch, Java o Python.
En el siguiente ejemplo, se describe cómo crear una tarea que cree, conecte y monte un SSD local. La tarea también tiene 3 tareas
que ejecutan una secuencia de comandos para crear un archivo en el SSD local llamado
output_task_TASK_INDEX.txt
, en el que
TASK_INDEX
es el índice de cada tarea:
0
, 1
y 2
.
gcloud
Para crear un trabajo que use SSD locales con la CLI de gcloud, usa el comando gcloud batch jobs submit
.
En el archivo de configuración JSON del trabajo, crea y conecta las SSD locales en el campo instances
y actívalas en el campo volumes
.
Crea un archivo JSON.
Si no usas una plantilla de instancia para esta tarea, crea un archivo JSON con el siguiente contenido:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
MACHINE_TYPE
: Es el tipo de máquina, que puede ser predefinido o personalizado, de las VMs del trabajo. La cantidad permitida de SSD locales depende del tipo de máquina de las VMs de tu trabajo.LOCAL_SSD_NAME
: Es el nombre de una SSD local creada para esta tarea.LOCAL_SSD_SIZE
: Es el tamaño de todos los SSD locales en GB. Cada SSD local es de 375 GB, por lo que este valor debe ser un múltiplo de375
GB. Por ejemplo, para 2 SSD locales, establece este valor en750
GB.
Si usas una plantilla de instancia de VM para este trabajo, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo
instances
por lo siguiente:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
en el que
INSTANCE_TEMPLATE_NAME
es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que use SSD locales, esta plantilla de instancia debe definir y adjuntar los SSD locales que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un SSD local llamadoLOCAL_SSD_NAME
.
Ejecuta el siguiente comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Reemplaza lo siguiente:
JOB_NAME
: Es el nombre del trabajo.LOCATION
: Es la ubicación del trabajo.JSON_CONFIGURATION_FILE
: Es la ruta de acceso a un archivo JSON con los detalles de configuración de la tarea.
API
Para crear un trabajo que use SSDs locales con la API de Batch, usa el método jobs.create
.
En la solicitud, crea y conecta los SSD locales en el campo instances
y actívalos en el campo volumes
.
Si no usas una plantilla de instancias para este trabajo, realiza la siguiente solicitud:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto de tu proyecto.LOCATION
: Es la ubicación del trabajo.JOB_NAME
: Es el nombre del trabajo.MACHINE_TYPE
: Es el tipo de máquina, que puede ser predefinido o personalizado, de las VMs del trabajo. La cantidad permitida de SSD locales depende del tipo de máquina de las VMs de tu trabajo.LOCAL_SSD_NAME
: Es el nombre de una SSD local creada para esta tarea.LOCAL_SSD_SIZE
: Es el tamaño de todos los SSD locales en GB. Cada SSD local es de 375 GB, por lo que este valor debe ser un múltiplo de375
GB. Por ejemplo, para 2 SSD locales, establece este valor en750
GB.
Si usas una plantilla de instancia de VM para este trabajo, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo
instances
por lo siguiente:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
En el que
INSTANCE_TEMPLATE_NAME
es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que use SSD locales, esta plantilla de instancia debe definir y adjuntar los SSD locales que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un SSD local llamadoLOCAL_SSD_NAME
.
Go
Java
Node.js
Python
Usa un bucket de Cloud Storage
Para crear un trabajo que use un bucket de Cloud Storage existente, selecciona uno de los siguientes métodos:
- Opción recomendada: Activa un bucket directamente en las VMs de tu trabajo especificando el bucket en la definición del trabajo, como se muestra en esta sección. Cuando se ejecuta el trabajo, el bucket se activa automáticamente en las VMs de tu trabajo con Cloud Storage FUSE.
- Crea un trabajo con tareas que accedan directamente a un bucket de Cloud Storage con gcloud CLI o bibliotecas cliente para la API de Cloud Storage. Si quieres obtener información para acceder a un bucket de Cloud Storage directamente desde una VM, consulta la documentación de Compute Engine sobre cómo escribir y leer datos desde buckets de Cloud Storage.
Antes de crear un trabajo que use un bucket, crea uno o identifica uno existente. Para obtener más información, consulta Crea buckets y Cómo enumerar buckets.
Puedes crear un trabajo que use un bucket de Cloud Storage con la consola de Google Cloud, gcloud CLI, la API de Batch, C++, Go, Java, Node.js o Python.
En el siguiente ejemplo, se describe cómo crear un trabajo que active un
bucket de Cloud Storage. La tarea también tiene 3 tareas que ejecutan una secuencia de comandos para crear un archivo en el bucket llamado output_task_TASK_INDEX.txt
, en el que TASK_INDEX
es el índice de cada tarea: 0
, 1
y 2
.
Console
Para crear un trabajo que use un bucket de Cloud Storage con la consola de Google Cloud, haz lo siguiente:
En la consola de Google Cloud, ve a la página Lista de trabajos.
Haz clic en
Crear. Se abrirá la página Create batch job. En el panel izquierdo, se selecciona la página Detalles del trabajo.Configura la página Detalles del trabajo:
Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.
Por ejemplo, ingresa
example-bucket-job
.Configura la sección Detalles de la tarea:
En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o un contenedor para que se ejecute esta tarea.
Por ejemplo, haz lo siguiente:
Selecciona la casilla de verificación Secuencia de comandos. Aparecerá un cuadro de texto.
En el cuadro de texto, ingresa la siguiente secuencia de comandos:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Reemplaza MOUNT_PATH por la ruta de acceso de activación que usan los elementos ejecutables de esta tarea para acceder a un bucket de Cloud Storage existente. La ruta debe comenzar con
/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si quieres representar este bucket con un directorio llamadomy-bucket
, establece la ruta de activación en/mnt/disks/my-bucket
.Haz clic en Listo.
En el campo Task count, ingresa la cantidad de tareas para este trabajo.
Por ejemplo, ingresa
3
.En el campo Paralelismo, ingresa la cantidad de tareas que se ejecutarán de forma simultánea.
Por ejemplo, ingresa
1
(predeterminado).
Configura la página Configuraciones adicionales:
En el panel izquierdo, haz clic en Configuraciones adicionales. Se abrirá la página Configuraciones adicionales.
Para cada bucket de Cloud Storage que quieras activar en esta tarea, haz lo siguiente:
En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana New volume.
En la ventana Volumen nuevo, haz lo siguiente:
En la sección Tipo de volumen, selecciona Bucket de Cloud Storage.
En el campo Nombre del bucket de almacenamiento, ingresa el nombre de un bucket existente.
Por ejemplo, ingresa el bucket que especificaste en el ejecutable de esta tarea.
En el campo Ruta de activación, ingresa la ruta de activación del bucket (MOUNT_PATH), que especificaste en el ejecutable.
Haz clic en Listo.
Opcional: Configura los otros campos para este trabajo.
Opcional: Para revisar la configuración del trabajo, haz clic en Obtener vista previa en el panel izquierdo.
Haz clic en Crear.
En la página Detalles del trabajo, se muestra el trabajo que creaste.
gcloud
Para crear un trabajo que use un bucket de Cloud Storage con la
CLI de gcloud, usa el
comando gcloud batch jobs submit
.
En el archivo de configuración JSON del trabajo, activa el bucket en el campo volumes
.
Por ejemplo, para crear un trabajo que genere archivos en Cloud Storage, haz lo siguiente:
Crea un archivo JSON con el siguiente contenido:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
BUCKET_PATH
: Es la ruta de acceso del directorio del bucket al que deseas que acceda esta tarea, que debe comenzar con el nombre del bucket. Por ejemplo, para un bucket llamadoBUCKET_NAME
, la rutaBUCKET_NAME
representa el directorio raíz del bucket y la rutaBUCKET_NAME/subdirectory
representa el subdirectoriosubdirectory
.MOUNT_PATH
: Es la ruta de acceso de activación que usan los elementos ejecutables del trabajo para acceder a este bucket. La ruta debe comenzar con/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si deseas representar este bucket con un directorio llamadomy-bucket
, establece la ruta de activación en/mnt/disks/my-bucket
.
Ejecuta el siguiente comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Reemplaza lo siguiente:
JOB_NAME
: Es el nombre del trabajo.LOCATION
: Es la ubicación del trabajo.JSON_CONFIGURATION_FILE
: Es la ruta de acceso a un archivo JSON con los detalles de configuración de la tarea.
API
Para crear un trabajo que use un bucket de Cloud Storage con la API de Batch, usa el método jobs.create
y activa el bucket en el campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto de tu proyecto.LOCATION
: Es la ubicación del trabajo.JOB_NAME
: Es el nombre del trabajo.BUCKET_PATH
: Es la ruta de acceso del directorio del bucket al que deseas que acceda esta tarea, que debe comenzar con el nombre del bucket. Por ejemplo, para un bucket llamadoBUCKET_NAME
, la ruta de accesoBUCKET_NAME
representa el directorio raíz del bucket y la ruta de accesoBUCKET_NAME/subdirectory
representa el subdirectoriosubdirectory
.MOUNT_PATH
: Es la ruta de acceso de activación que usan los elementos ejecutables del trabajo para acceder a este bucket. La ruta debe comenzar con/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si quieres representar este bucket con un directorio llamadomy-bucket
, establece la ruta de activación en/mnt/disks/my-bucket
.
C++
C++
Para obtener más información, consulta la documentación de referencia de la API de C++ de lotes.
Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Go
Go
Para obtener más información, consulta la documentación de referencia de la API de Go de lotes.
Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Java
Java
Para obtener más información, consulta la documentación de referencia de la API de Java de lotes.
Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Node.js
Node.js
Para obtener más información, consulta la documentación de referencia de la API de Node.js de lotes.
Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Python
Python
Para obtener más información, consulta la documentación de referencia de la API de Python de lotes.
Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Usa un sistema de archivos de red
Puedes crear un trabajo que use un sistema de archivos de red (NFS) existente, como un uso compartido de archivos de Filestore, con la consola de Google Cloud, gcloud CLI o la API de Batch.
Antes de crear un trabajo que use un NFS, asegúrate de que el firewall de tu red esté configurado correctamente para permitir el tráfico entre las VMs de tu trabajo y el NFS. Para obtener más información, consulta Configura reglas de firewall para Filestore.
En el siguiente ejemplo, se describe cómo crear un trabajo que especifique y monte un NFS. La tarea también tiene 3 tareas que ejecutan una secuencia de comandos para crear un archivo en el NFS llamado output_task_TASK_INDEX.txt
, donde TASK_INDEX
es el índice de cada tarea: 0
, 1
y 2
.
Console
Para crear un trabajo que use un NFS con la consola de Google Cloud, haz lo siguiente:
En la consola de Google Cloud, ve a la página Lista de trabajos.
Haz clic en
Crear. Se abrirá la página Create batch job. En el panel izquierdo, se selecciona la página Detalles del trabajo.Configura la página Detalles del trabajo:
Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.
Por ejemplo, ingresa
example-nfs-job
.Configura la sección Detalles de la tarea:
En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o un contenedor para que se ejecute esta tarea.
Por ejemplo, haz lo siguiente:
Selecciona la casilla de verificación Secuencia de comandos. Aparecerá un cuadro de texto.
En el cuadro de texto, ingresa la siguiente secuencia de comandos:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Reemplaza MOUNT_PATH por la ruta de acceso de activación que usa el ejecutable de la tarea para acceder a este NFS. La ruta debe comenzar con
/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si quieres representar este NFS con un directorio llamadomy-nfs
, establece la ruta de activación en/mnt/disks/my-nfs
.Haz clic en Listo.
En el campo Task count, ingresa la cantidad de tareas para este trabajo.
Por ejemplo, ingresa
3
.En el campo Paralelismo, ingresa la cantidad de tareas que se ejecutarán de forma simultánea.
Por ejemplo, ingresa
1
(predeterminado).
Configura la página Configuraciones adicionales:
En el panel izquierdo, haz clic en Configuraciones adicionales. Se abrirá la página Configuraciones adicionales.
Para cada bucket de Cloud Storage que quieras activar en esta tarea, haz lo siguiente:
En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana New volume.
En la ventana Volumen nuevo, haz lo siguiente:
En la sección Tipo de volumen, selecciona Sistema de archivos de red.
En el campo Servidor de archivos, ingresa la dirección IP del servidor en el que se encuentra el NFS que especificaste en el ejecutable de este trabajo.
Por ejemplo, si tu NFS es un archivo compartido de Filestore, especifica la dirección IP de la instancia de Filestore, que puedes obtener describing the Filestore instance.
En el campo Ruta de acceso remota, ingresa una ruta de acceso que pueda acceder al NFS que especificaste en el paso anterior.
La ruta de acceso del directorio NFS debe comenzar con una
/
seguida del directorio raíz del NFS.En el campo Ruta de activación, ingresa la ruta de activación al NFS (MOUNT_PATH), que especificaste en el paso anterior.
Haz clic en Listo.
Opcional: Configura los otros campos para este trabajo.
Opcional: Para revisar la configuración del trabajo, haz clic en Obtener vista previa en el panel izquierdo.
Haz clic en Crear.
En la página Detalles del trabajo, se muestra el trabajo que creaste.
gcloud
Para crear un trabajo que use un NFS con la
CLI de gcloud, usa el
comando gcloud batch jobs submit
.
En el archivo de configuración JSON del trabajo, activa el NFS en el campo volumes
.
Crea un archivo JSON con el siguiente contenido:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Reemplaza lo siguiente:
NFS_IP_ADDRESS
: Es la dirección IP del NFS. Por ejemplo, si tu NFS es un archivo compartido de Filestore, especifica la dirección IP de la instancia de Filestore, que puedes obtener describing the Filestore instance.NFS_PATH
: Es la ruta de acceso al directorio NFS al que deseas que acceda esta tarea, que debe comenzar con una/
seguida del directorio raíz del NFS. Por ejemplo, para un archivo compartido de Filestore llamadoFILE_SHARE_NAME
, la ruta de acceso/FILE_SHARE_NAME
representa el directorio raíz del archivo compartido y la ruta de acceso/FILE_SHARE_NAME/subdirectory
representa el subdirectoriosubdirectory
.MOUNT_PATH
: Es la ruta de activación que usan los elementos ejecutables de la tarea para acceder a este NFS. La ruta debe comenzar con/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si quieres representar este NFS con un directorio llamadomy-nfs
, establece la ruta de activación en/mnt/disks/my-nfs
.
Ejecuta el siguiente comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Reemplaza lo siguiente:
JOB_NAME
: Es el nombre del trabajo.LOCATION
: Es la ubicación del trabajo.JSON_CONFIGURATION_FILE
: Es la ruta de acceso a un archivo JSON con los detalles de configuración de la tarea.
API
Para crear un trabajo que use un NFS con la API de Batch, usa el método jobs.create
y activa el NFS en el campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto de tu proyecto.LOCATION
: Es la ubicación del trabajo.JOB_NAME
: Es el nombre del trabajo.NFS_IP_ADDRESS
: La dirección IP del sistema de archivos de red. Por ejemplo, si tu NFS es un archivo compartido de Filestore, especifica la dirección IP de la instancia de Filestore, que puedes obtener describing the Filestore instance.NFS_PATH
: Es la ruta de acceso al directorio NFS al que deseas que acceda esta tarea, que debe comenzar con una/
seguida del directorio raíz del NFS. Por ejemplo, para un archivo compartido de Filestore llamadoFILE_SHARE_NAME
, la ruta/FILE_SHARE_NAME
representa el directorio raíz del archivo compartido y la ruta/FILE_SHARE_NAME/subdirectory
representa un subdirectorio.MOUNT_PATH
: Es la ruta de activación que usan los elementos ejecutables de la tarea para acceder a este NFS. La ruta debe comenzar con/mnt/disks/
seguida de un directorio o una ruta de acceso que elijas. Por ejemplo, si quieres representar este NFS con un directorio llamadomy-nfs
, establece la ruta de activación en/mnt/disks/my-nfs
.
Java
Node.js
Python
¿Qué sigue?
- Si tienes problemas para crear o ejecutar una tarea, consulta Solución de problemas.
- Ver trabajos y tareas.
- Obtén más información sobre las opciones de creación de trabajos.