Este documento explica como criar e executar um job em lote que usa um ou mais volumes de armazenamento externo. As opções de armazenamento externo incluem disco permanente novos ou existentes, SSDs locais novos, buckets do Cloud Storage e um sistema de arquivos de rede (NFS, na sigla em inglês) como um compartilhamento de arquivos do Filestore.
Independentemente de você adicionar volumes de armazenamento externo, cada VM do Compute Engine para um job tem um disco de inicialização, que fornece armazenamento para a imagem e as instruções do sistema operacional (SO) do job. Para informações sobre como configurar o disco de inicialização para um job, consulte Visão geral do ambiente do SO da VM.
Antes de começar
- Se você nunca usou o Batch, consulte Começar a usar o Batch e ative o Batch concluindo os pré-requisitos para projetos e usuários.
-
Para receber as permissões necessárias para criar um job, peça ao administrador para conceder a você os seguintes papéis do IAM:
-
Editor de jobs em lote (
roles/batch.jobsEditor
) no projeto -
Usuário da conta de serviço (
roles/iam.serviceAccountUser
) na conta de serviço do job, que é a conta de serviço padrão do Compute Engine -
Crie um job que usa um bucket do Cloud Storage:
Leitor de objetos do Storage (
roles/storage.objectViewer
) no bucket
Para mais informações sobre a concessão de papéis, consulte Gerenciar o acesso a projetos, pastas e organizações.
Também é possível conseguir as permissões necessárias por meio de papéis personalizados ou de outros papéis predefinidos.
-
Editor de jobs em lote (
Criar um job que usa volumes de armazenamento
Opcionalmente, um job pode usar um ou mais dos seguintes tipos de volumes de armazenamento externo. Para mais informações sobre todos os tipos de volumes de armazenamento e as diferenças e restrições de cada um, consulte a documentação de Opções de armazenamento de VM do Compute Engine.
- Disco permanente: armazenamento em blocos persistentes zonal ou regional
- SSD local: armazenamento em blocos temporário e de alto desempenho
- Bucket do Cloud Storage: armazenamento de objetos acessível
- Sistema de arquivos de rede (NFS): sistema de arquivos distribuído que segue o protocolo NFS. Por exemplo, um compartilhamento de arquivos do Filestore, que é um NFS de alto desempenho hospedado no Google Cloud
É possível permitir que um job use cada volume de armazenamento incluindo-o
na definição do job e especificando o
caminho de montagem (mountPath
)
nos executáveis. Para saber como criar um job que usa volumes de armazenamento, consulte
uma ou mais das seguintes seções:
- Usar um disco permanente
- Usar um SSD local
- Usar um bucket do Cloud Storage
- Usar um sistema de arquivos de rede
Usar um disco permanente
Um job que usa discos permanentes tem as seguintes restrições:
Todos os discos permanentes: revise as restrições para todos os discos permanentes.
Discos persistentes novos e atuais: cada disco permanente em um job pode ser novo (definido e criado com o job) ou atual (já criado no projeto e especificado no job). Para usar um disco permanente, ele precisa ser formatado e montado nas VMs do job, que precisam estar no mesmo local que o disco permanente. O lote monta todos os discos permanentes incluídos em um job e formata novos discos permanentes, mas é necessário formatar e desmontar todos os discos permanentes que você quer que um job use.
As opções de local, opções de formato e opções de montagem variam entre discos permanentes novos e existentes, conforme descrito na tabela a seguir:
Novos discos persistentes Discos permanentes Opções de formatação O disco permanente é formatado automaticamente com um sistema de arquivos
ext4
.É necessário formatar o disco permanente para usar um
ext4
sistema de arquivos antes de usá-lo para um job.Opções de ativação Todas as opções são aceitas.
Todas as opções, exceto a escrita, são aceitas. Isso ocorre devido às restrições do modo de vários gravadores.
É necessário desanexar o disco permanente de todas as VMs a que ele está conectado antes de usá-lo em um job.
Opções de local Só é possível criar discos permanentes zonais.
Você pode selecionar qualquer local para seu trabalho. Os discos permanentes são criados na zona em que o projeto é executado.
É possível selecionar discos permanentes zonais e regionais.
É necessário definir o local do job (ou, se especificado, apenas os locais permitidos) apenas para locais que contêm todos os discos persistentes do job. Por exemplo, para um disco permanente zonal, o local do job precisa ser a zona do disco. Para um disco permanente regional, o local do job precisa ser a região do disco ou, se você especificar zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado.Modelos de instância: se você quiser usar um modelo de instância de VM ao criar esse job, anexe todos os disco permanente para esse job no modelo de instância. Caso contrário, se você não quiser usar um modelo de instância, será necessário anexar os disco permanente diretamente na definição do job.
É possível criar um job que usa um disco permanente usando o console do Google Cloud , CLI gcloud, a API Batch, C++, Go, Java, Node.js ou Python.
Console
Usando o console do Google Cloud , o exemplo a seguir cria um job que
executa um script para ler um arquivo de um disco permanente zonal localizado
na zona us-central1-a
. O exemplo de script pressupõe que o job
tenha um disco permanente zonal que contém um arquivo de texto chamado
example.txt
no diretório raiz.
Opcional: criar um exemplo de disco permanente zonal
Se você quiser criar um disco permanente zonal que possa ser usado para executar o script de exemplo, faça o seguinte antes de criar o job:
Anexe um novo disco permanente em branco chamado
example-disk
a uma VM do Linux na zonaus-central1-a
e execute comandos na VM para formatar e montar o disco. Para instruções, consulte Adicionar um disco permanente à VM.Não se desconecte da VM ainda.
Para criar
example.txt
no disco permanente, execute os seguintes comandos na VM:Para mudar o diretório de trabalho atual para o diretório raiz do disco permanente, digite o seguinte comando:
cd VM_MOUNT_PATH
Substitua VM_MOUNT_PATH pelo caminho para o diretório em que o disco permanente foi montado nesta VM na etapa anterior, por exemplo,
/mnt/disks/example-disk
.Pressione
Enter
.Para criar e definir um arquivo chamado
example.txt
, digite o seguinte comando:cat > example.txt
Pressione
Enter
.Digite o conteúdo do arquivo. Por exemplo, digite
Hello world!
.Para salvar o arquivo, pressione
Ctrl+D
(ouCommand+D
no macOS).
Quando terminar, você pode se desconectar da VM.
Remova o disco permanente da VM.
Se você não precisar mais da VM, é possível excluí-la, o que desconecta automaticamente o disco permanente.
Caso contrário, remova o disco permanente. Para instruções, consulte Como desconectar e reconectar discos de inicialização e desconecte o disco permanente
example-disk
em vez do disco de inicialização da VM.
Criar um job que use o disco permanente zonal
Para criar um job que usa discos persistentes zonais usando o console do Google Cloud , faça o seguinte:
No console do Google Cloud , acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta. No painel à esquerda, a página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-disk-job
.Configure a seção Detalhes da tarefa:
Na janela New runnable, adicione pelo menos um script ou contêiner para que o job seja executado.
Por exemplo, para executar um script que imprime o conteúdo de um arquivo chamado
example.txt
e localizado no diretório raiz do disco permanente usado por esse job, faça o seguinte:Marque a caixa de seleção Script. Uma caixa de texto vai aparecer.
Na caixa de texto, digite o seguinte script:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Substitua MOUNT_PATH pelo caminho para onde você planeja montar o disco permanente nas VMs para essa tarefa, por exemplo,
/mnt/disks/example-disk
.Clique em Concluído.
No campo Contagem de tarefas, insira o número de tarefas para este job.
Por exemplo, insira
1
(padrão).No campo Paralelismo, insira o número de tarefas a serem executadas simultaneamente.
Por exemplo, insira
1
(padrão).
Configure a página Especificações do recurso:
No painel à esquerda, clique em Especificações de recursos. A página Especificações do recurso é aberta.
Selecione o local para o trabalho. Para usar um disco permanente zonal, as VMs de um job precisam estar localizadas na mesma zona.
No campo Região, selecione uma região.
Por exemplo, para usar o disco permanente zonal de exemplo, selecione
us-central1 (Iowa)
(padrão).No campo Zona, selecione uma zona.
Por exemplo, selecione
us-central1-a (Iowa)
.
Configure a página Configurações adicionais:
No painel à esquerda, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada disco permanente zonal que você quer montar neste job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela New volume vai aparecer.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Disco permanente (padrão).
Na lista Disco, selecione um disco permanente zonal que você quer montar nesse job. O disco precisa estar localizado na mesma zona que este job.
Por exemplo, selecione o disco permanente zonal preparado, que está localizado na zona
us-central1-a
e contém o arquivoexample.txt
.Opcional: se você quiser renomear esse disco permanente zonal, faça o seguinte:
Selecione Personalizar o nome do dispositivo.
No campo Nome do dispositivo, insira o novo nome do disco.
No campo Caminho de ativação, insira o caminho de ativação (MOUNT_PATH) para este disco permanente:
Por exemplo, insira o seguinte:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Substitua EXISTING_PERSISTENT_DISK_NAME pelo nome do disco. Se você renomeou o disco permanente zonal, use o novo nome.
Por exemplo, substitua EXISTING_PERSISTENT_DISK_NAME por
example-disk
.Clique em Concluído.
Opcional: configure os outros campos para esse job.
Opcional: para revisar a configuração do job, no painel esquerdo, clique em Visualizar.
Clique em Criar.
A página Detalhes do job mostra o job que você criou.
gcloud
Usando a CLI gcloud, o exemplo a seguir cria um job que
anexa e monta um disco permanente existente e um novo.
O job tem três tarefas que executam um script para criar um arquivo no novo
disco permanente chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX é o índice de cada tarefa: 0, 1 e
2.
Para criar um job que usa discos permanentes com a CLI gcloud, use o comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, especifique os discos permanentes no campo instances
e monte o disco permanente no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para esse job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.EXISTING_PERSISTENT_DISK_NAME
: o nome de um disco permanente.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente. Para cada disco permanente zonal existente, o local do job precisa ser a zona do disco. Para cada disco permanente regional, o local do job precisa ser a região do disco ou, se você especificar zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado. Se você não especificar discos persistentes existentes, poderá selecionar qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do novo disco permanente em GB. Os tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo é geralmente 10 GB (10
) e o máximo é geralmente 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente,pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
. O tipo de disco padrão para discos persistentes não de inicialização épd-standard
.NEW_PERSISTENT_DISK_NAME
: o nome do novo disco permanente.
Se você estiver usando um modelo de instância de VM para esse job, crie um arquivo JSON como mostrado anteriormente, exceto substituindo o campo
instances
por este:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância para esse job. Para um job que usa discos persistentes, esse modelo de instância precisa definir e anexar os discos persistentes que você quer que o job use. Neste exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e anexar um disco permanente existente chamadoEXISTING_PERSISTENT_DISK_NAME
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho para um arquivo JSON com os detalhes de configuração do job.
API
Usando a API Batch, o exemplo a seguir cria um job
que anexa e monta um disco permanente existente e um novo disco
permanente. O job tem três tarefas, cada uma executa um script para criar um arquivo no novo disco permanente chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX é o índice de cada tarefa: 0, 1 e 2.
Para criar um job que usa discos permanentes com a
API Batch, use o
método jobs.create
.
Na solicitação, especifique os discos permanentes no campo instances
e monte o disco permanente no campo volumes
.
Se você não estiver usando um modelo de instância para esse job, faça a seguinte solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.EXISTING_PERSISTENT_DISK_NAME
: o nome de um disco permanente existente.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente existente. Para cada disco permanente zonal existente, o local do job precisa ser a zona do disco. Para cada disco permanente regional, o local do job precisa ser a região do disco ou, se especificar zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado. Se você não especificar discos permanentes existentes, poderá selecionar qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do novo disco permanente em GB. Os tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo é geralmente 10 GB (10
) e o máximo é geralmente 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente,pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
. O tipo de disco padrão para discos persistentes não de inicialização épd-standard
.NEW_PERSISTENT_DISK_NAME
: o nome do novo disco permanente.
Se você estiver usando um modelo de instância de VM para esse job, crie um arquivo JSON como mostrado anteriormente, exceto substituindo o campo
instances
por este:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância para esse job. Para um job que usa discos persistentes, esse modelo de instância precisa definir e anexar os discos persistentes que você quer que o job use. Neste exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e anexar um disco permanente existente chamadoEXISTING_PERSISTENT_DISK_NAME
.
C++
Para criar um job em lote que use discos persistentes novos ou existentes usando as bibliotecas de cliente do Cloud para C++, use a função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para esse job,
use o método
set_remote_path
. - Se você estiver usando um modelo de instância de VM para esse job, use o
método
set_instance_template
.
- Se você não estiver usando um modelo de instância de VM para esse job,
use o método
- Para montar os discos permanentes no job, use o campo
volumes
com os camposdeviceName
emountPath
. Para novos discos permanentes, use também o campomountOptions
para ativar a gravação.
Para conferir um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
Go
Para criar um job do Batch que use discos persistentes novos ou existentes usando as bibliotecas de cliente do Cloud para Go, use a função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua o tipo
AllocationPolicy_AttachedDisk
. - Se você estiver usando um modelo de instância de VM para esse trabalho,
inclua o tipo
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua o tipo
- Para montar os discos permanentes no job, use o
tipo
Volume
com o tipoVolume_DeviceName
e o campoMountPath
. Para novos discos permanentes, use também o campoMountOptions
para ativar a gravação.
Java
Para criar um job do Batch que use discos persistentes novos ou existentes usando as bibliotecas de cliente do Cloud para Java, use a classe CreateJobRequest
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua o método
setDisks
. - Se você estiver usando um modelo de instância de VM para esse job,
inclua o método
setInstanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua o método
- Para montar os discos persistentes no job, use a
classe
Volume
com o métodosetDeviceName
esetMountPath
. Para novos discos permanentes, use também o métodosetMountOptions
para ativar a gravação.
Por exemplo, use o seguinte exemplo de código:
Node.js
Para criar um job do Batch que use discos persistentes novos ou existentes usando as bibliotecas de cliente do Cloud para Node.js, use o método createJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua a classe
AllocationPolicy.AttachedDisk
. - Se você estiver usando um modelo de instância de VM para esse job,
inclua a propriedade
instanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua a classe
- Para montar os discos persistentes no job, use a
classe
Volume
com a propriedadedeviceName
emountPath
. Para novos discos permanentes, use também a propriedademountOptions
para ativar a gravação.
Python
Para criar um job em lote que use discos persistentes novos ou existentes usando as bibliotecas de cliente do Cloud para Python, use a função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua a classe
AttachedDisk
. - Se você estiver usando um modelo de instância de VM para esse job,
inclua o atributo
instance_template
.
- Se você não estiver usando um modelo de instância de VM para esse job,
inclua a classe
- Para montar os discos permanentes no job, use a
classe
Volume
com os atributosdevice_name
emount_path
. Para novos discos permanentes, use também o atributomount_options
para ativar a gravação.
Por exemplo, use o seguinte exemplo de código:
Usar um SSD local
Um job que usa SSDs locais tem as seguintes restrições:
- Todos os SSDs locais Confira as restrições para todos os SSDs locais.
- Modelos de instância: se você quiser especificar um modelo de instância de VM ao criar esse job, anexe todos os disco permanente para esse job no modelo de instância. Caso contrário, se você não quiser usar um modelo de instância, anexe os disco permanente diretamente na definição do job.
É possível criar um job que usa um SSD local usando a
CLI gcloud, a API Batch, Java ou Python.
O exemplo a seguir descreve como criar um job que cria, conecta e
monta um SSD local. O job também tem três tarefas,
cada uma executa um script para criar um arquivo no SSD local chamado
output_task_TASK_INDEX.txt
, em que
TASK_INDEX
é o índice de cada tarefa:
0
, 1
e 2
.
gcloud
Para criar um job que usa SSDs locais usando a
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, crie e anexe os SSDs locais no campo instances
e monte os SSDs locais no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para esse job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
MACHINE_TYPE
: o tipo de máquina, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina das VMs do job.LOCAL_SSD_NAME
: o nome de um SSD local criado para essa atividade.LOCAL_SSD_SIZE
: o tamanho de todos os SSDs locais em GB. Cada SSD local tem 375 GB, portanto, esse valor precisa ser um múltiplo de375
GB. Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você estiver usando um modelo de instância de VM para esse job, crie um arquivo JSON como mostrado anteriormente, exceto substituindo o campo
instances
por este:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância para esse job. Para um job que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um SSD local chamadoLOCAL_SSD_NAME
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho para um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que usa SSDs locais com a
API Batch, use o
método jobs.create
.
Na solicitação, crie e anexe os SSDs locais no campo instances
e monte-os no campo volumes
.
Se você não estiver usando um modelo de instância para esse job, faça a seguinte solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.MACHINE_TYPE
: o tipo de máquina, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina das VMs do seu job.LOCAL_SSD_NAME
: o nome de um SSD local criado para essa atividade.LOCAL_SSD_SIZE
: o tamanho de todos os SSDs locais em GB. Cada SSD local tem 375 GB, portanto, esse valor precisa ser um múltiplo de375
GB. Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você estiver usando um modelo de instância de VM para esse job, crie um arquivo JSON como mostrado anteriormente, exceto substituindo o campo
instances
por este:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância para esse job. Para um job que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um SSD local chamadoLOCAL_SSD_NAME
.
Go
Java
Node.js
Python
Usar um bucket do Cloud Storage
Para criar um job que usa um bucket do Cloud Storage, selecione um dos seguintes métodos:
- Recomendado: monte um bucket diretamente nas VMs do job especificando o bucket na definição do job, conforme mostrado nesta seção. Quando o job é executado, o bucket é montado automaticamente nas VMs usando o Cloud Storage FUSE.
- Crie um job com tarefas que acessem diretamente um bucket do Cloud Storage usando a CLI gcloud ou as bibliotecas de cliente para a API Cloud Storage. Para saber como acessar um bucket do Cloud Storage diretamente de uma VM, consulte a documentação do Compute Engine sobre Gravar e ler dados de buckets do Cloud Storage.
Antes de criar um job que usa um bucket, crie um ou identifique um bucket existente. Para mais informações, consulte Criar buckets e Listar buckets.
É possível criar um job que usa um bucket do Cloud Storage usando o console doGoogle Cloud , a CLI gcloud, a API Batch, C++, Go, Java, Node.js ou Python.
O exemplo a seguir descreve como criar um job que monta um bucket do Cloud Storage. O job também tem três tarefas que executam um script para criar um arquivo no bucket chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX
é o índice de cada tarefa: 0
, 1
e 2
.
Console
Para criar um job que usa um bucket do Cloud Storage usando o console do Google Cloud , faça o seguinte:
No console do Google Cloud , acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta. No painel à esquerda, a página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-bucket-job
.Configure a seção Detalhes da tarefa:
Na janela New runnable, adicione pelo menos um script ou contêiner para que o job seja executado.
Por exemplo, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto vai aparecer.
Na caixa de texto, digite o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Substitua MOUNT_PATH pelo caminho de montagem que os executáveis do job usam para acessar um bucket do Cloud Storage. O caminho precisa começar com
/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de montagem como/mnt/disks/my-bucket
.Clique em Concluído.
No campo Contagem de tarefas, insira o número de tarefas para este job.
Por exemplo, insira
3
.No campo Paralelismo, insira o número de tarefas a serem executadas simultaneamente.
Por exemplo, insira
1
(padrão).
Configure a página Configurações adicionais:
No painel à esquerda, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada bucket do Cloud Storage que você quer montar para esse job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela New volume vai aparecer.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Bucket do Cloud Storage.
No campo Nome do bucket de armazenamento, insira o nome de um bucket existente.
Por exemplo, insira o bucket que você especificou na executável desse job.
No campo Caminho de montagem, insira o caminho de montagem do bucket (MOUNT_PATH), que você especificou no executável.
Clique em Concluído.
Opcional: configure os outros campos para esse job.
Opcional: para revisar a configuração do job, no painel esquerdo, clique em Visualizar.
Clique em Criar.
A página Detalhes do job mostra o job que você criou.
gcloud
Para criar um job que usa um bucket do Cloud Storage usando a CLI gcloud, use o comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, monte o bucket no campo volumes
.
Por exemplo, para criar um job que gera arquivos em um Cloud Storage:
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
BUCKET_PATH
: o caminho do diretório do bucket que você quer que esse job acesse, que precisa começar com o nome do bucket. Por exemplo, para um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa o diretório raiz do bucket, e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de montagem que os runnables do job usam para acessar esse bucket. O caminho precisa começar com/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de montagem como/mnt/disks/my-bucket
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho para um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que usa um bucket do Cloud Storage com a
API Batch, use o
método jobs.create
e monte o bucket no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.BUCKET_PATH
: o caminho do diretório do bucket que você quer que esse job acesse, que precisa começar com o nome do bucket. Por exemplo, em um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa o diretório raiz do bucket, e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de montagem que os runnables do job usam para acessar esse bucket. O caminho precisa começar com/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de montagem como/mnt/disks/my-bucket
.
C++
C++
Para mais informações, consulte a documentação de referência da API Batch C++.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Go
Go
Para mais informações, consulte a documentação de referência da API Batch Go.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Java
Java
Para mais informações, consulte a documentação de referência da API Batch Java.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Node.js
Para mais informações, consulte a documentação de referência da API Batch Node.js.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Python
Para mais informações, consulte a documentação de referência da API Batch Python.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Usar um sistema de arquivos de rede
É possível criar um job que use um sistema de arquivos de rede (NFS) existente, como um compartilhamento de arquivos do Filestore, usando o console do Google Cloud , a CLI gcloud ou a API Batch.
Antes de criar um job que usa um NFS, verifique se o firewall da rede está configurado corretamente para permitir o tráfego entre as VMs do job e o NFS. Para mais informações, consulte Como configurar regras de firewall para o Filestore.
O exemplo a seguir descreve como criar um job que especifica e
monta um NFS. O job também tem três
tarefas que executam um script para criar um arquivo no NFS chamado
output_task_TASK_INDEX.txt
, em que TASK_INDEX
é o índice de cada tarefa:
0
, 1
e 2
.
Console
Para criar um job que usa um NFS usando o console do Google Cloud , faça o seguinte:
No console do Google Cloud , acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta. No painel à esquerda, a página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-nfs-job
.Configure a seção Detalhes da tarefa:
Na janela New runnable, adicione pelo menos um script ou contêiner para que o job seja executado.
Por exemplo, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto vai aparecer.
Na caixa de texto, digite o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Substitua MOUNT_PATH pelo caminho de montagem que o job executável usa para acessar esse NFS. O caminho precisa começar com
/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.Clique em Concluído.
No campo Contagem de tarefas, insira o número de tarefas para este job.
Por exemplo, insira
3
.No campo Paralelismo, insira o número de tarefas a serem executadas simultaneamente.
Por exemplo, insira
1
(padrão).
Configure a página Configurações adicionais:
No painel à esquerda, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada bucket do Cloud Storage que você quer montar para esse job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela New volume vai aparecer.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Sistema de arquivos de rede.
No campo File server, insira o endereço IP do servidor em que o executável do NFS especificado neste job está localizado.
Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da instância do Filestore, que pode ser encontrado ao descrever a instância do Filestore.
No campo Caminho remoto, insira um caminho que possa acessar o NFS especificado na etapa anterior.
O caminho do diretório NFS precisa começar com
/
seguido pelo diretório raiz do NFS.No campo Caminho de montagem, insira o caminho de montagem para o NFS (MOUNT_PATH), que você especificou na etapa anterior.
Clique em Concluído.
Opcional: configure os outros campos para esse job.
Opcional: para revisar a configuração do job, no painel esquerdo, clique em Visualizar.
Clique em Criar.
A página Detalhes do job mostra o job que você criou.
gcloud
Para criar um job que usa um NFS usando a
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, monte o NFS no campo volumes
.
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
NFS_IP_ADDRESS
: o endereço IP do NFS. Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da instância do Filestore, que pode ser encontrado descrevendo a instância do Filestore.NFS_PATH
: o caminho do diretório NFS que você quer que esse job acesse, que precisa começar com um/
seguido pelo diretório raiz do NFS. Por exemplo, para um compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa o diretório raiz do compartilhamento de arquivos, e o caminho/FILE_SHARE_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de montagem que os executáveis do job usam para acessar esse NFS. O caminho precisa começar com/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho para um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que usa um NFS com a
API Batch, use o
método jobs.create
e monte o NFS no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.NFS_IP_ADDRESS
: o endereço IP do sistema de arquivos em rede. Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da instância do Filestore, que pode ser encontrado descrevendo a instância do Filestore.NFS_PATH
: o caminho do diretório NFS que você quer que esse job acesse, que precisa começar com um/
seguido pelo diretório raiz do NFS. Por exemplo, para um compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa o diretório raiz do compartilhamento de arquivos, e o caminho/FILE_SHARE_NAME/subdirectory
representa um subdiretório.MOUNT_PATH
: o caminho de montagem que os executáveis do job usam para acessar esse NFS. O caminho precisa começar com/mnt/disks/
seguido de um diretório ou caminho escolhido. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.
Java
Node.js
Python
A seguir
- Se você tiver problemas para criar ou executar um job, consulte Solução de problemas.
- Conferir jobs e tarefas.
- Saiba mais sobre as opções de criação de jobs.