Este documento explica como criar e executar um job em lote que usa um ou mais volumes de armazenamento externo. As opções de armazenamento externo incluem novos disco permanente, novos SSDs locais, buckets atuais do Cloud Storage e um sistema de arquivos de rede (NFS, na sigla em inglês) atual, como um compartilhamento de arquivos do Filestore.
Independentemente de você adicionar volumes de armazenamento externo, A VM do Compute Engine para um job tem um disco de inicialização, que fornece armazenamento para a imagem do sistema operacional (SO) e as instruções do job. Para informações sobre como configurar o disco de inicialização para um job, consulte Visão geral do ambiente do SO da VM.
Antes de começar
- Se você nunca usou o Batch antes, revise Introdução ao Batch e ativar o Batch. pré-requisitos para projetos e usuários.
-
Para ter as permissões necessárias para criar um job, peça ao administrador para conceder a você os seguintes papéis do IAM:
-
Editor de jobs em lote (
roles/batch.jobsEditor
) no projeto -
Usuário da conta de serviço (
roles/iam.serviceAccountUser
) na conta de serviço do job, que é a conta de serviço padrão do Compute Engine -
Crie um job que use um bucket do Cloud Storage:
Leitor de objetos do Storage (
roles/storage.objectViewer
) no bucket
Para mais informações sobre como conceder papéis, consulte Gerenciar acesso.
Também é possível conseguir as permissões necessárias com papéis personalizados ou outros papéis predefinidos.
-
Editor de jobs em lote (
Criar um job que use volumes de armazenamento
Opcionalmente, um trabalho pode usar um ou mais de cada um dos seguintes tipos de volumes de armazenamento externo. Para mais informações sobre todos os tipos de volumes de armazenamento e as as diferenças e restrições de cada um, consulte a documentação Opções de armazenamento de VMs do Compute Engine.
- disco permanente: armazenamento em blocos permanente, zonal ou regional
- SSD local: armazenamento em blocos temporário e de alto desempenho
- Bucket do Cloud Storage: armazenamento de objetos acessível
- sistema de arquivos de rede (NFS, na sigla em inglês): distribuído que segue o protocolo Network File System, por exemplo, exemplo, um Compartilhamento de arquivos do Filestore, que é um NFS de alto desempenho hospedado no Google Cloud
Para permitir que um job use cada volume de armazenamento, inclua-o
na definição do job e especificar os
caminho de montagem (mountPath
)
nos arquivos executáveis. Para aprender a criar um job que use volumes de armazenamento, consulte
uma ou mais das seguintes seções:
- Usar um disco permanente
- Usar um SSD local
- Usar um bucket do Cloud Storage
- Usar um sistema de arquivos de rede
Usar um disco permanente
Um job que usa discos permanentes tem as seguintes restrições:
Todos os discos permanentes: revise as restrições para todos os discos permanentes.
Discos permanentes novos versus atuais: cada disco permanente em um job pode ser novos (definidos e criados com o trabalho) ou existentes (já criados no projeto e especificados no job). Para usar um disco permanente, ela precisa ser formatado e montado no do seu job, que precisam estar no mesmo local que o disco permanente. monta em lote todos os discos permanentes que você incluir em um job e formata todos os novos discos permanentes, mas é necessário formatar e desconectar os discos permanentes que você quer usar pelo job.
As opções de local compatíveis, opções de formato, e opções de montagem variam entre discos permanentes novos e atuais, conforme descrito nas tabela:
Novos discos permanentes Discos permanentes atuais Opções de formatação O disco permanente é formatado automaticamente com um Sistema de arquivos
ext4
:Você precisa formatar o disco permanente usar uma Sistema de arquivos
ext4
antes de usá-lo em um trabalho.Opções de ativação Todas as opções são aceitas.
Todas as opções, exceto gravação, são aceitas. Isso se deve à restrições de modo de vários gravadores.
Você deve desanexar o disco permanente de qualquer VM a que ele está anexado antes de usá-lo para um job.
Opções de local Só é possível criar discos permanentes zonais.
É possível selecionar qualquer local para o job. A constante são criados na zona em que o projeto é executado.
É possível selecionar discos permanentes zonais e regionais.
Você precisa definir o local da tarefa (ou, se especificado, apenas o locais permitidos) a apenas locais que contêm todos os valores-chave persistentes os discos rígidos. Por exemplo, para um disco permanente zonal, O local precisa ser a zona do disco. para um disco permanente regional, o local do job precisa ser a região do disco ou, se especificando zonas, uma ou ambas as zonas o disco permanente regional está localizado.Modelos de instância: se você quiser usar um modelo de instância de VM ao criar este job, você precisa anexar disco permanente para este job na instância modelo. Caso contrário, se não quiser usar um modelo de instância, você precisará anexar os disco permanente diretamente na definição do job.
É possível criar um job que usa um disco permanente com o console do Google Cloud, CLI gcloud, API Batch Go, Java, Node.js, Python ou C++.
Console
Usando o console do Google Cloud, o exemplo a seguir cria um job que
executa um script para ler um arquivo de um disco permanente zonal atual que está
localizado na zona us-central1-a
. O script de exemplo pressupõe que o job
tem um disco permanente zonal que contém um arquivo de texto chamado
example.txt
no diretório raiz.
Opcional: criar um exemplo de disco permanente zonal
Se você quiser criar um disco permanente zonal que possa ser usado executar o script de exemplo, faça o seguinte antes de criar o job:
Anexe um novo permanente em branco chamado
example-disk
a uma VM do Linux no na zonaus-central1-a
e executar comandos na VM para formatar e ativar no disco. Para instruções, consulte Adicione um disco permanente à sua VM.Ainda não se desconecte da VM.
Para criar
example.txt
no disco permanente, execute o seguinte na VM:Para mudar o diretório de trabalho atual para o diretório raiz do disco permanente, digite o seguinte comando:
cd VM_MOUNT_PATH
Substitua VM_MOUNT_PATH pelo caminho o diretório em que o disco permanente foi ativado na VM na etapa anterior, por exemplo,
/mnt/disks/example-disk
.Pressione
Enter
.Para criar e definir um arquivo chamado
example.txt
, Digite o seguinte comando:cat > example.txt
Pressione
Enter
.Digite o conteúdo do arquivo. Por exemplo, digite
Hello world!
.Para salvar o arquivo, pressione
Ctrl+D
(ouCommand+D
no macOS).
Quando terminar, desconecte-se da VM.
Remover o disco permanente da VM.
Se você não precisa mais da VM, exclua a VM, que o que separa automaticamente o disco permanente.
Caso contrário, desanexe o disco permanente. Para instruções, consulte Como desconectar e reconectar discos de inicialização e remover o disco permanente
example-disk
em vez do no disco de inicialização da VM.
Criar um job que use o disco permanente zonal atual
Para criar um job que use discos permanentes zonais existentes com o Console do Google Cloud, faça o seguinte:
No console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. O A página Criar job em lote é aberta. No painel esquerdo, A página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-disk-job
.Configure a seção Task details:
Na janela New runnable, adicione pelo menos um script ou contêiner para o job ser executado.
Por exemplo, para executar um script que imprima o conteúdo de um arquivo chamada
example.txt
e localizada no diretório raiz. do disco permanente que o job usa, faça o seguinte:Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, insira o seguinte script:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Substitua MOUNT_PATH pelo caminho em que você planeja montar o disco permanente nas VMs para este job, por exemplo,
/mnt/disks/example-disk
.Clique em Concluído.
No campo Contagem de tarefas, digite o número de tarefas de para esse trabalho.
Por exemplo, digite
1
(padrão).No campo Paralelismo, insira o número de tarefas a serem em execução simultânea.
Por exemplo, digite
1
(padrão).
Configure a página Especificações de recursos:
No painel à esquerda, clique em Especificações de recursos. A página Especificações de recursos será aberta.
Selecione o local para o job. Para usar um disco permanente zonal atual, as VMs de um job precisam na mesma zona.
No campo Região, selecione uma região.
Por exemplo, para usar o exemplo de disco permanente zonal, Selecione
us-central1 (Iowa)
(padrão).No campo Zona, selecione uma zona.
Por exemplo, selecione
us-central1-a (Iowa)
.
Defina a página Configurações adicionais:
No painel esquerdo, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada disco permanente zonal atual que você quer ativar este job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela Novo volume será exibida.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Disco permanente (padrão).
Na lista Disco, selecione um o disco permanente zonal atual que você quer ativar para esse trabalho. O disco precisa estar no mesmo zona desse job.
Por exemplo, selecione o disco permanente zonal atual que você preparou, localizada na seção
us-central1-a
e contém o arquivoexample.txt
.Opcional: se você quiser renomear o disco permanente zonal, faça o seguinte:
Selecione Personalizar o nome do dispositivo.
No campo Nome do dispositivo, digite o novo nome do seu disco.
No campo Caminho de montagem, insira o valor correspondente. (MOUNT_PATH) para isso disco permanente:
Por exemplo, digite o seguinte:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Substituir EXISTING_PERSISTENT_DISK_NAME pelo nome do disco. Se você renomeou o zonal, use o novo nome.
Por exemplo, substitua EXISTING_PERSISTENT_DISK_NAME com
example-disk
.Clique em Concluído.
Opcional: configure o outras áreas para a vaga.
Opcional: para revisar a configuração do job, no painel esquerdo, Clique em Visualizar.
Clique em Criar.
A página Detalhes do job exibe o job que você criou.
gcloud
Usando a CLI gcloud, o exemplo a seguir cria um job que
anexa e monta um disco permanente existente e um novo disco permanente.
O job tem três tarefas, cada uma executando um script para criar um arquivo no
disco permanente chamado output_task_TASK_INDEX.txt
em que TASK_INDEX é o índice de cada tarefa: 0, 1, e
2:
Para criar um job que use discos permanentes com o
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, especifique os discos permanentes no
instances
e ative o disco permanente no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para este job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.EXISTING_PERSISTENT_DISK_NAME
: o nome. de um disco permanente atual.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente atual. Para cada zona existente disco permanente, o local do job precisa ser a zona do disco. para cada disco permanente regional atual, o local do job precisa a região do disco ou, se especificar zonas, um ou as duas zonas específicas em que o disco permanente regional está localizado. Se você não especificar nenhuma permissão é possível selecionar qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do um novo disco permanente em GB. O tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo geralmente 10 GB (10
) e o máximo geralmente é 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente:pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
. O tipo de disco padrão para dispositivos que não sejam de inicialização discos permanentes épd-standard
.NEW_PERSISTENT_DISK_NAME
: o nome. do novo disco permanente.
Se você for usando um modelo de instância de VM para este job, crie um arquivo JSON como mostrado anteriormente, mas substitua o Campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um trabalho que usa os discos permanentes padrão, esse modelo precisa definir e anexar os os discos permanentes que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e e anexar um disco permanente existente chamadoEXISTING_PERSISTENT_DISK_NAME
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do trabalho.JSON_CONFIGURATION_FILE
: o caminho para um JSON. com os detalhes de configuração do job.
API
Usando a API Batch, o exemplo a seguir cria um job
que anexa e monta um disco permanente existente e um novo
disco. O job tem três tarefas, cada uma executando um script para criar um arquivo no
um disco permanente chamado
output_task_TASK_INDEX.txt
em que
TASK_INDEX é o índice de cada tarefa: 0, 1 e 2.
Para criar um job que use discos permanentes com o
Batch API, use o
método jobs.create
.
Na solicitação, especifique os discos permanentes nas
instances
e ative o disco permanente no campo volumes
.
Se você não estiver usando um modelo de instância para este job, faça o seguinte: solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do trabalho.JOB_NAME
: o nome do job.EXISTING_PERSISTENT_DISK_NAME
: o nome. de um disco permanente atual.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente atual. Para cada zona existente disco permanente, o local do job precisa ser a zona do disco. para cada disco permanente regional atual, o local do job precisa a região do disco ou, se especificar zonas, um ou as duas zonas específicas em que o disco permanente regional está localizado. Se você não especificar nenhuma permissão é possível selecionar qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do um novo disco permanente em GB. O tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo geralmente 10 GB (10
) e o máximo geralmente é 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente:pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
. O tipo de disco padrão para dispositivos que não sejam de inicialização discos permanentes épd-standard
.NEW_PERSISTENT_DISK_NAME
: o nome. do novo disco permanente.
Se você for usando um modelo de instância de VM para este job, crie um arquivo JSON como mostrado anteriormente, mas substitua o Campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um trabalho que usa os discos permanentes padrão, esse modelo precisa definir e anexar os os discos permanentes que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e e anexar um disco permanente existente chamadoEXISTING_PERSISTENT_DISK_NAME
.
Go
Para criar um job em lote que use um job novo ou atual
os discos permanentes usando
Bibliotecas de cliente do Cloud para Go, use a
Função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para este job,
inclua o tipo
AllocationPolicy_AttachedDisk
. - Se você estiver usando um modelo de instância de VM para este job,
inclua o tipo
AllocationPolicy_InstancePolicyOrTemplate_InstanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para este job,
inclua o tipo
- Para montar os discos permanentes no job, use o
Tipo
Volume
com o tipoVolume_DeviceName
eMountPath
. Para novos discos permanentes, use também oMountOptions
para ativar a gravação.
Para ver um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
Java
Para criar um job em lote que use um job novo ou atual
os discos permanentes usando
Bibliotecas de cliente do Cloud para Java, use a
CreateJobRequest
turma
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para este job,
inclua o método
setDisks
. - Se você estiver usando um modelo de instância de VM para este job,
inclua o método
setInstanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para este job,
inclua o método
- Para montar os discos permanentes no job, use o
Classe
Volume
com o métodosetDeviceName
e métodosetMountPath
. Para novos discos permanentes, use também o MétodosetMountOptions
para ativar a gravação.
Para ver um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
Node.js
Para criar um job em lote que use um job novo ou atual
os discos permanentes usando
Bibliotecas de cliente do Cloud para Node.js, use a
Método createJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para este job,
inclua a classe
AllocationPolicy.AttachedDisk
. - Se você estiver usando um modelo de instância de VM para este job,
Inclua a propriedade
instanceTemplate
.
- Se você não estiver usando um modelo de instância de VM para este job,
inclua a classe
- Para montar os discos permanentes no job, use o
Classe
Volume
com a propriedadedeviceName
e a propriedademountPath
. Para novos discos permanentes, use também o PropriedademountOptions
para ativar a gravação.
Para ver um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
Python
Para criar um job em lote que use um job novo ou atual
os discos permanentes usando
Bibliotecas de cliente do Cloud para Python, use a
Função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para este job,
inclua a classe
AttachedDisk
. - Se você estiver usando um modelo de instância de VM para este job,
Inclua o atributo
instance_template
.
- Se você não estiver usando um modelo de instância de VM para este job,
inclua a classe
- Para montar os discos permanentes no job, use o
Classe
Volume
com o atributodevice_name
emount_path
. Para novos discos permanentes, use também omount_options
para ativar a gravação.
Para ver um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
C++
Para criar um job em lote que use um job novo ou atual
os discos permanentes usando
Bibliotecas de cliente do Cloud para C++, use a
Função CreateJob
e inclua o seguinte:
- Para anexar discos permanentes às VMs para um job,
inclua uma das seguintes opções:
- Se você não estiver usando um modelo de instância de VM para este job,
use o método
set_remote_path
. - Se você estiver usando um modelo de instância de VM para este job, use o
set_instance_template
.
- Se você não estiver usando um modelo de instância de VM para este job,
use o método
- Para ativar os discos permanentes no job, use o campo
volumes
com os camposdeviceName
emountPath
. Para novos discos permanentes, use o campomountOptions
para ativar a gravação.
Para ver um exemplo de código de um caso de uso semelhante, consulte Usar um bucket do Cloud Storage.
Usar um SSD local
Um job que usa SSDs locais tem as seguintes restrições:
- Todos os SSDs locais Analise as restrições para todos os SSDs locais.
- Modelos de instância Se você quiser especifique um modelo de instância de VM ao criar este job, é necessário anexar disco permanente para este job no modelo de instância. Caso contrário, se você não quiser usar uma instância você precisa anexar os disco permanente diretamente no a definição do job.
É possível criar um job que use um SSD local com o
CLI gcloud ou API Batch.
O exemplo a seguir descreve como criar uma tarefa que cria, anexa e
que monta um SSD local. O trabalho também tem três tarefas
executar um script para criar um arquivo no SSD local chamado
output_task_TASK_INDEX.txt
em que
TASK_INDEX
é o índice de cada tarefa:
0
, 1
e 2
.
gcloud
Para criar um job que usa SSDs locais com o
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, crie e anexe os SSDs locais na
instances
e ative os SSDs locais no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para este job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
MACHINE_TYPE
: o tipo de máquina virtual, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina das VMs do job.LOCAL_SSD_NAME
: o nome. de um SSD local criado para o job.LOCAL_SSD_SIZE
: o tamanho do todos os SSDs locais em GB. Cada SSD local tem 375 GB, então esse valor precisa ser um múltiplo de375
GB. Para Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você for usando um modelo de instância de VM para este job, crie um arquivo JSON como mostrado anteriormente, mas substitua o Campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um trabalho que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Para este exemplo, o modelo deve definir e anexar um SSD local chamadoLOCAL_SSD_NAME
:
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do trabalho.JSON_CONFIGURATION_FILE
: o caminho para um JSON. com os detalhes de configuração do job.
API
Para criar um job que usa SSDs locais com o
Batch API, use o
método jobs.create
.
Na solicitação, crie e anexe os SSDs locais na
instances
e ative os SSDs locais no campo volumes
.
Se você não estiver usando um modelo de instância para este job, faça o seguinte: solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do trabalho.JOB_NAME
: o nome do job.MACHINE_TYPE
: o tipo de máquina virtual, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina das VMs do job.LOCAL_SSD_NAME
: o nome. de um SSD local criado para o job.LOCAL_SSD_SIZE
: o tamanho do todos os SSDs locais em GB. Cada SSD local tem 375 GB, então esse valor precisa ser um múltiplo de375
GB. Para Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você for usando um modelo de instância de VM para este job, crie um arquivo JSON como mostrado anteriormente, mas substitua o Campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um trabalho que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Para este exemplo, o modelo deve definir e anexar um SSD local chamadoLOCAL_SSD_NAME
:
Usar um bucket do Cloud Storage
Para criar um job que use um bucket atual do Cloud Storage, Selecione um dos seguintes métodos:
- Recomendado: ative um bucket diretamente nas VMs do job especificando o na definição do job, conforme mostrado nesta seção. Quando o job é executado, o bucket será montado automaticamente nas VMs para seu job usando Cloud Storage FUSE.
- Crie um job com tarefas que acessam diretamente um bucket do Cloud Storage usando a CLI gcloud ou bibliotecas de cliente para a API Cloud Storage. Para saber como acessar um do bucket do Cloud Storage diretamente de uma VM, consulte documentação do Compute Engine para Como gravar e ler dados dos buckets do Cloud Storage.
Antes de criar um job que use um bucket, crie um bucket ou identifique um em um bucket que já existe. Para mais informações, consulte Crie buckets e Listar buckets.
É possível criar um job que usa um bucket do Cloud Storage com o console do Google Cloud, CLI gcloud, API Batch, Go, Java, Node.js, Python ou C++.
O exemplo a seguir descreve como criar um job que monta uma
do bucket do Cloud Storage. O job também tem três tarefas que são executadas
um script para criar um arquivo no bucket chamado
output_task_TASK_INDEX.txt
em que TASK_INDEX
é o índice de cada tarefa:
0
, 1
e 2
.
Console
Para criar um job que usa um bucket do Cloud Storage com o Console do Google Cloud, faça o seguinte:
No console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. O A página Criar job em lote é aberta. No painel esquerdo, A página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-bucket-job
.Configure a seção Task details:
Na janela New runnable, adicione pelo menos um script ou contêiner para o job ser executado.
Por exemplo, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, insira o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Substitua MOUNT_PATH pelo que os executáveis deste job usam para acessar um em um bucket atual do Cloud Storage. O caminho precisa começar com
/mnt/disks/
seguido de um diretório ou caminho que que você escolher. Por exemplo, se você quiser representar esta bucket com um diretório chamadomy-bucket
, defina o caminho de montagem para/mnt/disks/my-bucket
.Clique em Concluído.
No campo Contagem de tarefas, digite o número de tarefas de para esse trabalho.
Por exemplo, insira
3
.No campo Paralelismo, insira o número de tarefas a serem em execução simultânea.
Por exemplo, digite
1
(padrão).
Defina a página Configurações adicionais:
No painel esquerdo, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada bucket do Cloud Storage em que você quer ativar este job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela Novo volume será exibida.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Bucket do Cloud Storage.
No campo Nome do bucket de armazenamento, insira o nome do um bucket atual.
Por exemplo, insira o bucket que você especificou que o job pode ser executado.
No campo Caminho de montagem, insira o caminho do bucket (MOUNT_PATH), que você especificado no executável.
Clique em Concluído.
Opcional: configure o outras áreas para a vaga.
Opcional: para revisar a configuração do job, no painel esquerdo, Clique em Visualizar.
Clique em Criar.
A página Detalhes do job exibe o job que você criou.
gcloud
Para criar um job que usa um bucket do Cloud Storage com o
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, ative o bucket
volumes
.
Por exemplo, para criar um job que gere arquivos para um Cloud Storage:
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
BUCKET_PATH
: o caminho do diretório do bucket que você quer que o job acesse, que precisa começar com o nome do do bucket. Por exemplo, para um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa o diretório raiz. do bucket e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação em que o executáveis usam para acessar esse bucket. O caminho precisa começar com/mnt/disks/
seguido por um diretório ou caminho que você escolher. Para exemplo, se você quer representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de montagem como/mnt/disks/my-bucket
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do trabalho.JSON_CONFIGURATION_FILE
: o caminho para um JSON. com os detalhes de configuração do job.
API
Para criar um job que usa um bucket do Cloud Storage com o
Batch API, use o
Método jobs.create
e ativar o bucket no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do trabalho.JOB_NAME
: o nome do job.BUCKET_PATH
: o caminho do diretório do bucket que você quer que o job acesse, que precisa começar com o nome do bucket. Por exemplo, para um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa a raiz. do bucket e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação em que o executáveis usam para acessar esse bucket. O caminho precisa começar com/mnt/disks/
seguido por um diretório ou caminho que você escolher. Por exemplo, se você quer representar esse bucket com uma diretório chamadomy-bucket
, defina o caminho de montagem como/mnt/disks/my-bucket
.
Go
Go
Para mais informações, consulte a API Batch Go documentação de referência.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Java
Java
Para mais informações, consulte a API Batch Java documentação de referência.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Node.js
Para mais informações, consulte a API Batch Node.js documentação de referência.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Python
Para mais informações, consulte a API Batch Python documentação de referência.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
C++
C++
Para mais informações, consulte a API Batch C++ documentação de referência.
Para autenticar no Batch, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Usar um sistema de arquivos de rede
É possível criar um job que use um sistema de arquivos de rede (NFS, na sigla em inglês) existente, como um Compartilhamento de arquivos do Filestore, usando o console do Google Cloud, CLI gcloud ou API Batch.
Antes de criar um job que use NFS, verifique se o o firewall da rede está configurado corretamente para permitir o tráfego entre nas VMs e no NFS do job. Para mais informações, consulte Como configurar regras de firewall para o Filestore.
O exemplo a seguir descreve como criar um job que especifica e
que monta um NFS. O job também tem 3
tarefas que executam um script para criar um arquivo no NFS chamado
output_task_TASK_INDEX.txt
em que TASK_INDEX
é o índice de cada tarefa:
0
, 1
e 2
.
Console
Para criar um job que use um NFS usando o console do Google Cloud, faça o seguinte:
No console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. O A página Criar job em lote é aberta. No painel esquerdo, A página Detalhes do job está selecionada.Configure a página Detalhes do job:
Opcional: no campo Nome do job, personalize o nome do job.
Por exemplo, insira
example-nfs-job
.Configure a seção Task details:
Na janela New runnable, adicione pelo menos um script ou contêiner para o job ser executado.
Por exemplo, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, insira o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Substitua MOUNT_PATH pelo caminho de montagem que o executável do job usa para acessar esse NFS. O caminho precisa começar com
/mnt/disks/
seguido de ou caminho escolhido. Por exemplo, se você representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.Clique em Concluído.
No campo Contagem de tarefas, digite o número de tarefas de para esse trabalho.
Por exemplo, insira
3
.No campo Paralelismo, insira o número de tarefas a serem em execução simultânea.
Por exemplo, digite
1
(padrão).
Defina a página Configurações adicionais:
No painel esquerdo, clique em Configurações adicionais. A página Configurações adicionais é aberta.
Para cada bucket do Cloud Storage em que você quer ativar este job, faça o seguinte:
Na seção Volume de armazenamento, clique em Adicionar novo volume. A janela Novo volume será exibida.
Na janela Novo volume, faça o seguinte:
Na seção Tipo de volume: Selecione Sistema de arquivos de rede.
No campo Servidor de arquivos, digite o endereço IP do em que o NFS especificado no arquivo executável está localizado.
Por exemplo, se o NFS for do compartilhamento de arquivos do Filestore, Depois especifique o endereço IP do banco de dados que você pode conseguir ao que descreve a instância do Filestore.
No campo Caminho remoto, insira um caminho que possa acessar o NFS que você especificou na etapa anterior.
O caminho do diretório NFS precisa começar com
/
seguido pelo diretório raiz do NFS.No campo Caminho de montagem, insira o caminho de montagem do NFS (MOUNT_PATH), que você especificou em na etapa anterior.
Clique em Concluído.
Opcional: configure o outras áreas para a vaga.
Opcional: para revisar a configuração do job, no painel esquerdo, Clique em Visualizar.
Clique em Criar.
A página Detalhes do job exibe o job que você criou.
gcloud
Para criar um job que usa NFS usando o
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, monte o NFS na
volumes
.
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
NFS_IP_ADDRESS
: o Endereço IP do NFS. Por exemplo, se sua O NFS é um compartilhamento de arquivos do Filestore, especifique o endereço IP do Filestore, que você pode conseguir ao que descreve a instância do Filestore.NFS_PATH
: o caminho do diretório do NFS que você quer que este job acesse, que precisa começar com/
. seguido pelo diretório raiz do NFS. Por exemplo, para um O compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa a raiz do compartilhamento de arquivos e o caminho/FILE_SHARE_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação em que o executáveis usam para acessar esse NFS. O caminho precisa começar com/mnt/disks/
seguido por um diretório ou caminho que você escolher. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do trabalho.JSON_CONFIGURATION_FILE
: o caminho para um JSON. com os detalhes de configuração do job.
API
Para criar um job que usa NFS usando o
Batch API, use o
Método jobs.create
e montar o NFS no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto do seu projeto.LOCATION
: o local do trabalho.JOB_NAME
: o nome do job.NFS_IP_ADDRESS
: o Endereço IP do sistema de arquivos de rede. Por exemplo, se sua O NFS é um compartilhamento de arquivos do Filestore, especifique o endereço IP do Filestore, que você pode conseguir ao que descreve a instância do Filestore.NFS_PATH
: o caminho do diretório do NFS que você quer que este job acesse, que precisa começar com/
. seguido pelo diretório raiz do NFS. Por exemplo, para um O compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa a raiz do compartilhamento de arquivos e o caminho/FILE_SHARE_NAME/subdirectory
representa um subdiretório.MOUNT_PATH
: o caminho de ativação em que o executáveis usam para acessar esse NFS. O caminho precisa começar com/mnt/disks/
seguido por um diretório ou caminho que você escolher. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de montagem como/mnt/disks/my-nfs
.
A seguir
- Se você tiver problemas para criar ou executar um job, consulte Solução de problemas.
- Ver tarefas e tarefas.
- Saiba mais sobre opções de criação de jobs.