Neste documento, explicamos como criar e executar um job em lote que usa um ou mais volumes de armazenamento externo. As opções de armazenamento incluem disco permanente novo ou atual, novos SSDs locais, buckets atuais do Cloud Storage e um sistema de arquivos de rede (NFS, na sigla em inglês) atual, como um compartilhamento de arquivos do Filestore.
Antes de começar
- Se você nunca usou o Batch antes, analise os Primeiros passos com o Batch e ative o Batch preenchendo os pré-requisitos para projetos e usuários.
-
Para receber as permissões necessárias para criar um job, peça ao administrador para conceder a você os seguintes papéis de IAM:
-
Editor de job em lote (
roles/batch.jobsEditor
) no projeto -
Usuário da conta de serviço (
roles/iam.serviceAccountUser
) na conta de serviço do job, que, por padrão, é a conta de serviço padrão do Compute Engine -
Crie um job que use um bucket do Cloud Storage:
Leitor de objetos do Storage (
roles/storage.objectViewer
) no bucket
Para mais informações sobre como conceder papéis, consulte Gerenciar o acesso.
Também é possível conseguir as permissões necessárias com papéis personalizados ou outros papéis predefinidos.
-
Editor de job em lote (
Criar um job que use volumes de armazenamento
Por padrão, cada VM do Compute Engine para um job tem um único disco permanente de inicialização que contém o sistema operacional. Se quiser, é possível criar um job que use volumes de armazenamento adicionais. Especificamente, as VMs de um job podem usar um ou mais dos seguintes tipos de volumes de armazenamento. Para mais informações sobre todos os tipos de volumes de armazenamento e as diferenças e restrições de cada um, consulte a documentação das opções de armazenamento de VM do Compute Engine.
- disco permanente: armazenamento em blocos permanente ou zonal
- SSD local: armazenamento em blocos temporário de alto desempenho
- bucket do Cloud Storage: armazenamento de objetos acessível
- sistema de arquivos de rede (NFS, na sigla em inglês): sistema de arquivos distribuído que segue o protocolo do sistema de arquivos de rede, por exemplo, um compartilhamento de arquivos do Filestore, que é um NFS de alto desempenho hospedado no Google Cloud.
É possível permitir que um job use cada volume de armazenamento incluindo-o na definição do job e especificando o caminho de ativação (mountPath
) nos executáveis. Para saber como criar um job que usa volumes de armazenamento, consulte uma ou mais das seguintes seções:
- Usar um disco permanente
- Usar um SSD local
- Usar um bucket do Cloud Storage
- Usar um sistema de arquivos de rede
Usar um disco permanente
Um job que usa discos permanentes tem as seguintes restrições:
Todos os discos permanentes: revise as restrições de todos os discos permanentes.
Discos permanentes novos ou existentes: cada disco permanente em um job pode ser novo (definido e criado com o job) ou existente (já criado no projeto e especificado no job). Para usar um disco permanente, ele precisa ser formatado e ativado nas VMs do job, que precisa estar no mesmo local que o disco permanente. Monta todos os discos permanentes incluídos em um job e formata todos os novos discos permanentes. No entanto, é necessário formatar e desconectar os discos permanentes atuais que você quer que um job use.
As opções de local, as opções de formato e as opções de ativação compatíveis variam entre discos permanentes novos e atuais, conforme descrito na tabela a seguir:
Novos discos permanentes Discos permanentes atuais Opções de formatação O disco permanente é formatado automaticamente com um sistema de arquivos
ext4
.É necessário formatar o disco permanente para usar um sistema de arquivos
ext4
antes de usá-lo em um job.Opções de montagem Todas as opções são compatíveis.
Todas as opções, exceto gravação, são compatíveis. Isso ocorre devido às restrições do modo de multigravação.
É necessário desvincular o disco permanente de todas as VMs às quais ele está anexado antes de usá-lo em um job.
Opções de local Só é possível criar discos permanentes zonais.
Você pode selecionar qualquer local para o job. Os discos permanentes são criados na zona em que o projeto é executado.
É possível selecionar discos permanentes regionais e zonais.
É preciso definir o local do job (ou, se especificado, apenas os locais permitidos) como somente locais que contenham todos os discos permanentes do job. Por exemplo, para um disco permanente zonal, o local do job precisa ser a do disco. Para um disco permanente regional, o local do job precisa ser a região do disco ou, se estiver especificando zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado.Modelos de instância: se você quiser usar um modelo de instância de VM ao criar este job, anexe todos os disco permanente para esse job no modelo de instância. Caso contrário, se não quiser usar um modelo de instância, anexe os disco permanente diretamente na definição do job.
É possível criar um job que usa um disco permanente usando o Console do Google Cloud, a CLI gcloud ou a API Batch.
Console
Usando o Console do Google Cloud, o exemplo a seguir cria um job que executa um script para ler um arquivo de um disco permanente zonal atual que está localizado na zona us-central1-a
. O script de exemplo presume que o job tem um disco permanente zonal existente que contém um arquivo de texto chamado example.txt
no diretório raiz.
Opcional: se você quiser criar um disco permanente zonal que pode ser usado para executar o script de exemplo, faça o seguinte antes de criar o job:
Anexe um novo permanente em branco chamado
example-disk
a uma VM do Linux na zonaus-central1-a
e, em seguida, execute comandos na VM para formatar e ativar o disco. Para mais instruções, consulte Adicionar um disco permanente à sua VM.Não se desconecte ainda da VM.
Para criar
example.txt
no disco permanente, execute os seguintes comandos na VM:Para alterar o diretório de trabalho atual para o diretório raiz do disco permanente, digite o seguinte comando:
cd VM_MOUNT_PATH
Substitua VM_MOUNT_PATH pelo caminho para o diretório em que o disco permanente foi ativado para essa VM na etapa anterior. Por exemplo,
/mnt/disks/example-disk
.Pressione
Enter
.Para criar e definir um arquivo chamado
example.txt
, digite o seguinte comando:cat > example.txt
Pressione
Enter
.Digite o conteúdo do arquivo. Por exemplo, digite
Hello world!
.Para salvar o arquivo, pressione
Ctrl+D
(ouCommand+D
no macOS).
Quando terminar, você poderá se desconectar da VM.
Desanexe o disco permanente da VM.
Se você não precisar mais da VM, exclua-a para remover automaticamente o disco permanente.
Caso contrário, remova o disco permanente. Para instruções, consulte Como desconectar e reconectar discos de inicialização e desanexar o disco permanente
example-disk
em vez do disco de inicialização da VM.
Para criar um job que use discos permanentes zonais atuais usando o Console do Google Cloud, faça o seguinte:
No Console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta.No campo Nome do job, insira um nome para o job.
Por exemplo, insira
example-disk-job
.No campo Região, selecione o local desse job.
Por exemplo, selecione
us-central1 (Iowa)
(padrão).No campo Zona, selecione a zona que contém os discos permanentes zonais atuais que você quer usar para esse job.
Por exemplo, selecione
us-central1-a (Iowa)
.No painel Novo executável, adicione pelo menos um script ou contêiner para que esse job seja executado.
Por exemplo, para executar um script que imprima o conteúdo de um arquivo chamado
example.txt
e esteja localizado no diretório raiz do disco permanente usado por este job, faça o seguinte:Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, digite o seguinte script:
echo "Here is the content of the example.txt file in the persistent disk." cat MOUNT_PATH/example.txt
Substitua MOUNT_PATH pelo caminho em que você planeja ativar o disco permanente nas VMs deste job. Por exemplo,
/mnt/disks/example-disk
.Clique em Concluído.
No campo Contagem de tarefas, digite o número de tarefas desse job.
Por exemplo, insira
1
.No campo Paralelismo, digite o número de tarefas a serem executadas simultaneamente.
Por exemplo, insira
1
(padrão).Para cada disco permanente zonal que você quer ativar neste job, faça o seguinte:
Clique em Adicionar novo volume. O painel Novo volume é exibido.
No painel Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Disco permanente.
No menu Disco, selecione um disco permanente zonal que você queira ativar para esse job. O disco precisa estar localizado na mesma zona deste job.
Por exemplo, selecione o disco permanente zonal que você preparou, localizado na zona
us-central1-a
e contém o arquivoexample.txt
.Opcional: se você quiser renomear esse disco permanente zonal, faça o seguinte:
Selecione Personalizar o nome do dispositivo.
No campo Nome do dispositivo, digite o novo nome do disco.
No campo Caminho de ativação, insira o caminho de ativação (MOUNT_PATH) para o disco permanente:
Por exemplo:
/mnt/disks/EXISTING_PERSISTENT_DISK_NAME
Substitua EXISTING_PERSISTENT_DISK_NAME pelo nome do disco. Se você renomeou o disco permanente zonal, use o novo nome.
Por exemplo, substitua EXISTING_PERSISTENT_DISK_NAME por
example-disk
.Clique em Concluído.
Opcional: configure os outros campos para este job.
Por exemplo, use os valores padrão para todos os outros campos.
Clique em Criar.
A página Lista de jobs exibe o job que você criou.
gcloud
Usando a CLI gcloud, o exemplo a seguir cria um job que anexa e ativa um disco permanente e um novo.
O job tem três tarefas, cada uma executando um script para criar um arquivo no novo
disco permanente chamado output_task_TASK_INDEX.txt
,
em que TASK_INDEX é o índice de cada tarefa: 0, 1 e
2.
Para criar um job que use discos permanentes com a CLI gcloud, use o comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, especifique os discos permanentes no campo instances
e ative o disco permanente no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para este job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto.EXISTING_PERSISTENT_DISK_NAME
: o nome de um disco permanente atual.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente atual. Para cada disco permanente zonal atual, o local do job precisa ser a zona do disco. Para cada disco permanente regional atual, o local do job precisa ser a região do disco ou, se estiver especificando zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado. Se você não especificar nenhum disco permanente, selecione qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do novo disco permanente em GB; Os tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo geralmente é de 10 GB (10
) e o máximo é de 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente,pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
.NEW_PERSISTENT_DISK_NAME
: o nome do novo disco permanente.
Se você estiver usando um modelo de instância de VM para este job, crie um arquivo JSON, conforme mostrado anteriormente, exceto o campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um job que usa discos permanentes, esse modelo de instância precisa definir e anexar os discos permanentes que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e anexar um disco permanente atual chamadoEXISTING_PERSISTENT_DISK_NAME
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho de um arquivo JSON com os detalhes de configuração do job.
API
Usando a API em lote, o exemplo a seguir cria um job que anexa e ativa um disco permanente e um novo. O job tem três tarefas, cada uma executando um script para criar um arquivo no novo
disco permanente chamado
output_task_TASK_INDEX.txt
, em que
TASK_INDEX é o índice de cada tarefa: 0, 1 e 2.
Para criar um job que use discos permanentes com a API em lote, use o método jobs.create
.
Na solicitação, especifique os discos permanentes no campo instances
e ative o disco permanente no campo volumes
.
Se você não estiver usando um modelo de instância para este job, faça a seguinte solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "disks": [ { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME" }, { "newDisk": { "sizeGb": NEW_PERSISTENT_DISK_SIZE, "type": "NEW_PERSISTENT_DISK_TYPE" }, "deviceName": "NEW_PERSISTENT_DISK_NAME" } ] } } ], "location": { "allowedLocations": [ "EXISTING_PERSISTENT_DISK_LOCATION" ] } }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "NEW_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME", "mountOptions": "rw,async" }, { "deviceName": "EXISTING_PERSISTENT_DISK_NAME", "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.EXISTING_PERSISTENT_DISK_NAME
: o nome de um disco permanente atual.EXISTING_PERSISTENT_DISK_LOCATION
: o local de um disco permanente atual. Para cada disco permanente zonal atual, o local do job precisa ser a do disco. Para cada disco permanente regional atual, o local do job precisa ser a região do disco ou, se estiver especificando zonas, uma ou ambas as zonas específicas em que o disco permanente regional está localizado. Se você não especificar nenhum disco permanente, selecione qualquer local. Saiba mais sobre o campoallowedLocations
.NEW_PERSISTENT_DISK_SIZE
: o tamanho do novo disco permanente em GB; Os tamanhos permitidos dependem do tipo de disco permanente, mas o mínimo geralmente é de 10 GB (10
) e o máximo é de 64 TB (64000
).NEW_PERSISTENT_DISK_TYPE
: o tipo de disco do novo disco permanente,pd-standard
,pd-balanced
,pd-ssd
oupd-extreme
.NEW_PERSISTENT_DISK_NAME
: o nome do novo disco permanente.
Se você estiver usando um modelo de instância de VM para este job, crie um arquivo JSON, conforme mostrado anteriormente, exceto o campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um job que usa discos permanentes, esse modelo de instância precisa definir e anexar os discos permanentes que você quer que o job use. Para este exemplo, o modelo precisa definir e anexar um novo disco permanente chamadoNEW_PERSISTENT_DISK_NAME
e anexar um disco permanente atual chamadoEXISTING_PERSISTENT_DISK_NAME
.
Usar um SSD local
Um job que usa SSDs locais tem as seguintes restrições:
- Todos os SSDs locais: revise as restrições para todos os SSDs locais.
- Modelos de instância: se você quiser especificar um modelo de instância de VM ao criar esse job, anexe todos os disco permanente para esse job no modelo de instância. Caso contrário, se não quiser usar um modelo de instância, anexe todos os disco permanente diretamente na definição do job.
É possível criar um job que use um SSD local usando a CLI gcloud ou a API Batch.
No exemplo a seguir, descrevemos como criar um job que cria, anexa e monta um SSD local. O job também tem três tarefas, cada uma executando um script para criar um arquivo no SSD local chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX
é o índice de cada tarefa: 0
, 1
e 2
.
gcloud
Para criar um job que use SSDs locais com a CLI gcloud, use o comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, crie e anexe os SSDs locais no campo instances
e ative-os no campo volumes
.
Crie um arquivo JSON.
Se você não estiver usando um modelo de instância para este job, crie um arquivo JSON com o seguinte conteúdo:
{ "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
MACHINE_TYPE
: o tipo de máquina, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina para as VMs do job.LOCAL_SSD_NAME
: o nome de um SSD local criado para esse job.LOCAL_SSD_SIZE
: o tamanho de todos os SSDs locais em GB; Cada SSD local tem 375 GB, portanto, esse valor precisa ser um múltiplo de375
GB. Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você estiver usando um modelo de instância de VM para este job, crie um arquivo JSON, conforme mostrado anteriormente, exceto o campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ],
em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um job que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Neste exemplo, o modelo precisa definir e anexar um SSD local chamadoLOCAL_SSD_NAME
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho de um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que use SSDs locais com a API em lote, use o método jobs.create
.
Na solicitação, crie e anexe os SSDs locais no campo instances
e ative-os no campo volumes
.
Se você não estiver usando um modelo de instância para este job, faça a seguinte solicitação:
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME { "allocationPolicy": { "instances": [ { "policy": { "machineType": MACHINE_TYPE, "disks": [ { "newDisk": { "sizeGb": LOCAL_SSD_SIZE, "type": "local-ssd" }, "deviceName": "LOCAL_SSD_NAME" } ] } } ] }, "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "deviceName": "LOCAL_SSD_NAME", "mountPath": "/mnt/disks/LOCAL_SSD_NAME", "mountOptions": "rw,async" } ] }, "taskCount":3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
PROJECT_ID
: o ID do projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.MACHINE_TYPE
: o tipo de máquina, que pode ser predefinido ou personalizado, das VMs do job. O número permitido de SSDs locais depende do tipo de máquina para as VMs do job.LOCAL_SSD_NAME
: o nome de um SSD local criado para esse job.LOCAL_SSD_SIZE
: o tamanho de todos os SSDs locais em GB; Cada SSD local tem 375 GB, portanto, esse valor precisa ser um múltiplo de375
GB. Por exemplo, para dois SSDs locais, defina esse valor como750
GB.
Se você estiver usando um modelo de instância de VM para este job, crie um arquivo JSON, conforme mostrado anteriormente, exceto o campo
instances
pelo seguinte:"instances": [ { "instanceTemplate": "INSTANCE_TEMPLATE_NAME" } ], ...
Em que
INSTANCE_TEMPLATE_NAME
é o nome do modelo de instância deste job. Para um job que usa SSDs locais, esse modelo de instância precisa definir e anexar os SSDs locais que você quer que o job use. Neste exemplo, o modelo precisa definir e anexar um SSD local chamadoLOCAL_SSD_NAME
.
Usar um bucket do Cloud Storage
Para criar um job que use um bucket do Cloud Storage, selecione um dos seguintes métodos:
- Recomendado: ative um bucket diretamente nas VMs do job especificando-o na definição do job, conforme mostrado nesta seção. Quando o job é executado, o bucket é ativado automaticamente nas VMs do job usando o Cloud Storage FUSE.
- Crie um job com tarefas que acessem diretamente um bucket do Cloud Storage usando a ferramenta de linha de comando
gsutil
ou as bibliotecas de cliente da API Cloud Storage. Para saber como acessar um bucket do Cloud Storage diretamente de uma VM, consulte a documentação do Compute Engine sobre Como gravar e ler dados de buckets do Cloud Storage.
Antes de criar um job que use um bucket, crie um bucket ou identifique um bucket atual. Para mais informações, consulte Criar buckets e Listar buckets.
É possível criar um job que usa um bucket do Cloud Storage com o console do Google Cloud, a CLI gcloud, a API Batch, GO, Java, Node.js ou Python.
No exemplo a seguir, descrevemos como criar um job que monta um bucket do Cloud Storage. O job também tem três tarefas, cada uma executando um script para criar um arquivo no bucket chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX
é o índice de cada tarefa: 0
, 1
e 2
.
Console
Para criar um job que use um bucket do Cloud Storage usando o Console do Google Cloud, faça o seguinte:
No Console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta.No campo Nome do job, insira
example-bucket-job
.No campo Região, selecione o local desse job.
Por exemplo, selecione
us-central1 (Iowa)
(padrão).No campo Zona, selecione
any
(padrão).Na seção Modelo de provisionamento de VM, selecione Padrão (padrão).
Clique em Uso geral.
No campo Série, selecione E2 (padrão).
No campo Tipo de máquina, selecione e2-medium (2 vCPUs, 4 GB de memória) (padrão).
No painel Novo executável, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, digite o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Em que MOUNT_PATH é o caminho de ativação usado pelos executáveis do job para acessar um bucket atual do Cloud Storage. O caminho precisa começar com
/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de ativação como/mnt/disks/my-bucket
.Clique em Concluído.
No campo Contagem de tarefas, digite
3
.No campo Parallelism, digite
1
(padrão).Na seção Recursos de tarefas, especifique a quantidade de recursos de VM necessárias para cada tarefa fazendo o seguinte:
No campo Cores, insira
1
(padrão).No campo Memória, digite
0.5
(padrão).
Clique em Adicionar novo volume. O painel Novo volume é exibido.
No painel Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione bucket do Cloud Storage.
No campo Nome do bucket do Storage, insira o nome de um bucket atual.
Por exemplo, insira o bucket especificado no executável deste job.
No campo Caminho de ativação, insira o caminho de ativação do bucket (MOUNT_PATH), especificado na etapa anterior.
Clique em Concluído.
Clique em Criar.
A página Lista de jobs exibe o job que você criou.
gcloud
Para criar um job que usa um bucket do Cloud Storage com a
CLI gcloud, use o
comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, ative o bucket no campo volumes
.
Por exemplo, para criar um job que gere arquivos para um Cloud Storage:
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "gcs": { "remotePath": "BUCKET_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
BUCKET_PATH
: o caminho do diretório do bucket que você quer que esse job acesse, que precisa começar com o nome do bucket. Por exemplo, para um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa o diretório raiz do bucket e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação usado pelos executáveis do job para acessar esse bucket. O caminho precisa começar com/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de ativação como/mnt/disks/my-bucket
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho de um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que use um bucket do Cloud Storage com a API Batch, use o método jobs.create
e ative o bucket no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"gcs": {
"remotePath": "BUCKET_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.BUCKET_PATH
: o caminho do diretório do bucket que você quer que esse job acesse, que precisa começar com o nome do bucket. Por exemplo, para um bucket chamadoBUCKET_NAME
, o caminhoBUCKET_NAME
representa o diretório raiz do bucket e o caminhoBUCKET_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação usado pelos executáveis do job para acessar esse bucket. O caminho precisa começar com/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse bucket com um diretório chamadomy-bucket
, defina o caminho de ativação como/mnt/disks/my-bucket
.
Go
Go
Para mais informações, consulte a documentação de referência da API Batch Go.
Java
Java
Para mais informações, consulte a documentação de referência da API Batch Java.
Node.js
Node.js
Para mais informações, consulte a documentação de referência da API Batch Node.js.
Python
Python
Para mais informações, consulte a documentação de referência da API Batch Python.
Usar um sistema de arquivos de rede
É possível criar um job que use um sistema de arquivos de rede (NFS, na sigla em inglês) existente, como um compartilhamento de arquivos do Filestore usando o console do Google Cloud, a CLI gcloud ou a API em lote.
Antes de criar um job que use um NFS, verifique se o firewall da rede está configurado corretamente para permitir o tráfego entre as VMs do job e o NFS. Para mais informações, consulte Como configurar regras de firewall para o Filestore.
O exemplo a seguir descreve como criar um job que especifica e monta um NFS. O job também tem três tarefas, cada uma executando um script para criar um arquivo no NFS chamado output_task_TASK_INDEX.txt
, em que TASK_INDEX
é o índice de cada tarefa: 0
, 1
e 2
.
Console
Para criar um job que use um bucket do Cloud Storage usando o Console do Google Cloud, faça o seguinte:
No Console do Google Cloud, acesse a página Lista de jobs.
Clique em
Criar. A página Criar job em lote é aberta.No campo Nome do job, insira
example-nfs-job
.No campo Região, selecione o local desse job.
Por exemplo, selecione
us-central1 (Iowa)
(padrão).No campo Zona, selecione
any
(padrão).Na seção Modelo de provisionamento de VM, selecione Padrão (padrão).
Clique em Uso geral.
No campo Série, selecione E2 (padrão).
No campo Tipo de máquina, selecione e2-medium (2 vCPUs, 4 GB de memória) (padrão).
No painel Novo executável, faça o seguinte:
Marque a caixa de seleção Script. Uma caixa de texto será exibida.
Na caixa de texto, digite o seguinte script:
echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
Em que MOUNT_PATH é o caminho de ativação usado pelo executável para acessar esse NFS. O caminho precisa começar com
/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de ativação como/mnt/disks/my-nfs
.Clique em Concluído.
No campo Contagem de tarefas, digite
3
.No campo Parallelism, digite
1
(padrão).Na seção Recursos de tarefas, especifique a quantidade de recursos de VM necessárias para cada tarefa fazendo o seguinte:
No campo Cores, insira
1
(padrão).No campo Memória, digite
0.5
(padrão).
Clique em Adicionar novo volume. O painel Novo volume é exibido.
No painel Novo volume, faça o seguinte:
Na seção Tipo de volume, selecione Sistema de arquivos de rede.
No campo Servidor de arquivos, digite o endereço IP do servidor em que o NFS especificado no executável deste job está localizado.
Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da VM que hospeda o compartilhamento de arquivos do Filestore, que pode ser conseguido com a descrição da VM do Filestore.
No campo Caminho remoto, insira um caminho que possa acessar o NFS especificado na etapa anterior.
O caminho do diretório NFS precisa começar com
/
seguido pelo diretório raiz do NFS.No campo Mount path, insira o caminho de ativação para o NFS (MOUNT_PATH), que você especificou na etapa anterior.
Clique em Concluído.
Clique em Criar.
A página Lista de jobs exibe o job que você criou.
gcloud
Para criar um job que usa um NFS usando a CLI gcloud, use o comando gcloud batch jobs submit
.
No arquivo de configuração JSON do job, ative o NFS no campo volumes
.
Crie um arquivo JSON com o seguinte conteúdo:
{ "taskGroups": [ { "taskSpec": { "runnables": [ { "script": { "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt" } } ], "volumes": [ { "nfs": { "server": "NFS_IP_ADDRESS", "remotePath": "NFS_PATH" }, "mountPath": "MOUNT_PATH" } ] }, "taskCount": 3 } ], "logsPolicy": { "destination": "CLOUD_LOGGING" } }
Substitua:
NFS_IP_ADDRESS
: o endereço IP do NFS. Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da VM que hospeda o compartilhamento de arquivos do Filestore, que pode ser conseguido com a descrição da VM do Filestore.NFS_PATH
: o caminho do diretório NFS que você quer que esse job acesse, que precisa começar com/
seguido pelo diretório raiz do NFS. Por exemplo, para um compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa o diretório raiz do compartilhamento de arquivos, e o caminho/FILE_SHARE_NAME/subdirectory
representa o subdiretóriosubdirectory
.MOUNT_PATH
: o caminho de ativação usado pelos executáveis do job para acessar esse NFS. O caminho precisa começar com/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de ativação como/mnt/disks/my-nfs
.
Execute este comando:
gcloud batch jobs submit JOB_NAME \ --location LOCATION \ --config JSON_CONFIGURATION_FILE
Substitua:
JOB_NAME
: o nome do job.LOCATION
: o local do job.JSON_CONFIGURATION_FILE
: o caminho de um arquivo JSON com os detalhes de configuração do job.
API
Para criar um job que usa um NFS usando a API Batch, use o método jobs.create
e ative o NFS no campo volumes
.
POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
{
"taskGroups": [
{
"taskSpec": {
"runnables": [
{
"script": {
"text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
}
}
],
"volumes": [
{
"nfs": {
"server": "NFS_IP_ADDRESS",
"remotePath": "NFS_PATH"
},
"mountPath": "MOUNT_PATH"
}
]
},
"taskCount": 3
}
],
"logsPolicy": {
"destination": "CLOUD_LOGGING"
}
}
Substitua:
PROJECT_ID
: o ID do projeto.LOCATION
: o local do job.JOB_NAME
: o nome do job.NFS_IP_ADDRESS
: o endereço IP do sistema de arquivos de rede. Por exemplo, se o NFS for um compartilhamento de arquivos do Filestore, especifique o endereço IP da VM que hospeda o compartilhamento de arquivos do Filestore, que pode ser conseguido com a descrição da VM do Filestore.NFS_PATH
: o caminho do diretório NFS que você quer que esse job acesse, que precisa começar com/
seguido pelo diretório raiz do NFS. Por exemplo, para um compartilhamento de arquivos do Filestore chamadoFILE_SHARE_NAME
, o caminho/FILE_SHARE_NAME
representa o diretório raiz do compartilhamento de arquivos, e o caminho/FILE_SHARE_NAME/subdirectory
representa um subdiretório.MOUNT_PATH
: o caminho de ativação usado pelos executáveis do job para acessar esse NFS. O caminho precisa começar com/mnt/disks/
, seguido por um diretório ou caminho escolhido por você. Por exemplo, se você quiser representar esse NFS com um diretório chamadomy-nfs
, defina o caminho de ativação como/mnt/disks/my-nfs
.
A seguir
- Se você tiver problemas para criar ou executar um job, consulte Solução de problemas.
- Visualizar jobs e tarefas.
- Saiba mais sobre as opções de criação de jobs.