Esta página mostra como criar uma instância do Deep Learning VM Image do PyTorch com o PyTorch e outras ferramentas pré-instaladas. Pode criar uma instância do PyTorch a partir do Cloud Marketplace na Google Cloud consola ou através da linha de comandos.
Antes de começar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
- Se estiver a usar GPUs com a sua VM de aprendizagem profunda, consulte a página de quotas para garantir que tem GPUs suficientes disponíveis no seu projeto. Se as GPUs não estiverem listadas na página de quotas ou precisar de uma quota de GPUs adicional, peça um aumento da quota.
Aceda à página do Deep Learning VM Cloud Marketplace na Google Cloud consola.
Clique em Começar.
Introduza um Nome de implementação, que será a raiz do nome da VM. O Compute Engine anexa
-vm
a este nome quando atribui um nome à sua instância.Selecione uma zona.
Em Tipo de máquina, selecione as especificações que quer para a sua VM. Saiba mais sobre os tipos de máquinas.
Em GPUs, selecione o Tipo de GPU e o Número de GPUs. Se não quiser usar GPUs, clique no botão Eliminar GPU e avance para o passo 7. Saiba mais sobre as GPUs.
- Selecione um tipo de GPU. Nem todos os tipos de GPU estão disponíveis em todas as zonas. Encontre uma combinação suportada.
- Selecione o Número de GPUs. Cada GPU suporta um número diferente de GPUs. Encontre uma combinação suportada.
Em Framework, selecione PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).
Se estiver a usar GPUs, é necessário um controlador da NVIDIA. Pode instalar o controlador manualmente ou selecionar Instalar o controlador da GPU NVIDIA automaticamente no primeiro arranque.
Tem a opção de selecionar Ativar acesso ao JupyterLab através de URL em vez de SSH (beta). A ativação desta funcionalidade beta permite-lhe aceder à sua instância do JupyterLab através de um URL. Qualquer pessoa com a função de editor ou proprietário no seu projeto do Google Cloud Google Cloud pode aceder a este URL. Atualmente, esta funcionalidade só funciona nos Estados Unidos, na União Europeia e na Ásia.
Selecione um tipo de disco de arranque e um tamanho do disco de arranque.
Selecione as definições de rede pretendidas.
Clique em Implementar.
- Transfira e instale a CLI do Google Cloud seguindo as instruções indicadas no artigo Instalar a CLI do Google Cloud.
- Inicialize o SDK através das instruções fornecidas no artigo Inicializar o SDK Cloud.
--image-family
tem de serpytorch-latest-cpu
oupytorch-VERSION-cpu
(por exemplo,pytorch-1-13-cpu
).--image-project
tem de serdeeplearning-platform-release
.--image-family
tem de serpytorch-latest-gpu
oupytorch-VERSION-CUDA-VERSION
(por exemplo,pytorch-1-10-cu110
).--image-project
tem de serdeeplearning-platform-release
.--maintenance-policy
tem de serTERMINATE
. Para saber mais, consulte o artigo Restrições da GPU.--accelerator
especifica o tipo de GPU a usar. Tem de ser especificado no formato--accelerator="type=TYPE,count=COUNT"
. Por exemplo,--accelerator="type=nvidia-tesla-p100,count=2"
. Consulte a tabela de modelos de GPU para ver uma lista dos tipos e quantidades de GPUs disponíveis.Nem todos os tipos de GPUs são suportados em todas as regiões. Para ver detalhes, consulte a secção Disponibilidade de regiões e zonas de GPU.
--metadata
é usado para especificar que o controlador da NVIDIA deve ser instalado em seu nome. O valor éinstall-nvidia-driver=True
. Se especificado, o Compute Engine carrega o controlador estável mais recente no primeiro arranque e executa os passos necessários (incluindo um reinício final para ativar o controlador).Siga as instruções acima para criar uma nova instância através da linha de comandos. Ao comando
gcloud compute instances create
, anexe o seguinte:--preemptible
Criar uma instância de VM de aprendizagem profunda do PyTorch a partir do Cloud Marketplace
Para criar uma instância de VM de aprendizagem profunda do PyTorch a partir do Cloud Marketplace, conclua os seguintes passos:
Se optar por instalar os controladores da NVIDIA, aguarde 3 a 5 minutos para que a instalação seja concluída.
Após a implementação da VM, a página é atualizada com instruções para aceder à instância.
Criar uma instância de VM de aprendizagem avançada do PyTorch a partir da linha de comandos
Para usar a CLI do Google Cloud para criar uma nova instância da VM de aprendizagem profunda, tem de instalar e inicializar primeiro a CLI do Google Cloud:
Para usar gcloud
no Cloud Shell, ative primeiro o Cloud Shell através das
instruções fornecidas em Iniciar o Cloud Shell.
Sem GPUs
Para criar uma instância de VM de aprendizagem profunda com a família de imagens PyTorch mais recente e uma CPU, introduza o seguinte na linha de comandos:
export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
Opções:
Com uma ou mais GPUs
O Compute Engine oferece a opção de adicionar uma ou mais GPUs às suas instâncias de máquinas virtuais. As GPUs oferecem um processamento mais rápido para muitas tarefas complexas de dados e aprendizagem automática. Para saber mais sobre as GPUs, consulte o artigo GPUs no Compute Engine.
Para criar uma instância de VM de aprendizagem profunda com a família de imagens do PyTorch mais recente e uma ou mais GPUs anexadas, introduza o seguinte na linha de comandos:
export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
Opções:
Se optou por instalar os controladores da NVIDIA, aguarde 3 a 5 minutos para que a instalação seja concluída.
Pode demorar até 5 minutos até que a VM seja totalmente aprovisionada. Durante este período, não vai poder usar o SSH na sua máquina. Quando a instalação estiver concluída, para garantir que a instalação do controlador foi bem-sucedida, pode usar o SSH e executar nvidia-smi
.
Depois de configurar a imagem, pode guardar uma captura instantânea da imagem para poder iniciar instâncias derivadas sem ter de aguardar pela instalação do controlador.
Criar uma instância preemptiva
Pode criar uma instância de VM de aprendizagem avançada preemptível. Uma instância preemptiva é uma instância que pode criar e executar a um preço muito inferior ao das instâncias normais. No entanto, o Compute Engine pode parar (interromper) estas instâncias se precisar de acesso a esses recursos para outras tarefas. As instâncias preemptíveis param sempre após 24 horas. Para saber mais sobre as instâncias preemptivas, consulte o artigo Instâncias de VMs preemptivas.
Para criar uma instância de VM de aprendizagem avançada preemptível:
O que se segue?
Para obter instruções sobre como estabelecer ligação à nova instância de VM de aprendizagem profunda
através da Google Cloud consola ou da linha de comandos, consulte o artigo Estabelecer ligação a
instâncias. O nome da instância
é o nome da implementação que especificou com -vm
anexado.