Criar uma instância de VM de aprendizado profundo do PyTorch

Nesta página, mostramos como criar uma instância de imagens de VM de aprendizado profundo do PyTorch com o PyTorch e outras ferramentas pré-instaladas. É possível criar uma instância do PyTorch pelo Cloud Marketplace no Console do Google Cloud ou usando a linha de comando.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  6. Se estiver usando GPUs com sua VM de aprendizado profundo, verifique a página de cotas para garantir que você tenha GPUs suficientes disponíveis no seu projeto. Se as GPUs não estiverem listadas nessa página ou se você precisar de cotas adicionais, solicite um aumento de cota.

Como criar uma instância de VM de aprendizado profundo do PyTorch no Google Cloud Marketplace

Para criar uma instância de VM de aprendizado profundo do PyTorch no Cloud Marketplace, conclua as seguintes etapas:

  1. Acesse a página de VM de aprendizado profundo do Cloud Marketplace no console do Google Cloud.

    Acessar a página de VM de aprendizado profundo do Cloud Marketplace

  2. Clique em Primeiros passos.

  3. Insira um Nome de implantação que será a raiz do nome da VM. O Compute Engine anexa -vm a esse nome ao nomear a instância.

  4. Selecione uma Zona.

  5. Em Tipo de máquina, selecione as especificações que você quer para a VM. Saiba mais sobre tipos de máquinas.

  6. Em GPUs, selecione o Tipo de GPU e o Número de GPUs. Se você não quiser usar GPUs, clique no botão Excluir GPU e pule para a etapa 7. Saiba mais sobre GPUs.

    1. Selecione um Tipo de GPU. Nem todos os tipos de GPU estão disponíveis em todas as zonas. Encontre uma combinação compatível.
    2. Selecione o Número de GPUs. Cada GPU permite números diferentes de GPUs. Encontre uma combinação compatível.
  7. Em Framework, selecione PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).

  8. Se você estiver usando GPUs, precisará de um driver NVIDIA. É possível instalar o driver você mesmo ou selecionar Instalar driver de GPU NVIDIA automaticamente na primeira inicialização.

  9. Você tem a opção de selecionar Ativar o acesso ao JupyterLab por URL em vez de SSH (Beta). A ativação desse recurso Beta permite acessar sua instância do JupyterLab usando um URL. Qualquer pessoa que tenha o papel Editor ou Proprietário no seu projeto do Google Cloud poderá acessar esse URL. Atualmente, esse recurso funciona apenas nos Estados Unidos, na União Europeia e na Ásia.

  10. Selecione um tipo de disco de inicialização e um tamanho de disco de inicialização.

  11. Selecione as configurações de rede que você quer.

  12. Clique em Implantar.

Se você optar por instalar os drivers da NVIDIA, aguarde de três a cinco minutos para concluir a instalação.

Depois que a VM for implantada, a página será atualizada com instruções para acessar a instância.

Como criar uma instância de VM de aprendizado profundo do PyTorch da linha de comando

Para usar a CLI do Google Cloud para criar uma nova instância de VM de aprendizado profundo, primeiro é necessário instalar e inicializar a CLI do Google Cloud:

  1. Faça o download e instale a CLI do Google Cloud usando as instruções fornecidas em Como instalar a CLI do Google Cloud.
  2. Inicialize o SDK seguindo as instruções fornecidas em Como inicializar o SDK do Cloud.

Para usar o gcloud no Cloud Shell, primeiro ative o Cloud Shell seguindo as instruções fornecidas em Como iniciar o Cloud Shell.

Sem GPUs

Para criar uma instância de VM de aprendizado profundo com a família de imagens PyTorch mais recente e uma CPU, digite o seguinte na linha de comando:

export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Opções:

  • É necessário que --image-family seja pytorch-latest-cpu ou pytorch-VERSION-cpu (por exemplo, pytorch-1-13-cpu).

  • --image-project precisa ser deeplearning-platform-release.

Com uma ou mais GPUs

O Compute Engine oferece a opção de adicionar GPUs às instâncias de máquina virtual. As GPUs oferecem processamento mais rápido para muitas tarefas complexas de machine learning e dados. Para saber mais sobre GPUs, consulte GPUs no Compute Engine.

Para criar uma instância de VM de aprendizado profundo com a família de imagens mais recente do PyTorch e uma ou mais GPUs anexadas, digite o seguinte na linha de comando:

export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Opções:

  • É necessário que --image-family seja pytorch-latest-gpu ou pytorch-VERSION-CUDA-VERSION (por exemplo, pytorch-1-10-cu110).

  • --image-project precisa ser deeplearning-platform-release.

  • --maintenance-policy precisa ser TERMINATE. Para saber mais, consulte Restrições da GPU.

  • --accelerator especifica o tipo de GPU a ser usado. Precisa ser especificado no formato --accelerator="type=TYPE,count=COUNT". Por exemplo, --accelerator="type=nvidia-tesla-p100,count=2". Consulte a tabela de modelos de GPU para ver uma lista de tipos e contagens de GPU disponíveis.

    Nem todos os tipos de GPU são aceitos em todas as regiões. Para detalhes, consulte Disponibilidade de zonas e regiões de GPU.

  • --metadata é usado para especificar que o driver NVIDIA precisa ser instalado em seu nome. O valor é install-nvidia-driver=True. Se especificado, o Compute Engine carregará o driver estável mais recente na primeira inicialização e executará as etapas necessárias, incluindo uma reinicialização final para ativar o driver.

Se você optou por instalar os drivers da NVIDIA, aguarde de três a cinco minutos para concluir a instalação.

Pode levar até cinco minutos para que a VM seja totalmente provisionada. Neste momento, não será possível executar o SSH em sua máquina. Quando a instalação for concluída, será possível efetuar SSH e executar nvidia-smi, para garantir que a instalação do driver foi bem-sucedida.

Quando você tiver configurado a imagem, será possível salvar um snapshot dela para que seja possível iniciar instâncias derivativas sem ter que esperar pela instalação do driver.

Como criar uma instância preemptiva

Crie uma instância preemptiva da VM de aprendizado profundo. Essa instância pode ser criada e executada a um preço muito mais baixo do que as instâncias normais. No entanto, o Compute Engine poderá parar essas instâncias (ou seja, forçar a interrupção delas) caso precise de acesso a esses recursos para outras tarefas. As instâncias preemptivas sempre são interrompidas após 24 horas. Para saber mais sobre instâncias preemptivas, consulte Instâncias de VM preemptivas.

Para criar uma instância de VM preemptiva de aprendizado profundo:

  • Siga as instruções acima para criar uma nova instância usando a linha de comando. Para o comando gcloud compute instances create, anexe o seguinte:

      --preemptible

A seguir

Para instruções sobre como se conectar à nova instância de VM de aprendizado profundo pelo console do Google Cloud ou da linha de comando, consulte Como se conectar a instâncias. O nome da instância é o Nome da implantação que você especificou com -vm anexado.