Crea un'istanza VM PyTorch Deep Learning

Questa pagina mostra come creare un'istanza di immagini VM PyTorch Deep Learning VM con PyTorch e altri strumenti preinstallati. Puoi creare un'istanza PyTorch da Cloud Marketplace all'interno della console Google Cloud o utilizzando la riga di comando.

Prima di iniziare

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  6. Se utilizzi GPU con la tua Deep Learning VM, consulta la pagina delle quote per assicurarti di avere a disposizione un numero sufficiente di GPU nel progetto. Se le GPU non sono elencate nella pagina delle quote o hai bisogno di una quota GPU aggiuntiva, richiedi un aumento della quota.

Creazione di un'istanza VM PyTorch Deep Learning da Cloud Marketplace

Per creare un'istanza VM PyTorch Deep Learning da Cloud Marketplace, completa questi passaggi:

  1. Vai alla pagina di Cloud Marketplace per Deep Learning VM nella console Google Cloud.

    Vai alla pagina di Cloud Marketplace per Deep Learning VM

  2. Fai clic su Inizia.

  3. Inserisci un Nome deployment, che sarà la radice del nome della VM. Compute Engine aggiunge -vm a questo nome quando denomina l'istanza.

  4. Seleziona una Zona.

  5. In Tipo di macchina, seleziona le specifiche che vuoi per la tua VM. Scopri di più sui tipi di macchina.

  6. In GPU, seleziona il tipo di GPU e il numero di GPU. Se non vuoi utilizzare GPU, fai clic sul pulsante Elimina GPU e vai al passaggio 7. Scopri di più sulle GPU.

    1. Seleziona un tipo di GPU. Non tutti i tipi di GPU sono disponibili in tutte le zone. Trova una combinazione supportata.
    2. Seleziona il Numero di GPU. Ogni GPU supporta un numero diverso di GPU. Trova una combinazione supportata.
  7. In Framework, seleziona PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).

  8. Se utilizzi GPU, è richiesto un driver NVIDIA. Puoi installare il driver autonomamente o selezionare Installa automaticamente il driver GPU NVIDIA al primo avvio.

  9. Puoi selezionare Abilita l'accesso a JupyterLab tramite URL anziché SSH (beta). L'abilitazione di questa funzionalità beta ti consente di accedere alla tua istanza JupyterLab utilizzando un URL. Tutti gli utenti con il ruolo di Editor o Proprietario nel tuo progetto Google Cloud possono accedere a questo URL. Al momento, questa funzionalità è disponibile solo negli Stati Uniti, nell'Unione Europea e in Asia.

  10. Seleziona un tipo di disco di avvio e le dimensioni del disco di avvio.

  11. Seleziona le impostazioni di rete che preferisci.

  12. Fai clic su Esegui il deployment.

Se scegli di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.

Dopo il deployment della VM, la pagina viene aggiornata con le istruzioni per accedere all'istanza.

Creazione di un'istanza VM PyTorch Deep Learning dalla riga di comando

Per utilizzare Google Cloud CLI al fine di creare una nuova istanza VM di deep learning, devi prima installare e inizializzare Google Cloud CLI:

  1. Scarica e installa Google Cloud CLI utilizzando le istruzioni fornite in Installazione di Google Cloud CLI.
  2. Inizializza l'SDK utilizzando le istruzioni fornite in Inizializzare Cloud SDK.

Per utilizzare gcloud in Cloud Shell, attiva prima Cloud Shell utilizzando le istruzioni fornite in Avvio di Cloud Shell.

Senza GPU

Per creare un'istanza VM di deep learning con la famiglia di immagini PyTorch più recente e una CPU, inserisci quanto segue nella riga di comando:

export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Opzioni:

  • --image-family deve essere pytorch-latest-cpu o pytorch-VERSION-cpu (ad esempio, pytorch-1-13-cpu).

  • --image-project deve essere deeplearning-platform-release.

Con una o più GPU

Compute Engine offre la possibilità di aggiungere una o più GPU alle tue istanze di macchine virtuali. Le GPU offrono un'elaborazione più rapida per molte attività complesse di dati e machine learning. Per ulteriori informazioni sulle GPU, consulta GPU su Compute Engine.

Per creare un'istanza VM di deep learning con l'ultima famiglia di immagini PyTorch e una o più GPU collegate, inserisci quanto segue nella riga di comando:

export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Opzioni:

  • --image-family deve essere pytorch-latest-gpu o pytorch-VERSION-CUDA-VERSION (ad esempio, pytorch-1-10-cu110).

  • --image-project deve essere deeplearning-platform-release.

  • --maintenance-policy deve essere TERMINATE. Per scoprire di più, consulta la sezione Restrizioni delle GPU.

  • --accelerator specifica il tipo di GPU da utilizzare. Deve essere specificato nel formato --accelerator="type=TYPE,count=COUNT". Ad esempio: --accelerator="type=nvidia-tesla-p100,count=2". Consulta la tabella dei modelli di GPU per un elenco dei tipi e dei conteggi di GPU disponibili.

    Non tutti i tipi di GPU sono supportati in tutte le regioni. Per maggiori dettagli, consulta Disponibilità di regioni e zone GPU.

  • --metadata viene utilizzato per specificare che il driver NVIDIA deve essere installato per tuo conto. Il valore è install-nvidia-driver=True. Se specificato, Compute Engine carica il driver stabile più recente al primo avvio ed esegue i passaggi necessari (incluso un riavvio finale per attivare il driver).

Se hai scelto di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.

Potrebbero essere necessari fino a 5 minuti prima che il provisioning della VM venga completato. In questo periodo, non sarà possibile connettersi tramite SSH alla macchina. Al termine dell'installazione, per garantire la corretta installazione del driver, puoi accedere tramite SSH ed eseguire nvidia-smi.

Dopo aver configurato l'immagine, puoi salvare uno snapshot dell'immagine in modo da poter avviare le istanze derivate senza dover attendere l'installazione del driver.

Creazione di un'istanza prerilasciabile

Puoi creare un'istanza VM di Deep Learning prerilasciabile. Un'istanza prerilasciabile è un'istanza che puoi creare ed eseguire a un prezzo di molto inferiore rispetto alle istanze normali. Tuttavia, Compute Engine potrebbe arrestare (prerilasciare) queste istanze se ha bisogno di accedere alle risorse per altre attività. Le istanze prerilasciabili vengono sempre arrestate dopo 24 ore. Per ulteriori informazioni sulle istanze prerilasciabili, consulta Istanze VM prerilasciabili.

Per creare un'istanza VM di Deep Learning prerilasciabile:

  • Segui le istruzioni riportate sopra per creare una nuova istanza utilizzando la riga di comando. Al comando gcloud compute instances create, aggiungi quanto segue:

      --preemptible

Passaggi successivi

Per istruzioni sulla connessione alla nuova istanza VM di Deep Learning VM tramite la console o la riga di comando Google Cloud, consulta Connessione alle istanze. Il nome istanza è il Nome deployment specificato, aggiungendo -vm.