Crea un'istanza VM PyTorch Deep Learning

Questa pagina mostra come creare un'istanza di immagini VM PyTorch Deep Learning con PyTorch e altri strumenti preinstallati. Puoi creare di un'istanza PyTorch da Cloud Marketplace dalla console Google Cloud o dalla riga di comando.

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Se utilizzi GPU con la tua Deep Learning VM, controlla della pagina delle quote per assicurarti di avere di GPU disponibili nel tuo progetto. Se nelle quote non sono elencate le GPU o hai bisogno di una quota GPU aggiuntiva, richiedi un aumento della quota.

Creazione di un'istanza VM di deep learning PyTorch da Cloud Marketplace

Per creare un'istanza VM di deep learning PyTorch da Cloud Marketplace, completa i seguenti passaggi:

  1. Vai alla pagina di Cloud Marketplace per Deep Learning VM in la console Google Cloud.

    Vai alla pagina Cloud Marketplace della VM per il deep learning

  2. Fai clic su Inizia.

  3. Inserisci un nome deployment, che sarà la radice del nome della VM. Compute Engine aggiunge -vm a questo nome quando assegni un nome all'istanza.

  4. Seleziona una Zona.

  5. In Tipo di macchina, seleziona le specifiche che per la tua VM. Scopri di più sui tipi di macchine.

  6. In GPU, seleziona il tipo di GPU e il numero di GPU. Se non vuoi usare GPU, fai clic sul pulsante Elimina GPU e vai al passaggio 7. Scopri di più sulle GPU.

    1. Seleziona un tipo di GPU. Non tutti i tipi di GPU sono disponibili in tutte le zone. Trova una combinazione supportata.
    2. Seleziona il Numero di GPU. Ogni GPU supporta un numero diverso di GPU. Trova una combinazione supportata.
  7. In Framework, seleziona PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).

  8. Se utilizzi GPU, è necessario un driver NVIDIA. Puoi installare il driver o seleziona Installa automaticamente il driver GPU NVIDIA alla prima avvio.

  9. Hai la possibilità di selezionare Abilita l'accesso a JupyterLab tramite URL anziché SSH (beta). L'attivazione di questa funzione beta ti consente accedi a JupyterLab utilizzando un URL. Chiunque abbia il ruolo di Editor o Proprietario nel tuo Il progetto Google Cloud può accedere a questo URL. Al momento, questa funzionalità funziona solo negli Stati Uniti, nell'Unione Europea e in Asia.

  10. Seleziona un tipo di disco di avvio e le dimensioni del disco di avvio.

  11. Seleziona le impostazioni di rete che preferisci.

  12. Fai clic su Esegui il deployment.

Se scegli di installare i driver NVIDIA, attendi 3-5 minuti per l'installazione per completare l'operazione.

Dopo il deployment della VM, la pagina viene aggiornata con le istruzioni per accedere all'istanza.

Creazione di un'istanza VM PyTorch Deep Learning dalla riga di comando

Utilizzare Google Cloud CLI per creare una nuova Deep Learning VM devi prima installare e inizializzare Google Cloud CLI:

  1. Scarica e installa Google Cloud CLI seguendo le istruzioni riportate in Installazione di Google Cloud CLI.
  2. Inizializza l'SDK seguendo le istruzioni riportate in Inizializza Cloud SDK.

Per utilizzare gcloud in Cloud Shell, attiva prima Cloud Shell tramite istruzioni fornite in Avvio di Cloud Shell.

Senza GPU

Per creare un'istanza VM di deep learning con la famiglia di immagini PyTorch più recente e una CPU, inserisci quanto segue nella riga di comando:

export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Opzioni:

  • --image-family deve essere pytorch-latest-cpu o pytorch-VERSION-cpu (ad es. pytorch-1-13-cpu).

  • --image-project deve essere deeplearning-platform-release.

Con una o più GPU

Compute Engine offre la possibilità di aggiungere una o più GPU alle tue istanze di macchine virtuali. Le GPU offrono un'elaborazione più rapida per molte attività complesse di dati e machine learning. Per ulteriori informazioni sulle GPU, consulta GPU on Compute Engine.

Per creare un'istanza VM di deep learning con il la più recente famiglia di immagini PyTorch e una o più GPU collegate, inserisci quanto segue nella riga di comando:

export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Opzioni:

  • --image-family deve essere pytorch-latest-gpu o pytorch-VERSION-CUDA-VERSION (ad es. pytorch-1-10-cu110).

  • --image-project deve essere deeplearning-platform-release.

  • --maintenance-policy deve essere TERMINATE. Per saperne di più, vedi Restrizioni delle GPU.

  • --accelerator specifica il tipo di GPU da utilizzare. Deve essere specificato nel formato --accelerator="type=TYPE,count=COUNT". Ad esempio: --accelerator="type=nvidia-tesla-p100,count=2". Guarda i modelli di GPU tavola per un elenco dei tipi e dei conteggi di GPU disponibili.

    Non tutti i tipi di GPU sono supportati in tutte le regioni. Per maggiori dettagli, vedi Disponibilità di regioni e zone GPU.

  • --metadata viene utilizzato per specificare che il driver NVIDIA deve essere installato per tuo conto. Il valore è install-nvidia-driver=True. Se specificato, Compute Engine carica il driver stabile più recente al primo avvio ed esegue i passaggi necessari (incluso un riavvio finale per attivare il driver).

Se hai scelto di installare i driver NVIDIA, attendi 3-5 minuti per l'installazione per completare l'operazione.

Potrebbero essere necessari fino a 5 minuti prima che il provisioning della VM venga completato. In questo non sarà possibile utilizzare SSH per accedere alla macchina. Quando viene eseguita l'installazione per assicurarti che l'installazione del driver sia andata a buon fine, puoi Accedi tramite SSH ed esegui nvidia-smi.

Dopo aver configurato l'immagine, puoi salvare uno snapshot in modo da poter avviare le istanze derivate senza dover attendere l'installazione del driver.

Creazione di un'istanza prerilasciabile

Puoi creare un'istanza VM di Deep Learning prerilasciabile. Un elemento prerilasciabile è un'istanza che puoi creare ed eseguire a un prezzo di molto inferiore rispetto a normali. Tuttavia, Compute Engine potrebbe arrestare (prerilasciare) questi se richiede l'accesso a queste risorse per altre attività. Le istanze prerilasciabili si arrestano sempre dopo 24 ore. Per scoprire di più su prerilasciabili, consulta VM prerilasciabili Istanze.

Per creare un'istanza VM di Deep Learning prerilasciabile:

  • Segui le istruzioni riportate sopra per creare una nuova istanza utilizzando il metodo dall'interfaccia a riga di comando. Al comando gcloud compute instances create, aggiungi quanto segue:

      --preemptible

Passaggi successivi

Per istruzioni sulla connessione alla nuova istanza Deep Learning VM tramite la console Google Cloud o la riga di comando, consulta Connessione a Istanze. Il nome dell'istanza è il nome del deployment specificato con l'aggiunta di -vm.