Crea un'istanza TensorFlow Deep Learning VM

Questa pagina mostra come creare un'istanza di TensorFlow Deep Learning VM Images con TensorFlow e altri strumenti preinstallati. Puoi creare un'istanza TensorFlow da Cloud Marketplace all'interno della console Google Cloud o utilizzando la riga di comando.

Prima di iniziare

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  5. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  6. Se utilizzi GPU con la tua Deep Learning VM, consulta la pagina Quote per assicurarti di disporre di un numero sufficiente di GPU nel progetto. Se le GPU non sono elencate nella pagina delle quote o se hai bisogno di una quota GPU aggiuntiva, richiedi un aumento della quota.

Creazione di un'istanza TensorFlow Deep Learning VM da Cloud Marketplace

Per creare un'istanza TensorFlow Deep Learning VM da Cloud Marketplace, completa i seguenti passaggi:

  1. Vai alla pagina di Deep Learning VM Cloud Marketplace nella console Google Cloud.

    Vai alla pagina di Deep Learning VM Cloud Marketplace

  2. Fai clic su Launch .

  3. Inserisci un Nome deployment, che sarà la radice del nome della VM. Compute Engine aggiunge -vm a questo nome quando assegni un nome all'istanza.

  4. Seleziona una Zona.

  5. In Tipo di macchina, seleziona le specifiche che vuoi applicare alla tua VM. Scopri di più sui tipi di macchina.

  6. In GPU, seleziona il Tipo di GPU e il Numero di GPU. Se non vuoi utilizzare GPU, fai clic sul pulsante Elimina GPU e vai al passaggio 7. Scopri di più sulle GPU.

    1. Seleziona un tipo di GPU. Non tutti i tipi di GPU sono disponibili in tutte le zone. Trova una combinazione supportata.
    2. Seleziona il Numero di GPU. Ogni GPU supporta numeri diversi di GPU. Trova una combinazione supportata.
  7. In Framework, seleziona una delle versioni framework di TensorFlow.

  8. Se utilizzi GPU, è richiesto un driver NVIDIA. Puoi installare il driver autonomamente o selezionare Installa il driver GPU NVIDIA automaticamente al primo avvio.

  9. Puoi selezionare Abilita l'accesso a JupyterLab tramite URL anziché SSH (beta). L'abilitazione di questa funzionalità beta ti consente di accedere all'istanza JupyterLab utilizzando un URL. Tutti gli utenti con il ruolo Editor o Proprietario nel progetto Google Cloud possono accedere a questo URL. Al momento, questa funzionalità è disponibile solo negli Stati Uniti, nell'Unione Europea e in Asia.

  10. Seleziona un tipo di disco di avvio e una dimensione del disco di avvio.

  11. Seleziona le impostazioni di rete che preferisci.

  12. Fai clic su Esegui il deployment.

Se scegli di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.

Una volta eseguito il deployment della VM, la pagina viene aggiornata con le istruzioni per accedere all'istanza.

Creazione di un'istanza TensorFlow Deep Learning VM dalla riga di comando

Per utilizzare Google Cloud CLI per creare una nuova istanza Deep Learning VM, devi prima installare e inizializzare Google Cloud CLI:

  1. Scarica e installa Google Cloud CLI utilizzando le istruzioni fornite in Installazione di Google Cloud CLI.
  2. Inizializza l'SDK utilizzando le istruzioni fornite in Inizializzazione di Cloud SDK.

Per utilizzare gcloud in Cloud Shell, attiva prima Cloud Shell seguendo le istruzioni fornite in Avvio di Cloud Shell.

Puoi creare un'istanza TensorFlow con o senza GPU.

Senza GPU

Per eseguire il provisioning di un'istanza Deep Learning VM senza GPU:

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Opzioni:

  • --image-family deve essere uno dei seguenti:
  • --image-project deve essere deeplearning-platform-release.

Con una o più GPU

Compute Engine offre la possibilità di aggiungere una o più GPU alle tue istanze di macchine virtuali. Le GPU offrono un'elaborazione più rapida per molte attività complesse di dati e machine learning. Per scoprire di più sulle GPU, consulta GPU su Compute Engine.

Per eseguire il provisioning di un'istanza Deep Learning VM con una o più GPU:

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Opzioni:

  • --image-family deve essere uno dei seguenti:

  • --image-project deve essere deeplearning-platform-release.

  • --maintenance-policy deve essere TERMINATE. Per scoprire di più, consulta la sezione Restrizioni relative alle GPU.

  • --accelerator specifica il tipo di GPU da utilizzare. Deve essere specificato nel formato --accelerator="type=TYPE,count=COUNT". Ad esempio: --accelerator="type=nvidia-tesla-p100,count=2". Consulta la tabella dei modelli GPU per un elenco dei tipi e dei conteggi di GPU disponibili.

    Non tutti i tipi di GPU sono supportati in tutte le regioni. Per maggiori dettagli, consulta la pagina relativa alla disponibilità di regioni e zone delle GPU.

  • --metadata viene utilizzato per specificare che il driver NVIDIA deve essere installato per tuo conto. Il valore è install-nvidia-driver=True. Se specificato, Compute Engine carica il driver stabile più recente al primo avvio ed esegue i passaggi necessari (incluso un riavvio finale per l'attivazione del driver).

Se hai scelto di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.

Potrebbero essere necessari fino a 5 minuti prima che il provisioning della VM venga completato. In questo periodo, non potrai connetterti alla tua macchina tramite SSH. Al termine dell'installazione, per garantire che l'installazione del driver sia riuscita, puoi accedere tramite SSH ed eseguire nvidia-smi.

Una volta configurata l'immagine, puoi salvarne uno snapshot in modo da poter avviare le istanze di derivita senza dover attendere l'installazione del driver.

Informazioni su TensorFlow Enterprise

TensorFlow Enterprise è una distribuzione di TensorFlow ottimizzata per l'esecuzione su Google Cloud, che include l'assistenza per la versione a lungo termine.

Creazione di un'istanza prerilasciabile

Puoi creare un'istanza Deep Learning VM prerilasciabile. Un'istanza prerilasciabile è un'istanza che puoi creare ed eseguire a un prezzo di molto inferiore rispetto alle istanze normali. Tuttavia, Compute Engine potrebbe arrestare (prerilasciare) queste istanze se richiede l'accesso alle risorse per altre attività. Le istanze prerilasciabili vengono arrestate sempre dopo 24 ore. Per saperne di più sulle istanze prerilasciabili, consulta Istanze VM prerilasciabili.

Per creare un'istanza Deep Learning VM prerilasciabile:

  • Segui le istruzioni riportate sopra per creare una nuova istanza utilizzando la riga di comando. Al comando gcloud compute instances create, aggiungi quanto segue:

      --preemptible

Passaggi successivi

Per istruzioni sulla connessione alla nuova istanza Deep Learning VM tramite la console Google Cloud o la riga di comando, consulta Connessione alle istanze. Il nome dell'istanza è il Nome deployment che hai specificato con -vm aggiunto.