Creazione di un'istanza utilizzando un container personalizzato
Questa pagina descrive come creare un'istanza di Vertex AI Workbench basata su un contenitore personalizzato.
Panoramica
Le istanze Vertex AI Workbench supportano l'utilizzo di un contenitore personalizzato derivato da un contenitore di base fornito da Google. Puoi modificare questo contenitore di base per creare un'immagine contenitore personalizzata e utilizzare questo contenitore personalizzato per creare un'istanza di Vertex AI Workbench.
Il contenitore di base è configurato con un sistema operativo ottimizzato per i container nella macchina virtuale (VM) di destinazione. Il contenitore di base fornisce pacchetti di data science preinstallati e configurazioni specifiche che consentono all'istanza di integrarsi con Google Cloud.
Il contenitore di base si trova in
gcr.io/deeplearning-platform-release/workbench-container:latest
.
Limitazioni
Tieni presenti le seguenti limitazioni quando pianifichi il tuo progetto:
Il contenitore personalizzato deve essere derivato dal contenitore di base fornito da Google (
gcr.io/deeplearning-platform-release/workbench-container:latest
). L'utilizzo di un contenitore non derivato dal contenitore di base aumenta il rischio di problemi di compatibilità e limita la nostra capacità di supportare l'utilizzo delle istanze di Vertex AI Workbench.L'utilizzo di più di un contenitore con un'istanza di Vertex AI Workbench non è supportato.
I metadati supportati per i container personalizzati dei notebook gestiti dall'utente e dei notebook gestiti possono avere un comportamento diverso se utilizzati con le istanze di Vertex AI Workbench.
La VM che ospita il contenitore personalizzato è in esecuzione su un sistema operativo ottimizzato per i container, che limita le modalità di interazione con la macchina host. Ad esempio, Container-Optimized OS non include un gestore dei pacchetti. Ciò significa che i pacchetti che agiscono sull'host devono essere eseguiti su un contenitore con i mount. Ciò influisce sugli script di post-avvio di cui viene eseguita la migrazione da istanze di notebook gestite e da istanze di notebook gestite dall'utente, in cui la macchina host contiene molti più strumenti rispetto a Container-Optimized OS.
Le istanze Vertex AI Workbench utilizzano
nerdctl
(una CLI di containerd) per eseguire il container personalizzato. Questo passaggio è obbligatorio per la compatibilità con il servizio di streaming di immagini. Tutti i parametri del contenitore aggiunti utilizzando un valore dei metadati devono rispettare quanto supportato danerdctl
.Le istanze di Vertex AI Workbench sono configurate per estrarre i componenti da Artifact Registry o da un repository di contenitori pubblico. Per configurare un'istanza in modo che esegua il pull da un repository privato, devi configurare manualmente le credenziali utilizzate da containerd.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Notebooks API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Notebooks API.
Ruoli obbligatori
Per ottenere le autorizzazioni necessarie per creare un'istanza di Vertex AI Workbench con un contenitore personalizzato, chiedi all'amministratore di concederti i seguenti ruoli IAM:
-
Notebooks Runner (
roles/notebooks.runner
) nell'account utente -
Per eseguire il pull delle immagini dal repository Artifact Registry:
Artifact Registry Reader (
roles/artifactregistry.reader
) nell'account di servizio
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
Potresti anche riuscire a ottenere le autorizzazioni richieste tramite i ruoli personalizzati o altri ruoli predefiniti.
Creazione di un container personalizzato
Per creare un contenitore personalizzato da utilizzare con le istanze di Vertex AI Workbench:
Crea un container derivato dall'immagine container di base fornita da Google (
gcr.io/deeplearning-platform-release/workbench-container:latest
).Crea ed esegui il push del container in Artifact Registry. Utilizzerai l'URI del contenitore quando crei l'istanza di Vertex AI Workbench. Ad esempio, l'URI potrebbe avere il seguente aspetto:
gcr.io/PROJECT_ID/IMAGE_NAME
.
Crea l'istanza
Puoi creare un'istanza di Vertex AI Workbench basata su un container personalizzato utilizzando la console Google Cloud o Google Cloud CLI.
Console
Per creare un'istanza di Vertex AI Workbench basata su un contenitore personalizzato, procedi nel seguente modo:
Nella console Google Cloud, vai alla pagina Istanze.
Fai clic su
Crea nuova.Nella finestra di dialogo Nuova istanza, fai clic su Opzioni avanzate.
Nella finestra di dialogo Crea istanza, nella sezione Ambiente, seleziona Utilizza contenitore personalizzato.
Per Immagine container Docker, fai clic su Seleziona.
Nella finestra di dialogo Seleziona immagine container, vai all'immagine del container che vuoi utilizzare e fai clic su Seleziona.
Facoltativo. In Script post-avvio, inserisci il percorso di uno script post-avvio che vuoi utilizzare.
Facoltativo. Aggiungi i metadati per l'istanza. Per scoprire di più, consulta Metadati dei contenitori personalizzati.
Facoltativo. Nella sezione Rete, personalizza le impostazioni di rete. Per saperne di più, consulta Opzioni di configurazione di rete.
Completa la parte rimanente della finestra di dialogo di creazione dell'istanza e poi fai clic su Crea.
Vertex AI Workbench crea un'istanza e la avvia automaticamente. Quando l'istanza è pronta per l'uso, Vertex AI Workbench attiva un link Apri JupyterLab.
gcloud
Prima di utilizzare i dati dei comandi riportati di seguito, effettua le seguenti sostituzioni:
-
INSTANCE_NAME
: il nome dell'istanza di Vertex AI Workbench; deve iniziare con una lettera seguita da un massimo di 62 lettere minuscole, numeri o trattini (-) e non può terminare con un trattino PROJECT_ID
: il tuo ID progettoLOCATION
: la zona in cui vuoi che si trovi l'istanza-
CUSTOM_CONTAINER_PATH
: il percorso del repository delle immagini container, ad esempio:gcr.io/PROJECT_ID/IMAGE_NAME
-
METADATA
: metadati personalizzati da applicare a questa istanza. Ad esempio, per specificare uno script post-avvio, puoi utilizzare il tag metadatipost-startup-script
nel formato:"--metadata=post-startup-script=gs://BUCKET_NAME/hello.sh"
Esegui il seguente comando:
Linux, macOS o Cloud Shell
gcloud workbench instances create INSTANCE_NAME \ --project=PROJECT_ID \ --location=LOCATION \ --container-repository=CUSTOM_CONTAINER_URL \ --container-tag=latest \ --metadata=METADATA
Windows (PowerShell)
gcloud workbench instances create INSTANCE_NAME ` --project=PROJECT_ID ` --location=LOCATION ` --container-repository=CUSTOM_CONTAINER_URL ` --container-tag=latest ` --metadata=METADATA
Windows (cmd.exe)
gcloud workbench instances create INSTANCE_NAME ^ --project=PROJECT_ID ^ --location=LOCATION ^ --container-repository=CUSTOM_CONTAINER_URL ^ --container-tag=latest ^ --metadata=METADATA
Per ulteriori informazioni sul comando per la creazione di un'istanza dalla riga di comando, consulta la documentazione della riga di comando gcloud.
Vertex AI Workbench crea un'istanza e la avvia automaticamente. Quando l'istanza è pronta per l'uso, Vertex AI Workbench attiva un link Apri JupyterLab nella console Google Cloud.
Opzioni di configurazione di rete
Oltre alle opzioni di rete generali, un'istanza di Vertex AI Workbench con un contenitore personalizzato deve avere accesso al servizio Artifact Registry.
Se hai disattivato l'accesso tramite IP pubblico per la tua VPC, assicurati di aver attivato l'accesso privato Google.
Attivare il flusso di immagini
L'host del contenitore personalizzato viene eseguito il provisioning per interagire con il flusso di immagini in Google Kubernetes Engine (GKE), che estrae i contenitori più velocemente e riduce i tempi di inizializzazione per i contenitori di grandi dimensioni una volta memorizzati nella cache nel file system remoto GKE.
Per visualizzare i requisiti per attivare lo streaming di immagini, consulta Requisiti. Spesso, lo streaming di immagini può essere utilizzato con le istanze di Vertex AI Workbench attivando l'API Container File System.
Attivare l'API Container File System
Esempio di installazione: contenitore personalizzato con un kernel predefinito personalizzato
L'esempio seguente mostra come creare un nuovo kernel con un pacchetto pip preinstallato.
Crea un nuovo contenitore personalizzato:
FROM us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:latest ENV MAMBA_ROOT_PREFIX=/opt/micromamba RUN micromamba create -n ENVIRONMENT_NAME -c conda-forge python=PYTHON_VERSION -y SHELL ["micromamba", "run", "-n", "ENVIRONMENT_NAME", "/bin/bash", "-c"] RUN micromamba install -c conda-forge pip -y RUN pip install PACKAGE RUN pip install ipykernel RUN python -m ipykernel install --prefix /opt/micromamba/envs/ENVIRONMENT_NAME --name ENVIRONMENT_NAME --display-name KERNEL_NAME # Creation of a micromamba kernel automatically creates a python3 kernel # that must be removed if it's in conflict with the new kernel. RUN rm -rf "/opt/micromamba/envs/ENVIRONMENT_NAME/share/jupyter/kernels/python3
Aggiungi il nuovo contenitore ad Artifact Registry:
gcloud auth configure-docker REGION-docker.pkg.dev docker build -t REGION-docker.pkg.dev/PROJECT_ID/REPOSITORY_NAME/IMAGE_NAME . docker push REGION-docker.pkg.dev/PROJECT_ID/REPOSITORY_NAME/IMAGE_NAME:latest
Crea un'istanza:
gcloud workbench instances create INSTANCE_NAME \ --project=PROJECT_ID \ --location=ZONE \ --container-repository=REGION-docker.pkg.dev/PROJECT_ID/IMAGE_NAME \ --container-tag=latest
Kernel permanenti per i container personalizzati
I contenitori personalizzati di Vertex AI Workbench montano un disco di dati solo nella directory /home/USER
all'interno di ogni contenitore, dove jupyter
è l'utente predefinito. Ciò significa che qualsiasi modifica al di fuori di /home/USER
è effimera e non verrà mantenuta dopo un riavvio. Se hai bisogno che i pacchetti installati rimangano per un kernel specifico, puoi creare un kernel nella directory /home/USER
.
Per creare un kernel nella directory /home/USER
:
Crea un ambiente micromamba:
micromamba create -p /home/jupyter/ENVIRONMENT_NAME -c conda-forge python=3.11 -y micromamba activate ENVIRONMENT_NAME pip install ipykernel pip install -r ~/requirement.txt python -m ipykernel install --prefix "/home/jupyter/ENVIRONMENT_NAME" --display-name "Example Kernel"
Attendi da 30 secondi a 1 minuto per l'aggiornamento dei kernel.
Aggiornamento dell'avvio del contenitore di base
Il contenitore di base per un'istanza di Vertex AI Workbench
(us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:latest
)
avvia JupyterLab eseguendo /run_jupyter.sh
.
Se modifichi l'avvio del contenitore in un contenitore derivato, devi aggiungere /run_jupyter.sh
per eseguire la configurazione predefinita di JupyterLab.
Di seguito è riportato un esempio di come potrebbe essere modificato il Dockerfile:
# DockerFile FROM us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:latest # Override the existing CMD directive from the base container. CMD ["/startup_file.sh"]
# /startup_file.sh
echo "Running startup scripts"
...
/run_jupyter.sh
Aggiornamento della configurazione di JupyterLab all'interno del contenitore di base
Se devi modificare la configurazione di JupyterLab nel contenitore di base, devi procedere nel seguente modo:
Assicurati che JupyterLab sia configurato per la porta 8080. Il nostro agente proxy è configurato per inoltrare qualsiasi richiesta alla porta 8080 e se il server Jupyter non ascolta la porta corretta, l'istanza riscontra problemi di provisioning.
Modifica i pacchetti JupyterLab nell'ambiente
jupyterlab
micromamba. Forniamo un ambiente del pacchetto separato per eseguire JupyterLab e il relativo plug-in per assicurarci che non ci siano conflitti di dipendenza con l'ambiente del kernel. Se vuoi installare un'estensione JupyterLab aggiuntiva, devi installarla nell'ambientejupyterlab
. Ad esempio:# DockerFile FROM us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:latest RUN micromamba activate jupyterlab && \ jupyter nbextension install nbdime
Metadati del contenitore personalizzato
Oltre all'elenco standard di metadati che può essere applicato a un'istanza di Vertex AI Workbench, le istanze con contenuti personalizzati includono i seguenti metadati per la gestione della instanziazione del contenitore del payload:
Funzionalità | Descrizione | Chiave dei metadati | Valori accettati e valori predefiniti |
---|---|---|---|
Consente di attivare Cloud Storage FUSE in un'immagine container |
Monta |
container-allow-fuse |
|
Parametri di esecuzione del contenitore aggiuntivi |
Aggiunge parametri del contenitore aggiuntivi a |
container-custom-params |
Una stringa di parametri di esecuzione del contenitore. Esempio:
|
Flag aggiuntivi per l'ambiente del contenitore |
Memorizza le variabili di ambiente in un flag in |
container-env-file |
Una stringa di variabili di ambiente del contenitore. Esempio:
|
URI del contenitore del payload |
Il payload del contenitore personalizzato con JupyterLab che viene caricato nell'istanza di Vertex AI Workbench. |
custom-container-payload |
Una stringa URI. Esempio:
|
Eseguire l'upgrade di un container personalizzato
Se il contenitore personalizzato deve essere aggiornato, puoi farlo aggiornando il valore del metadato custom-container-payload
con il nuovo URI del contenitore. Ogni riavvio del contenitore tenta di estrarlo dall'URI memorizzato in custom-container-payload
.
Se utilizzi il tag :latest
, il contenitore di base viene aggiornato a ogni riavvio. Vedi il seguente esempio:
custom-container-payload = us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:latest
Per evitare di aggiornare il contenitore di base, puoi specificare la versione. Vedi l'esempio seguente:
custom-container-payload = us-docker.pkg.dev/deeplearning-platform-release/gcr.io/workbench-container:20240920-2200-rc0
Esegui lo strumento di diagnostica
Lo strumento di diagnostica controlla e verifica lo stato di vari servizi di Vertex AI Workbench. Per scoprire di più, consulta la sezione Attività svolte dallo strumento di diagnostica.
Quando crei un'istanza di Vertex AI Workbench utilizzando un contenitore personalizzato, lo strumento di diagnostica non è disponibile come script nell'ambiente host che gli utenti possono eseguire. Viene invece compilato in un file binario e caricato su un contenitore di runtime Google creato per eseguire servizi di diagnostica in un ambiente Container-Optimized OS. Consulta la panoramica di Container-Optimized OS.
Per eseguire lo strumento di diagnostica, svolgi i seguenti passaggi:
Utilizza SSH per connetterti all'istanza di Vertex AI Workbench.
Nel terminale SSH, esegui il seguente comando:
sudo docker exec diagnostic-service ./diagnostic_tool
Per visualizzare altre opzioni di comando, esegui il seguente comando:
sudo docker exec diagnostic-service ./diagnostic_tool --help
Per ulteriori informazioni sulle opzioni dello strumento di diagnostica, consulta la documentazione relativa allo stato di salute del monitoraggio.
Per eseguire lo strumento di diagnostica utilizzando l'API REST, consulta la documentazione dell'API REST.
Accedi all'istanza
Puoi accedere all'istanza tramite un URL proxy.
Dopo aver creato l'istanza e averla attivata, puoi ottenere l'URL del proxy utilizzando gcloud CLI.
Prima di utilizzare i dati dei comandi riportati di seguito, effettua le seguenti sostituzioni:
-
INSTANCE_NAME
: il nome dell'istanza Vertex AI Workbench PROJECT_ID
: il tuo ID progettoLOCATION
: la zona in cui si trova l'istanza
Esegui il seguente comando:
Linux, macOS o Cloud Shell
gcloud workbench instances describe INSTANCE_NAME \ --project=PROJECT_ID \ --location=LOCATION | grep proxy-url
Windows (PowerShell)
gcloud workbench instances describe INSTANCE_NAME ` --project=PROJECT_ID ` --location=LOCATION | grep proxy-url
Windows (cmd.exe)
gcloud workbench instances describe INSTANCE_NAME ^ --project=PROJECT_ID ^ --location=LOCATION | grep proxy-url
proxy-url: 7109d1b0d5f850f-dot-datalab-vm-staging.googleusercontent.com
Il comando describe
restituisce l'URL del proxy. Per accedere all'istanza, apri l'URL proxy in un browser web.
Per ulteriori informazioni sul comando per descrivere un'istanza dalla riga di comando, consulta la documentazione della riga di comando gcloud.