Per personalizzare il modo in cui Vertex AI pubblica le previsioni online del tuo
modello con addestramento personalizzato, puoi specificare un contenitore personalizzato anziché un contenitore predefinito quando crei una
risorsa Model
. Quando utilizzi un container personalizzato, Vertex AI esegue un
container Docker di tua scelta su ogni nodo di previsione.
Ti consigliamo di utilizzare un contenitore personalizzato per uno dei seguenti motivi:
- per generare previsioni da un modello ML addestrato utilizzando un framework non disponibile come container predefinito
- per pre-elaborare le richieste di previsione o post-elaborare le previsioni generate dal tuo modello
- per eseguire un server di previsione scritto nel linguaggio di programmazione che preferisci
- per installare le dipendenze che vuoi utilizzare per personalizzare la previsione
Questa guida descrive come creare un modello che utilizza un contenitore personalizzato. Non fornisce istruzioni dettagliate su come progettare e creare un'immagine container Docker.
Prepara un'immagine container
Per creare un Model
che utilizza un container personalizzato, devi fornire un'immagine container Docker come base del container. Questa immagine del contenitore deve soddisfare i requisiti descritti nella sezione Requisiti per i container personalizzati.
Se prevedi di utilizzare un'immagine contenitore esistente creata da una terza parte di cui ti fidi, potresti essere in grado di saltare una o entrambe le sezioni seguenti.
Crea un'immagine container
Progetta e crea un'immagine container Docker che soddisfi i requisiti delle immagini container.
Per conoscere le nozioni di base per progettare e creare un'immagine del contenitore Docker, consulta la guida introduttiva della documentazione di Docker.
Esegui il push dell'immagine del contenitore in Artifact Registry
Esegui il push dell'immagine container in un repository Artifact Registry.
Scopri come eseguire il push di un'immagine container in Artifact Registry.
Crea un Model
Per creare un Model
che utilizza un contenitore personalizzato, svolgi una delle seguenti operazioni:
Le sezioni seguenti mostrano come configurare i campi dell'API relativi ai contenitori personalizzati quando crei un Model
in uno di questi modi.
Campi dell'API relativi ai contenitori
Quando crei Model
, assicurati di configurare il campo containerSpec
con i dettagli del tuo contenitore personalizzato anziché con un contenitore predefinito.
Devi specificare un ModelContainerSpec
messaggio nel
campo Model.containerSpec
. In questo messaggio, puoi specificare i seguenti campi secondari:
imageUri
(obbligatorio)L'URI di Artifact Registry dell'immagine container.
Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-image-uri
per specificare questo campo.command
(facoltativo)Un array di un file eseguibile e degli argomenti per eseguire l'override dell'istruzione
ENTRYPOINT
del container. Per scoprire di più su come formattare questo campo e su come interagisce con il campoargs
, leggi la documentazione di riferimento dell'API perModelContainerSpec
.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-command
per specificare questo campo.args
(facoltativo)Un array di un file eseguibile e degli argomenti per eseguire l'override del valore
CMD
del contenitore. Per scoprire di più su come formattare questo campo e su come interagisce con il campocommand
, consulta la documentazione di riferimento dell'API perModelContainerSpec
.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-args
per specificare questo campo.ports
(facoltativo)Un array di porte. Vertex AI invia controlli di attività, controlli di integrità e richieste di previsione al tuo container sulla prima porta elencata o su
8080
per impostazione predefinita. La specifica di porte aggiuntive non ha alcun effetto.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-ports
per specificare questo campo.env
(facoltativo)Un array di variabili di ambiente a cui possono fare riferimento l'istruzione
ENTRYPOINT
del container, nonché i campicommand
eargs
. Per scoprire di più su come altri campi possono fare riferimento a queste variabili di ambiente, consulta il riferimento all'API perModelContainerSpec
.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-env-vars
per specificare questo campo.healthRoute
(facoltativo)Il percorso sul server HTTP del contenitore a cui vuoi che Vertex AI invii i controlli di integrità.
Se non specifichi questo campo, quando esegui il deployment di
Model
comeDeployedModel
in una risorsaEndpoint
, per impostazione predefinita viene utilizzato/v1/endpoints/ENDPOINT/deployedModels/DEPLOYED_MODEL
, dove ENDPOINT viene sostituito dall'ultimo segmento delEndpoint
'name
campo (dopoendpoints/
) e DEPLOYED_MODEL viene sostituito dalDeployedModel
'id
campo.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-health-route
per specificare questo campo.predictRoute
(facoltativo)Il percorso sul server HTTP del container a cui vuoi che Vertex AI inoltri le richieste di previsione.
Se non specifichi questo campo, quando esegui il deployment di
Model
comeDeployedModel
in una risorsaEndpoint
, per impostazione predefinita viene utilizzato/v1/endpoints/ENDPOINT/deployedModels/DEPLOYED_MODEL:predict
, dove ENDPOINT viene sostituito dall'ultimo segmento delname
Endpoint
(dopoendpoints/
) e DEPLOYED_MODEL viene sostituito dalDeployedModel
id
.Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-predict-route
per specificare questo campo.sharedMemorySizeMb
(facoltativo)La quantità di memoria VM da riservare in un volume di memoria condivisa per il modello in megabyte.
La memoria condivisa è un meccanismo di comunicazione interprocessuale (IPC) che consente a più processi di accedere e manipolare un blocco di memoria comune. La quantità di memoria condivisa necessaria, se presente, è un dettaglio di implementazione del contenitore e del modello. Per le linee guida, consulta la documentazione del server di modelli.
Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-shared-memory-size-mb
per specificare questo campo.startupProbe
(facoltativo)Specifiche del probe che controlla se l'applicazione del container è stata avviata.
Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-startup-probe-exec, --container-startup-probe-period-seconds, --container-startup-probe-timeout-seconds
per specificare questo campo.healthProbe
(facoltativo)Specifiche del probe che controlla se un container è pronto ad accettare il traffico.
Se utilizzi il comando
gcloud ai models upload
, puoi utilizzare il flag--container-health-probe-exec, --container-health-probe-period-seconds, --container-health-probe-timeout-seconds
per specificare questo campo.
Oltre alle variabili impostate nel campo Model.containerSpec.env
, Vertex AI imposta diverse altre variabili in base alla configurazione. Scopri di più su come utilizzare queste variabili di ambiente in questi campi e nell'istruzione ENTRYPOINT
del contenitore.
Esempi di importazione di modelli
Gli esempi riportati di seguito mostrano come specificare i campi dell'API relativi ai contenitori quando importi un modello.
gcloud
Nell'esempio seguente viene utilizzato il comando gcloud ai models upload
:
gcloud ai models upload \
--region=LOCATION \
--display-name=MODEL_NAME \
--container-image-uri=IMAGE_URI \
--container-command=COMMAND \
--container-args=ARGS \
--container-ports=PORTS \
--container-env-vars=ENV \
--container-health-route=HEALTH_ROUTE \
--container-predict-route=PREDICT_ROUTE \
--container-shared-memory-size-mb=SHARED_MEMORY_SIZE \
--container-startup-probe-exec=STARTUP_PROBE_EXEC \
--container-startup-probe-period-seconds=STARTUP_PROBE_PERIOD \
--container-startup-probe-timeout-seconds=STARTUP_PROBE_TIMEOUT \
--container-health-probe-exec=HEALTH_PROBE_EXEC \
--container-health-probe-period-seconds=HEALTH_PROBE_PERIOD \
--container-health-probe-timeout-seconds=HEALTH_PROBE_TIMEOUT \
--artifact-uri=PATH_TO_MODEL_ARTIFACT_DIRECTORY
Il flag --container-image-uri
è obbligatorio; tutti gli altri flag che iniziano con --container-
sono facoltativi. Per informazioni sui valori di questi campi, consulta la sezione precedente di questa guida.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Vertex AI.
Per autenticarti in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per autenticarti a Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Per ulteriori informazioni, consulta la guida all'importazione dei modelli.
Inviare richieste di previsione
Per inviare una richiesta di previsione online al tuo Model
, segui le istruzioni riportate in Generare previsioni da un modello con addestramento personalizzato:
la procedura è la stessa indipendentemente dall'utilizzo o meno di un contenitore personalizzato.
Scopri di più sui requisiti per le richieste e le risposte di previsione per i container personalizzati.
Passaggi successivi
- Per scoprire tutto ciò che devi considerare quando progetti un contenitore personalizzato da utilizzare con Vertex AI, leggi i Requisiti dei contenitori personalizzati.