I job di addestramento personalizzato (CustomJob
risorse nell'API Vertex AI) sono la base
per eseguire il codice di addestramento
personalizzato di machine learning (ML) in Vertex AI.
Prima di inviare un job
Prima di creare un CustomJob
in Vertex AI, devi creare un
un'applicazione di addestramento Python o un'immagine container personalizzata per definire l'addestramento
e le dipendenze che vuoi eseguire su Vertex AI.
Ti consigliamo di utilizzare la funzionalità di confezionamento automatico di Google Cloud CLI,
descritto in una sezione successiva di questa guida, per creare un Docker
dell'immagine container dal codice sulla tua macchina locale, esegui il push di questa immagine container
Artifact Registry e creare un CustomJob
, il tutto con un unico comando.
In caso contrario, dovrai creare manualmente un'applicazione di addestramento Python o un un'immagine container personalizzata.
Se hai dubbi su quale di queste opzioni scegliere, fai riferimento alle requisiti del codice di addestramento per saperne di più.
Contenuto di un job personalizzato
Quando crei un job personalizzato, devi specificare le impostazioni configurate da Vertex AI per eseguire il codice di addestramento, tra cui:
- Un pool di worker per l'addestramento con un nodo singolo (
WorkerPoolSpec
) o più Pool di worker per l'addestramento distribuito - Impostazioni facoltative per la configurazione della pianificazione dei job (
Scheduling
), impostazione alcune variabili di ambiente per l'addestramento codice, utilizzando un modello account di servizio e utilizzando la rete VPC Peering
All'interno dei pool di worker, puoi specificare le impostazioni seguenti:
- Tipi di macchina e acceleratori
- Configurazione del tipo di codice di addestramento del pool di worker
: un'istanza di addestramento Python
(
PythonPackageSpec
) o un container personalizzato (ContainerSpec
)
Puoi anche configurare job personalizzati in modo che vengano eseguiti su una risorsa permanente anziché creando nuove risorse di computing durante l'avvio del job. Per scoprire di più su risorsa permanente, vedi Panoramica della risorsa permanente.
Configura l'addestramento distribuito
Puoi configurare un CustomJob
per l'addestramento distribuito specificando
in più pool di worker.
La maggior parte degli esempi in questa pagina mostra job di addestramento a replica singola con un worker piscina. Per modificarle per l'addestramento distribuito:
- Usa il tuo primo pool di worker per configurare la replica principale e impostare il conteggio delle repliche è pari a 1.
- Aggiungi altri pool di worker per configurare repliche dei worker, repliche dei server dei parametri o strumento di valutazione di repliche, se il framework di machine learning supporta questi cluster aggiuntivi per l'addestramento distribuito.
Scopri di più su utilizzando l'addestramento distribuito.
Crea un CustomJob
Per creare un CustomJob
, segui le istruzioni in una delle seguenti schede:
a seconda dello strumento che vuoi usare. Se usi gcloud CLI,
puoi usare un singolo comando per pacchettizzare automaticamente il codice di addestramento sulla tua macchina locale
in un'immagine container Docker, esegui il push dell'immagine container
Artifact Registry e creare un CustomJob
. Le altre opzioni presuppongono
ha già creato un'applicazione di addestramento Python o un'immagine container personalizzata.
gcloud
I seguenti esempi utilizzano la classe gcloud ai custom-jobs create
un comando kubectl.
Se il codice di addestramento si trova sul computer locale, ti consigliamo di seguire sezione Con autopackaging. In alternativa, se disponi hai già creato un'applicazione di addestramento Python o un'immagine container personalizzata, quindi passa alla sezione Senza autopackaging.
Con autopackaging
Se disponi del codice di addestramento sul computer locale, puoi utilizzare un singolo per effettuare le seguenti operazioni:
- Crea un'immagine Docker personalizzata basata sul tuo codice.
- Esegui il push dell'immagine in Artifact Registry.
- Avvia un
CustomJob
basato sull'immagine.
Il risultato è simile alla creazione di un CustomJob
utilizzando qualsiasi altro strumento
container; puoi usare questa versione del comando se preferisci
il tuo flusso di lavoro.
Prima di iniziare
Poiché questa versione del comando crea ed esegue il push di un'immagine Docker, devi eseguire la seguente configurazione sul computer locale:
Se utilizzi Linux, configura Docker in modo da poterlo eseguire senza
sudo
.Attiva l'API Container Registry.
Configura l'autenticazione per Docker, per poter eseguire il push delle immagini Docker in Artifact Registry:
gcloud auth configure-docker
Crea ed esegui il push dell'immagine Docker, quindi crea un CustomJob
Il comando seguente crea un'immagine Docker basata su un addestramento predefinito
dell'immagine container e del codice Python locale, esegue il push dell'immagine
Artifact Registry e crea un oggetto CustomJob
.
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,local-package-path=WORKING_DIRECTORY,script=SCRIPT_PATH
Sostituisci quanto segue:
LOCATION: la regione in cui verrà installato il container o il pacchetto Python vengono eseguiti tutti i test delle unità.
JOB_NAME: campo obbligatorio. Un nome visualizzato per
CustomJob
.MACHINE_TYPE: tipo di macchina. Consulta di tipi di macchine addestramento.
REPLICA_COUNT: il numero di repliche dei worker da utilizzare. Nella maggior parte dei casi, imposta questo valore su
1
per primo pool di worker.EXECUTOR_IMAGE_URI: l'URI dell'immagine container che viene eseguita il codice fornito. Consulta le di container predefiniti disponibili addestramento.
Questa immagine funge da immagine di base per la nuova immagine Docker che stai creando con questo comando.
WORKING_DIRECTORY: una directory nel file system locale contenente lo script del punto di ingresso che esegue il codice di addestramento (vedi il seguente elemento dell'elenco).
Puoi usare la directory principale dello script o una directory di livello superiore . Potresti voler usare una directory di livello superiore per specificare un nome completo di modulo Python (vedi il seguente elenco ). Potresti voler usare anche una directory di livello superiore se contiene un file
requirements.txt
osetup.py
. Per saperne di più, vedi Installa le dipendenze.Tieni presente che anche se specificare una directory di livello superiore, questo comando copia solo del tuo script del punto di ingresso all'immagine Docker.
SCRIPT_PATH: il percorso relativo a WORKING_DIRECTORY nel tuo file locale di addestramento, allo script che rappresenta il punto di ingresso del codice di addestramento. Può essere uno script Python (che termina con
.py
) o uno script Bash.Ad esempio, se vuoi eseguire
/hello-world/trainer/task.py
e WORKING_DIRECTORY è/hello-world
, poi usatrainer/task.py
per questo valore.Usa
python-module
anzichéscript
Facoltativamente, puoi sostituire
script=SCRIPT_PATH
conpython-module=PYTHON_MODULE
per specificare il nome di un Modulo Python in WORKING_DIRECTORY da eseguire come punto di ingresso per l'addestramento. Ad esempio, anzichéscript=trainer/task.py
, potresti specificarepython-module=trainer.task
.In questo caso, il container Docker risultante carica il codice come modulo piuttosto che come script. Ti consigliamo di utilizzare questa opzione se lo script del punto di ingresso importa altre Moduli Python in WORKING_DIRECTORY.
Installa le dipendenze
Quando utilizzi la pacchettizzazione automatica, puoi installare le dipendenze Python nel container
negli stessi modi disponibili quando usi
Comando local-run
. Scoprire i vari modi per installare Python
di dipendenze, leggi le
Installa le dipendenze
della guida al comando local-run
.
La sintassi per specificare le dipendenze è leggermente diversa quando utilizzi
la pacchettizzazione automatica rispetto a quando si usa il comando local-run
. Invece di
utilizzando i flag della riga di comando per specificare le dipendenze, devi utilizzare le opzioni
del flag --worker-pool-spec
. Inoltre, i valori all'interno di questi
devono essere separate da punto e virgola anziché da virgole. In particolare,
sintassi:
Anziché il flag
--local-package-path
del comandolocal-run
, usa il metodo Opzionelocal-package-path
nel valore del flag--worker-pool-spec
. Se la directory di lavoro specificata con questa opzione contiene Filerequirements.txt
osetup.py
, pacchettizzazione automatica delle dipendenze per le installazioni in base a questo file.L'esempio precedente mostra questa sintassi.
(Facoltativo) Anziché il flag
--requirements
, usa il flagrequirements
nel valore del flag--worker-pool-spec
. Invece di separare Per le dipendenze PyPI con virgole, utilizza il punto e virgola.(Facoltativo) Anziché il flag
--extra-packages
, usa il flagextra-packages
nel valore del flag--worker-pool-spec
. Invece di separare le dipendenze locali con virgole, usa il punto e virgola.(Facoltativo) Anziché il flag
--extra-dirs
, utilizza l'opzioneextra-dirs
nella il valore del flag--worker-pool-spec
. Invece di separare la directory percorsi con virgole, utilizza il punto e virgola.
L'esempio seguente mostra come installare le dipendenze utilizzando tutte le
tecniche facoltative. Puoi specificare qualsiasi sottoinsieme. Per dimostrare
la sintassi del punto e virgola, l'esempio specifica due valori per ciascuna opzione. Per ridurre
la lunghezza dell'esempio, le altre opzioni di --worker-pool-spec
vengono sostituite con
[...]
.
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=[...],requirements=PYPI_DEP_1;PYPI_DEP_2,extra-packages=LOCAL_DEP_1;LOCAL_DEP_2,extra-dirs=EXTRA_DIR_1;EXTRA_DIR_2
Per informazioni sui valori appropriati per questi segnaposto, consulta "Installa
dependencies" nella guida al comando local-run
.
Senza confezione automatica
Se non utilizzi la pacchettizzazione automatica, puoi creare un CustomJob
con un comando
in modo simile a uno dei seguenti. A seconda che tu abbia
creato un'applicazione di addestramento Python o un'immagine container personalizzata, scegli
una delle seguenti schede:
App di addestramento Python
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--python-package-uris=PYTHON_PACKAGE_URIS \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,python-module=PYTHON_MODULE
Sostituisci quanto segue:
- LOCATION: la regione in cui verrà installato il container o il pacchetto Python vengono eseguiti tutti i test delle unità.
-
JOB_NAME: campo obbligatorio. Un nome visualizzato per
CustomJob
. - PYTHON_PACKAGE_URIS: elenco separato da virgole di Cloud Storage URI che specificano i file del pacchetto Python, ovvero il programma di addestramento e dei pacchetti dipendenti. Il numero massimo di URI dei pacchetti è 100.
- MACHINE_TYPE: tipo di macchina. Consulta di tipi di macchine addestramento.
-
REPLICA_COUNT: il numero di repliche dei worker da utilizzare. Nella maggior parte dei casi,
imposta questo valore su
1
per primo pool di worker. - EXECUTOR_IMAGE_URI: l'URI dell'immagine container che viene eseguita il codice fornito. Consulta le di container predefiniti disponibili addestramento.
- PYTHON_MODULE: il nome del modulo Python da eseguire dopo l'installazione del pacchetti.
Immagine del container personalizzato
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,container-image-uri=CUSTOM_CONTAINER_IMAGE_URI
Sostituisci quanto segue:
- LOCATION: la regione in cui verrà installato il container o il pacchetto Python vengono eseguiti tutti i test delle unità.
-
JOB_NAME: campo obbligatorio. Un nome visualizzato per
CustomJob
. - MACHINE_TYPE: tipo di macchina. Consulta di tipi di macchine addestramento.
-
REPLICA_COUNT: il numero di repliche dei worker da utilizzare. Nella maggior parte dei casi,
imposta questo valore su
1
per primo pool di worker. - CUSTOM_CONTAINER_IMAGE_URI: l'URI di un'immagine container in Artifact Registry, Container Registry o Docker Hub da eseguire su ogni replica di worker.
Addestramento distribuito
Per eseguire l'addestramento distribuito, specifica
--worker-pool-spec
più volte, una per ogni pool di worker.
Se utilizzi la pacchettizzazione automatica, devi specificare solo local-package-path
,
script
e altre opzioni relative alla pacchettizzazione automatica nel primo pool di worker.
Ometti i campi relativi al codice di addestramento nei pool di worker successivi,
usano tutti lo stesso container di addestramento
creato dalla pacchettizzazione automatica.
Ad esempio, il comando seguente adatta un esempio precedente di autopackaging usa un secondo pool di worker:
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,local-package-path=WORKING_DIRECTORY,script=SCRIPT_PATH \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT
Se non utilizzi la pacchettizzazione automatica, specifica completamente ogni pool di worker e in modo indipendente; non omettere alcun campo.
I comandi seguenti adattano gli esempi precedenti per utilizzare un secondo pool di worker:
App di addestramento Python
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--python-package-uris=PYTHON_PACKAGE_URIS \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,python-module=PYTHON_MODULE \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT,executor-image-uri=SECOND_POOL_EXECUTOR_IMAGE_URI,python-module=SECOND_POOL_PYTHON_MODULE
Immagine del container personalizzato
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,container-image-uri=CUSTOM_CONTAINER_IMAGE_URI \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT,container-image-uri=SECOND_POOL_CUSTOM_CONTAINER_IMAGE_URI
Configurazione avanzata
Se vuoi specificare le opzioni di configurazione che non sono disponibili nel
esempi precedenti, puoi utilizzare il flag --config
per specificare il percorso di
config.yaml
nel tuo ambiente locale che contiene i campi di
CustomJobSpec
Ad esempio:
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--config=config.yaml
Guarda un esempio di config.yaml
un file YAML.
Console
Nella console Google Cloud, non puoi creare direttamente una risorsa CustomJob
.
Tuttavia, puoi creare una risorsa TrainingPipeline
che crea un'istanza
CustomJob
.
Le seguenti istruzioni descrivono come creare un elemento TrainingPipeline
che
crea un CustomJob
e non fa altro. Se vuoi utilizzare
altre funzionalità TrainingPipeline
, come l'addestramento con un set di dati gestito
sulla creazione di una risorsa Model
al termine dell'addestramento, leggi Creazione di una risorsa
di archiviazione dei dati.
Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Pipeline di addestramento.
Fai clic su
Crea per aprire il riquadro Addestra nuovo modello.Nel passaggio Metodo di addestramento, specifica le seguenti impostazioni:
Nell'elenco a discesa Set di dati, seleziona Nessuna del set di dati.
Seleziona Addestramento personalizzato (avanzato).
Fai clic su Continua.
Nel passaggio Dettagli modello, scegli Addestra nuovo modello o Addestra nuova versione. Se selezioni Addestra nuovo modello, inserisci un nome a tua scelta. MODEL_NAME per il tuo modello. Fai clic su Continua.
Nel passaggio Container di addestramento, specifica le seguenti impostazioni:
Scegli se utilizzare un container predefinito o un container personalizzato container per l'addestramento.
A seconda della tua scelta, esegui una delle seguenti operazioni:
Se vuoi usare un container predefinito per l'addestramento, Vertex AI con le informazioni necessarie per utilizzare l'addestramento caricato su Cloud Storage:
Utilizza il framework modello e la versione del framework modello elenchi a discesa per specificare la container che vuoi per gli utilizzi odierni.
Nel campo Posizione pacchetto, specifica la URI Cloud Storage dell'applicazione di addestramento Python che che hai creato caricato. Questo di solito termina con
.tar.gz
.Nel campo del modulo Python, inserisci il nome del modulo del tuo voce dell'applicazione di addestramento punto di accesso.
Se vuoi utilizzare un container personalizzato addestramento, quindi Campo Immagine container, specifica Artifact Registry o l'URI Docker Hub dell'immagine container.
Nel campo Directory di output del modello, potresti specificare l'URI Cloud Storage di una directory in al bucket a cui hai accesso. Non è necessario che la directory esista ancora.
Questo valore viene passato a Vertex AI nella API
baseOutputDirectory
, che imposta diverse variabili di ambiente a cui l'applicazione di addestramento può accedere durante l'esecuzione.Facoltativo: nel campo Argomenti puoi specificare gli argomenti per Vertex AI da utilizzare quando inizia a eseguire il codice di addestramento. La lunghezza massima di tutti gli argomenti combinati è di 100.000 caratteri. Il comportamento di questi argomenti varia a seconda del tipo di container che stai utilizzando:
Se utilizzi un container predefinito, Vertex AI passa gli argomenti come flag della riga di comando al tuo modulo Python.
Se utilizzi un container personalizzato, Vertex AI sostituisce l'istruzione
CMD
del contenitore con il argomenti.
Fai clic su Continua.
Nel passaggio Ottimizzazione degli iperparametri, assicurati che la casella Attiva La casella di controllo Ottimizzazione degli iperparametri non è selezionata. Clic Continua.
Nel passaggio Compute e prezzi, specifica le seguenti impostazioni:
Nell'elenco a discesa Regione, seleziona una "regione che supporta di addestramento"
Nella sezione Pool di worker 0, specifica compute risorse da usare per la formazione.
Se specifichi gli acceleratori, assicurati che il tipo di acceleratore inserito scegli è disponibile nel regione.
Se desideri eseguire attività distribuite addestramento, quindi fai clic su Aggiungi altro nei pool di worker e specificare un set aggiuntivo di risorse di computing per ogni pool di worker aggiuntivo desiderato.
Fai clic su Continua.
Nel passaggio Container di previsione, seleziona Nessuna previsione container.
Fai clic su Avvia addestramento per avviare la pipeline di addestramento personalizzato.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la regione in cui verrà installato il container o il pacchetto Python vengono eseguiti tutti i test delle unità.
- PROJECT_ID: il tuo ID progetto.
-
JOB_NAME: campo obbligatorio. Un nome visualizzato per
CustomJob
. - Definisci il job di addestramento personalizzato:
- MACHINE_TYPE: tipo di macchina. Consulta di tipi di macchine addestramento.
- ACCELERATOR_TYPE: (facoltativo) Il tipo di acceleratore da collegare al job.
- ACCELERATOR_COUNT: (facoltativo) Il numero di acceleratori da collegare al job.
- DISK_TYPE: (facoltativo) Il tipo di disco di avvio da utilizzare per il job, ovvero
pd-standard
(valore predefinito) opd-ssd
. Scopri di più sui tipi di disco. - DISK_SIZE: (facoltativo) La dimensione in GB del disco di avvio da utilizzare per il job. La il valore predefinito è 100.
-
REPLICA_COUNT: il numero di repliche dei worker da utilizzare. Nella maggior parte dei casi,
imposta questo valore su
1
per primo pool di worker. - Se l'applicazione di addestramento viene eseguita in un container personalizzato, specifica quanto segue:
- CUSTOM_CONTAINER_IMAGE_URI: l'URI di un'immagine container in Artifact Registry, Container Registry o Docker Hub da eseguire su ogni replica di worker.
- CUSTOM_CONTAINER_COMMAND: (facoltativo) Il comando da richiamare quando il container in esecuzione. Questo comando esegue l'override dell'entry point predefinito del container.
- CUSTOM_CONTAINER_ARGS: (facoltativo) Gli argomenti da passare quando avviando il container.
- Se l'applicazione di addestramento è un pacchetto Python eseguito in un container predefinito,
specificare quanto segue:
- EXECUTOR_IMAGE_URI: l'URI dell'immagine container che viene eseguita il codice fornito. Consulta le di container predefiniti disponibili addestramento.
- PYTHON_PACKAGE_URIS: elenco separato da virgole di Cloud Storage URI che specificano i file del pacchetto Python, ovvero il programma di addestramento e dei pacchetti dipendenti. Il numero massimo di URI dei pacchetti è 100.
- PYTHON_MODULE: il nome del modulo Python da eseguire dopo l'installazione del pacchetti.
- PYTHON_PACKAGE_ARGS: (facoltativo) Argomenti della riga di comando da passare il modulo Python.
- Scopri di più sulle opzioni di pianificazione dei job.
- TIMEOUT: (facoltativo) Il tempo di esecuzione massimo per il job.
- Specifica LABEL_NAME e LABEL_VALUE per tutte le etichette che vuoi applicabili a questo job personalizzato.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs
Corpo JSON della richiesta:
{ "displayName": "JOB_NAME", "jobSpec": { "workerPoolSpecs": [ { "machineSpec": { "machineType": MACHINE_TYPE, "acceleratorType": ACCELERATOR_TYPE, "acceleratorCount": ACCELERATOR_COUNT }, "replicaCount": REPLICA_COUNT, "diskSpec": { "bootDiskType": DISK_TYPE, "bootDiskSizeGb": DISK_SIZE }, // Union field task can be only one of the following: "containerSpec": { "imageUri": CUSTOM_CONTAINER_IMAGE_URI, "command": [ CUSTOM_CONTAINER_COMMAND ], "args": [ CUSTOM_CONTAINER_ARGS ] }, "pythonPackageSpec": { "executorImageUri": EXECUTOR_IMAGE_URI, "packageUris": [ PYTHON_PACKAGE_URIS ], "pythonModule": PYTHON_MODULE, "args": [ PYTHON_PACKAGE_ARGS ] } // End of list of possible types for union field task. } // Specify one workerPoolSpec for single replica training, or multiple workerPoolSpecs // for distributed training. ], "scheduling": { "timeout": TIMEOUT } }, "labels": { LABEL_NAME_1": LABEL_VALUE_1, LABEL_NAME_2": LABEL_VALUE_2 } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla TRAININGPIPELINE_ID.
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Node.js Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Passaggi successivi
- Scopri come individuare i colli di bottiglia delle prestazioni di addestramento per addestrare più velocemente i modelli e meno costoso utilizzando Cloud Profiler.
- Consulta Creare pipeline di addestramento per scopri come creare pipeline di addestramento per eseguire applicazioni di addestramento personalizzato Vertex AI.