Addestra un modello ML con scikit-learn e XGBoost
Il servizio AI Platform Training gestisce le risorse di calcolo nel cloud per addestrare i tuoi modelli. In questa pagina viene descritto il processo per addestrare un modello con scikit-learn e XGBoost utilizzando AI Platform Training.
Panoramica
In questo tutorial imparerai ad addestrare un modello semplice per prevedere le specie di fiori utilizzando il set di dati Iris. Dopo aver modificato il codice di addestramento del modello per scaricare i dati da Cloud Storage e caricare il file del modello salvato su Cloud Storage, crei un pacchetto di applicazioni di addestramento e lo utilizzi per eseguire l'addestramento su AI Platform Training.
Come addestrare il tuo modello su AI Platform Training
Dopo aver completato il processo di configurazione iniziale, puoi addestrare il tuo modello su AI Platform Training in tre passaggi:
- Crea il tuo modulo di formazione Python.
- Aggiungi codice per scaricare i dati da Cloud Storage in modo che AI Platform Training possa utilizzarlo
- Aggiungi codice per esportare e salvare il modello in Cloud Storage dopo che AI Platform Training ha terminato
- prepara un pacchetto di applicazioni di addestramento
- invia il job di addestramento
Il processo di configurazione iniziale include la creazione di un progetto Google Cloud, l'abilitazione della fatturazione e delle API, la configurazione di un bucket Cloud Storage da utilizzare con AI Platform Training e l'installazione di scikit-learn o XGBoost in locale. Se hai già configurato e installato tutto, passa alla sezione Creazione del codice di addestramento del modello.
Prima di iniziare
Completa i seguenti passaggi per configurare un account Google Cloud, attivare l'API AI Platform Training e installare e attivare Cloud SDK.
Configura il progetto Google Cloud
- Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API AI Platform Training & Prediction and Compute Engine.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API AI Platform Training & Prediction and Compute Engine.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
configura l'ambiente
Scegli una delle opzioni seguenti per configurare il tuo ambiente localmente su macOS o in un ambiente remoto su Cloud Shell.
Per gli utenti di macOS, consigliamo di configurare l'ambiente utilizzando la scheda MACOS riportata di seguito. Cloud Shell, mostrato nella scheda CLOUD SHELL, è disponibile su macOS, Linux e Windows. Cloud Shell offre un modo rapido per provare AI Platform Training, ma non è adatto per il lavoro di sviluppo continuo.
macOS
-
Controlla l'installazione di Python
Assicurati di aver installato Python e, se necessario, installalo.python -V
-
Controlla l'installazione di
pip
pip
è il gestore di pacchetti di Python, incluso nelle versioni attuali di Python. Verifica sepip
è già installato eseguendopip --version
. In caso contrario, scopri come installarepip
.Puoi eseguire l'upgrade di
pip
utilizzando il seguente comando:pip install -U pip
Per ulteriori dettagli, consulta la documentazione pip.
-
Installa
virtualenv
virtualenv
è uno strumento per creare ambienti Python isolati. Controlla sevirtualenv
è già installato eseguendovirtualenv --version
. In caso contrario, installavirtualenv
:pip install --user --upgrade virtualenv
Per creare un ambiente di sviluppo isolato per questa guida, crea un nuovo ambiente virtuale in
virtualenv
. Ad esempio, il comando seguente attiva un ambiente denominatoaip-env
:virtualenv aip-env source aip-env/bin/activate
-
Ai fini di questo tutorial, esegui gli altri comandi all'interno del tuo ambiente virtuale.
Leggi ulteriori informazioni sull'utilizzo divirtualenv
. Per uscire davirtualenv
, eseguideactivate
.
Cloud Shell
-
Apri la console Google Cloud.
-
Fai clic sul pulsante Attiva Google Cloud Shell nella parte superiore della finestra della console.
All'interno di un nuovo frame nella parte inferiore della console si apre una sessione di Cloud Shell e viene visualizzato un prompt della riga di comando. L'inizializzazione della sessione della shell può richiedere alcuni secondi.
La sessione Cloud Shell è pronta per l'uso.
-
Configura lo strumento a riga di comando
gcloud
per utilizzare il progetto selezionato.gcloud config set project [selected-project-id]
dove
[selected-project-id]
è l'ID progetto. (Ometti le parentesi che lo contengono.)
Installa framework
macOS
All'interno del tuo ambiente virtuale, esegui questo comando per installare le versioni di scikit-learn, XGBoost e pandas utilizzate nella versione 2.11 di AI Platform Training:
(aip-env)$ pip install scikit-learn==1.0.2 xgboost==1.6.2 pandas==1.3.5
Se fornisci i numeri di versione nel comando precedente, ti assicuri che le dipendenze nel tuo ambiente virtuale corrispondano a quelle nella versione del runtime. Ciò aiuta a prevenire comportamenti imprevisti quando il codice viene eseguito su AI Platform Training.
Per ulteriori dettagli, opzioni di installazione e informazioni sulla risoluzione dei problemi, consulta le istruzioni di installazione per ciascun framework:
Cloud Shell
Esegui questo comando per installare scikit-learn, XGBoost e pandas:
pip install --user scikit-learn xgboost pandas
Per ulteriori dettagli, opzioni di installazione e informazioni sulla risoluzione dei problemi, consulta le istruzioni di installazione per ciascun framework:
Configura il bucket Cloud Storage
Per archiviare il codice di addestramento e le dipendenze, devi avere un bucket Cloud Storage. Ai fini di questo tutorial, è il modo più semplice per utilizzare un bucket Cloud Storage dedicato nello stesso progetto che utilizzi per AI Platform Training.
Se utilizzi un bucket in un altro progetto, devi assicurarti che l'account di servizio AI Platform Training possa accedere al codice di addestramento e alle dipendenze in Cloud Storage. Senza le autorizzazioni appropriate, il job di addestramento ha esito negativo. Scopri come concedere autorizzazioni per l'archiviazione.
Assicurati di utilizzare o configurare un bucket nella stessa regione che utilizzi per eseguire i job di addestramento. Vedi le regioni disponibili per i servizi di AI Platform Training.
Questa sezione mostra come creare un nuovo bucket. Puoi utilizzare un bucket esistente, ma deve trovarsi nella stessa regione in cui prevedi di eseguire job AI Platform. Inoltre, se non fa parte del progetto che stai utilizzando per eseguire AI Platform Training, devi concedere esplicitamente l'accesso agli account di servizio di AI Platform Training.
-
Specifica un nome per il nuovo bucket. Il nome deve essere univoco in tutti i bucket in Cloud Storage.
BUCKET_NAME="YOUR_BUCKET_NAME"
Ad esempio, utilizza il nome del progetto con l'aggiunta di
-aiplatform
:PROJECT_ID=$(gcloud config list project --format "value(core.project)") BUCKET_NAME=${PROJECT_ID}-aiplatform
-
Controlla il nome del bucket che hai creato.
echo $BUCKET_NAME
-
Seleziona una regione per il bucket e imposta una variabile di ambiente
REGION
.Utilizza la stessa regione in cui prevedi di eseguire job di AI Platform Training. Consulta le regioni disponibili per i servizi di AI Platform Training.
Ad esempio, il seguente codice crea
REGION
e lo imposta suus-central1
:REGION=us-central1
-
Crea il nuovo bucket:
gsutil mb -l $REGION gs://$BUCKET_NAME
Crea il tuo modulo di formazione Python
Crea un file iris_training.py
che contiene il codice per addestrare il modello.
Questa sezione fornisce una spiegazione di ogni parte del codice di addestramento:
- Configurazione e importazioni
- scarica i dati da Cloud Storage
- Carica i dati in panda
- Addestra e salva il modello
- Carica il file del modello salvato su Cloud Storage
Per praticità, il codice completo di iris_training.py
è ospitato su GitHub
e puoi utilizzarlo per questo tutorial:
Configurazione
Importa le seguenti librerie da Python e scikit-learn o XGBoost. Imposta una variabile per il nome del bucket Cloud Storage.
Scikit-learn
XGBoost
Scaricare i dati da Cloud Storage
Durante il tipico processo di sviluppo, carichi i tuoi dati in Cloud Storage in modo che AI Platform Training possa accedervi. I dati per questo tutorial sono ospitati in un bucket Cloud Storage pubblico: gs://cloud-samples-data/ai-platform/iris/
Il seguente codice scarica i dati utilizzando gsutil
, quindi devia i dati
da gsutil
a stdout
:
Scikit-learn
XGBoost
Carica i dati in panda
Utilizza panda per caricare i dati in array NumPy per l'addestramento con scikit-learn o XGBoost.
Scikit-learn
XGBoost
Addestra e salva un modello
Crea un modulo di formazione per l'esecuzione di AI Platform Training. In questo esempio, il modulo di addestramento addestra un modello sui dati di addestramento di Iris (iris_data
e iris_target
) e salva il modello addestrato esportandolo in un file. Se vuoi utilizzare AI Platform Prediction per ottenere previsioni online dopo l'addestramento, devi assegnare un nome al file del modello in base alla libreria che utilizzi per esportarlo. Ulteriori informazioni sui requisiti di denominazione per il file del modello.
Scikit-learn
Seguendo l'esempio scikit-learn sulla persistenza del modello, puoi addestrare ed esportare un modello come mostrato di seguito:
Per esportare il modello, hai anche la possibilità di utilizzare la libreria Pickle come segue:
import pickle
with open('model.pkl', 'wb') as model_file:
pickle.dump(classifier, model_file)
XGBoost
Puoi esportare il modello utilizzando il metodo "save_model" dell'oggetto Booster.
Per esportare il modello, hai anche la possibilità di utilizzare la libreria Pickle come segue:
import pickle
with open('model.pkl', 'wb') as model_file:
pickle.dump(bst, model_file)
Requisiti di denominazione dei file del modello
Per la previsione online, il file del modello salvato che carichi su
Cloud Storage deve avere un nome: model.pkl
, model.joblib
o
model.bst
, a seconda della libreria utilizzata. Questa limitazione garantisce che
AI Platform Prediction utilizzi lo stesso pattern per ricostruire il modello al momento dell'importazione come
utilizzato durante l'esportazione.
Questo requisito non si applica se crei una routine di previsione personalizzata (beta).
Scikit-learn
Libreria utilizzata per esportare il modello | Nome del modello corretto |
---|---|
pickle |
model.pkl |
sklearn.externals.joblib |
model.joblib |
XGBoost
Libreria utilizzata per esportare il modello | Nome del modello corretto |
---|---|
pickle |
model.pkl |
joblib |
model.joblib |
xgboost.Booster |
model.bst |
Per le iterazioni future del modello, organizza il bucket Cloud Storage in modo che ogni nuovo modello abbia una directory dedicata.
Carica il modello salvato su Cloud Storage
Se usi un bucket Cloud Storage all'esterno del progetto Google Cloud che usi per eseguire AI Platform Training, assicurati che AI Platform Training abbia accesso al tuo bucket.
Scikit-learn
XGBoost
Crea pacchetto di applicazioni di addestramento
Dopo aver creato iris_training.py
dagli snippet riportati sopra, crea un pacchetto di applicazioni di addestramento che includa iris_training.py
come modulo principale.
Il modo più semplice (e consigliato) per creare un pacchetto di applicazioni di addestramento utilizza gcloud
per pacchettizzare e caricare l'applicazione quando invii il job di addestramento. Questo metodo richiede di creare una struttura di file molto semplice con due file:
Scikit-learn
Per questo tutorial, la struttura dei file del pacchetto dell'applicazione di addestramento dovrebbe essere simile alla seguente:
iris_sklearn_trainer/
__init__.py
iris_training.py
Nella riga di comando, crea una directory localmente:
mkdir iris_sklearn_trainer
Crea un file vuoto denominato
__init__.py
:touch iris_sklearn_trainer/__init__.py
Salva il codice di addestramento come
iris_training.py
e salva il file all'interno della directoryiris_sklearn_trainer
. In alternativa, utilizzacURL
per scaricare e salvare il file da GitHub:curl https://raw.githubusercontent.com/GoogleCloudPlatform/cloudml-samples/master/sklearn/iris_training.py > iris_sklearn_trainer/iris_training.py
Visualizza il codice sorgente completo su GitHub.
Verifica che il pacchetto dell'applicazione di addestramento sia configurato correttamente:
ls ./iris_sklearn_trainer __init__.py iris_training.py
XGBoost
Per questo tutorial, la struttura dei file del pacchetto dell'applicazione di addestramento dovrebbe essere simile alla seguente:
iris_xgboost_trainer/
__init__.py
iris_training.py
Nella riga di comando, crea una directory localmente:
mkdir iris_xgboost_trainer
Crea un file vuoto denominato
__init__.py
:touch iris_xgboost_trainer/__init__.py
Salva il codice di addestramento come
iris_training.py
e salva il file all'interno della directoryiris_xgboost_trainer
. In alternativa, utilizzacURL
per scaricare e salvare il file da GitHub:curl https://raw.githubusercontent.com/GoogleCloudPlatform/cloudml-samples/master/xgboost/iris_training.py > iris_xgboost_trainer/iris_training.py
Visualizza il codice sorgente completo su GitHub.
Verifica che il pacchetto dell'applicazione di addestramento sia configurato correttamente:
ls ./iris_xgboost_trainer __init__.py iris_training.py
Scopri di più sulla presentazione di un'applicazione di addestramento.
Esegui il trainer localmente
Puoi testare la tua applicazione di addestramento in locale utilizzando il comando gcloud ai-platform local train
. Questo passaggio è facoltativo, ma è utile per il debug.
Scikit-learn
Nella riga di comando, imposta le variabili di ambiente seguenti, sostituendo [VALUES-IN-BRACKETS]
con i valori appropriati:
TRAINING_PACKAGE_PATH="./iris_sklearn_trainer/"
MAIN_TRAINER_MODULE="iris_sklearn_trainer.iris_training"
Testa il job di addestramento localmente:
gcloud ai-platform local train \
--package-path $TRAINING_PACKAGE_PATH \
--module-name $MAIN_TRAINER_MODULE
XGBoost
Nella riga di comando, imposta le variabili di ambiente seguenti, sostituendo [VALUES-IN-BRACKETS]
con i valori appropriati:
TRAINING_PACKAGE_PATH="./iris_xgboost_trainer/"
MAIN_TRAINER_MODULE="iris_xgboost_trainer.iris_training"
Testa il job di addestramento localmente:
gcloud ai-platform local train \
--package-path $TRAINING_PACKAGE_PATH \
--module-name $MAIN_TRAINER_MODULE
Invia job di addestramento
In questa sezione utilizzerai gcloud ai-platform jobs submit training
per inviare il job di addestramento.
Specifica i parametri del job di addestramento
Imposta le seguenti variabili di ambiente per ogni parametro nella richiesta di job di addestramento:
BUCKET_NAME
: il nome del tuo bucket Cloud Storage.JOB_NAME
: un nome da utilizzare per il job (solo lettere maiuscole e minuscole, numeri e trattini bassi, che iniziano con una lettera). Ad esempio,iris_scikit_learn_$(date +"%Y%m%d_%H%M%S")
oiris_xgboost_$(date +"%Y%m%d_%H%M%S")
.JOB_DIR
: il percorso di una località Cloud Storage da utilizzare per i file di output del job di addestramento. Ad esempio,gs://$BUCKET_NAME/scikit_learn_job_dir
ogs://$BUCKET_NAME/xgboost_job_dir
.TRAINING_PACKAGE_PATH
: il percorso locale della directory root dell'applicazione di addestramento. Ad esempio,./iris_sklearn_trainer/
o./iris_xgboost_trainer/
.MAIN_TRAINER_MODULE
- Specifica il file che deve essere eseguito dal servizio di addestramento AI Platform Training. Il formato è[YOUR_FOLDER_NAME.YOUR_PYTHON_FILE_NAME]
. Ad esempio,iris_sklearn_trainer.iris_training
oiris_xgboost_trainer.iris_training
.REGION
: il nome della regione che utilizzi per eseguire il job di addestramento. Utilizza una delle regioni disponibili per il servizio di formazione di AI Platform Training. Assicurati che il bucket Cloud Storage si trovi nella stessa regione.RUNTIME_VERSION
: devi specificare una versione del runtime di AI Platform Training che supporti scikit-learn. In questo esempio,2.11
.PYTHON_VERSION
: la versione Python da utilizzare per il job. Per questo tutorial, specifica Python 3.7.SCALE_TIER
: una specifica predefinita del cluster per le macchine su cui eseguire il job di addestramento. In questo caso,BASIC
. Puoi anche utilizzare livelli di scalabilità personalizzati per definire la tua configurazione del cluster per l'addestramento.
Per comodità, le variabili di ambiente per questo tutorial sono riportate di seguito.
Scikit-learn
Sostituisci [VALUES-IN-BRACKETS]
con i valori appropriati:
BUCKET_NAME=[YOUR-BUCKET-NAME]
JOB_NAME="iris_scikit_learn_$(date +"%Y%m%d_%H%M%S")"
JOB_DIR=gs://$BUCKET_NAME/scikit_learn_job_dir
TRAINING_PACKAGE_PATH="./iris_sklearn_trainer/"
MAIN_TRAINER_MODULE="iris_sklearn_trainer.iris_training"
REGION=us-central1
RUNTIME_VERSION=2.11
PYTHON_VERSION=3.7
SCALE_TIER=BASIC
XGBoost
Sostituisci [VALUES-IN-BRACKETS]
con i valori appropriati:
BUCKET_NAME=[YOUR-BUCKET-NAME]
JOB_NAME="iris_xgboost_$(date +"%Y%m%d_%H%M%S")"
JOB_DIR=gs://$BUCKET_NAME/xgboost_job_dir
TRAINING_PACKAGE_PATH="./iris_xgboost_trainer/"
MAIN_TRAINER_MODULE="iris_xgboost_trainer.iris_training"
REGION=us-central1
RUNTIME_VERSION=2.11
PYTHON_VERSION=3.7
SCALE_TIER=BASIC
Invia la richiesta del job di addestramento:
gcloud ai-platform jobs submit training $JOB_NAME \
--job-dir $JOB_DIR \
--package-path $TRAINING_PACKAGE_PATH \
--module-name $MAIN_TRAINER_MODULE \
--region $REGION \
--runtime-version=$RUNTIME_VERSION \
--python-version=$PYTHON_VERSION \
--scale-tier $SCALE_TIER
Dovresti vedere un output simile al seguente:
Job [iris_scikit_learn_[DATE]_[TIME]] submitted successfully.
Your job is still active. You may view the status of your job with the command
$ gcloud ai-platform jobs describe iris_scikit_learn_[DATE]_[TIME]
or continue streaming the logs with the command
$ gcloud ai-platform jobs stream-logs iris_scikit_learn_[DATE]_[TIME]
jobId: iris_scikit_learn_[DATE]_[TIME]
state: QUEUED
(Facoltativo) Visualizzazione dei log di addestramento
AI Platform Training acquisisce tutti i flussi stdout
e stderr
e le istruzioni di logging. Questi log, archiviati in Logging, sono visibili durante e dopo l'esecuzione.
Per visualizzare i log per il job di addestramento:
Console
Apri la pagina Job di AI Platform Training.
Seleziona il nome del job di addestramento da ispezionare. Viene visualizzata la pagina Dettagli job per il job di addestramento selezionato.
Nei dettagli del job, seleziona il link Visualizza log. Viene visualizzata la pagina Logging, dove puoi cercare e filtrare i log per il job di addestramento selezionato.
gcloud
Puoi visualizzare i log nel tuo terminale con
gcloud ai-platform jobs stream-logs
.
gcloud ai-platform jobs stream-logs $JOB_NAME
Verifica il file del modello in Cloud Storage
Visualizza i contenuti della cartella del modello di destinazione per verificare che il file del modello salvato sia stato caricato in Cloud Storage.
gsutil ls gs://$BUCKET_NAME/iris_*
Output di esempio:
gs://bucket-name/iris_20180518_123815/:
gs://bucket-name/iris_20180518_123815/model.joblib
Passaggi successivi
- Ricevi previsioni online con scikit-learn su AI Platform Training.
- Scopri come utilizzare i livelli di scalabilità personalizzati al fine di definire la configurazione del tuo cluster per l'addestramento.