corsa questo tutorial come blocco note in Colab | Visualizza il notebook su GitHub |
Questo tutorial mostra come addestrare una rete neurale su AI Platform utilizzando l'API sequenziale Keras e come fornire previsioni da quel modello.
Keras è un'API di alto livello per la creazione e l'addestramento di modelli di deep learning. tf.keras è l'implementazione di questa API in TensorFlow.
Le prime due parti del tutorial illustrano l'addestramento di un modello AI Platform utilizzando il codice Keras già scritto, eseguendo il deployment del modello addestrato ad AI Platform e fornire previsioni online dalle un modello di machine learning.
L'ultima parte del tutorial analizza il codice di addestramento utilizzato per questo modello e ne garantisce la compatibilità con AI Platform. Per scoprire di più su per creare modelli di machine learning in Keras in generale, leggi il documento TensorFlow Tutorial Keras.
Set di dati
Questo tutorial utilizza il reddito del censimento degli Stati Uniti Set di dati fornite da UC Irvine Machine Learning Repository. Questo set di dati contiene informazioni su persone provenienti da un database del censimento del 1994, tra cui età, istruzione, stato civile, professione e se guadagnano più di 50.000 $l'anno.
Obiettivo
L'obiettivo è addestrare una rete neurale profonda (DNN) utilizzando Keras che prevede se una persona guadagna più di 50.000 $all'anno (etichetta target) in base ad altri Informazioni sul censimento della persona (caratteristiche).
Questo tutorial si concentra più sull'utilizzo di questo modello con AI Platform che sul design del modello stesso. Tuttavia, è sempre importante considerare potenziali problemi e conseguenze indesiderate durante lo sviluppo del machine learning sistemi operativi. Vedi l'esercizio Crash Course sul machine learning equità per saperne di più sulle fonti di bias nel set di dati del Censimento, nonché sui modelli equità dell'apprendimento in generale.
Costi
Questo tutorial utilizza i componenti fatturabili di Google Cloud (Google Cloud):
- AI Platform Training
- AI Platform Prediction
- Cloud Storage
Scopri di più su AI Platform Training prezzi, AI Platform Prediction prezzi, e Cloud Storage prezzi, e utilizza la pagina Prezzi Calcolatrice per generare una stima dei costi in base all'utilizzo previsto.
Prima di iniziare
Prima di poter addestrare e implementare un modello in AI Platform, devi svolgere diverse operazioni:
- Configura il tuo ambiente di sviluppo locale.
- Configura un progetto Google Cloud con la fatturazione e le API necessarie attivate.
- Crea un bucket Cloud Storage per archiviare il tuo pacchetto di addestramento addestrato al modello.
Configurare l'ambiente di sviluppo locale
Per completare questo tutorial sono necessari i seguenti requisiti:
- Git
- Python 3
- virtualenv
- Google Cloud SDK
Guida di Google Cloud alla configurazione di uno sviluppo Python ambiente fornisce istruzioni dettagliate per soddisfare questi requisiti. Le seguenti i passaggi forniscono un insieme breve di istruzioni:
Installa virtualenv e crea un ambiente virtuale che utilizzi Python 3.
Attiva l'ambiente.
Completa i passaggi nella sezione seguente per installare Google Cloud SDK.
Configura il progetto Google Cloud
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the AI Platform Training & Prediction and Compute Engine APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the AI Platform Training & Prediction and Compute Engine APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
Autenticare l'account Google Cloud
Per configurare l'autenticazione, devi creare una chiave dell'account di servizio e impostare una variabile di ambiente per il percorso del file della chiave dell'account di servizio.
-
Crea un account di servizio:
-
Nella console Google Cloud, vai alla pagina Crea account di servizio.
- Nel campo Nome account di servizio, inserisci un nome.
- (Facoltativo) Nel campo Descrizione account di servizio, inserisci una descrizione.
- Fai clic su Crea.
- Fai clic sul campo Seleziona un ruolo. In Tutti i ruoli, seleziona AI Platform > Amministratore AI Platform.
- Fai clic su Aggiungi un altro ruolo.
-
Fai clic sul campo Seleziona un ruolo. In Tutti i ruoli, seleziona Storage > Amministratore oggetti Storage.
-
Fai clic su Fine per creare l'account di servizio.
Non chiudere la finestra del browser. Lo utilizzerai nel passaggio successivo.
-
-
Crea una chiave dell'account di servizio per l'autenticazione:
- Nella console Google Cloud, fai clic sull'indirizzo email dell'account di servizio è stato creato.
- Fai clic su Chiavi.
- Fai clic su Aggiungi chiave, quindi su Crea nuova chiave.
- Fai clic su Crea. Un file della chiave JSON viene scaricato sul computer.
- Fai clic su Chiudi.
-
Imposta la variabile di ambiente GOOGLE_APPLICATION_CREDENTIALS al percorso del file JSON contenente la chiave dell'account di servizio. Questa variabile si applica solo alla sessione di shell corrente, quindi se apri una nuova sessione, imposta di nuovo la variabile.
Crea un bucket Cloud Storage
Quando invii un job di addestramento utilizzando Cloud SDK, carichi un pacchetto Python contenente il codice di addestramento in un bucket Cloud Storage. AI Platform esegue il codice di questo pacchetto. In questo tutorial, AI Platform salva inoltre il modello addestrato risultante dal tuo job nello stesso bucket. Puoi quindi creare una versione del modello AI Platform basata su questo output per pubblicare le previsioni online.
Imposta il nome del bucket Cloud Storage come variabile di ambiente. Deve essere univoco in tutti i bucket Cloud Storage:
BUCKET_NAME="your-bucket-name"
Seleziona una regione in cui sono disponibili AI Platform Training e AI Platform Prediction e crea un'altra variabile di ambiente. Ad esempio:
REGION="us-central1"
Crea il bucket Cloud Storage in questa regione e, in un secondo momento, utilizza la stessa regione per l'addestramento e la previsione. Esegui questo comando per creare il bucket, se non esiste già:
gsutil mb -l $REGION gs://$BUCKET_NAME
Guida rapida all'addestramento in AI Platform
Questa sezione del tutorial illustra la procedura per inviare un job di addestramento ad AI Platform. Questo job esegue codice di esempio che utilizza Keras per addestrare una rete neurale profonda sui dati del censimento degli Stati Uniti. Il modello addestrato viene visualizzato come directory SavedModel di TensorFlow nel bucket Cloud Storage.
Ottieni il codice e le dipendenze di addestramento
Innanzitutto, scarica il codice di addestramento e modifica la directory di lavoro:
# Clone the repository of AI Platform samples
git clone --depth 1 https://github.com/GoogleCloudPlatform/cloudml-samples
# Set the working directory to the sample code directory
cd cloudml-samples/census/tf-keras
Tieni presente che il codice di addestramento è strutturato come pacchetto Python nella sottodirectory trainer/
:
# `ls` shows the working directory's contents. The `p` flag adds trailing
# slashes to subdirectory names. The `R` flag lists subdirectories recursively.
ls -pR
.: README.md requirements.txt trainer/ ./trainer: __init__.py model.py task.py util.py
Quindi, installa le dipendenze Python necessarie per addestrare il modello localmente:
pip install -r requirements.txt
Quando esegui il job di addestramento in AI Platform, le dipendenze vengono preinstallate in base alla versione del runtime che scegli.
Addestra il modello in locale
Prima di eseguire l'addestramento su AI Platform, addestralo localmente per verificare che la struttura e il packaging dei file siano corretti.
Per un lavoro complesso o che richiede molte risorse, potresti voler eseguire l'addestramento in locale un piccolo campione del tuo set di dati per verificare il codice. A questo punto puoi eseguire il job su AI Platform per l'addestramento sull'intero set di dati.
Questo esempio esegue un job relativamente rapido su un set di dati di piccole dimensioni, quindi l'ambiente mentre il job di AI Platform esegue lo stesso codice sugli stessi dati.
Esegui questo comando per addestrare un modello in locale:
# This is similar to `python -m trainer.task --job-dir local-training-output`
# but it better replicates the AI Platform environment, especially
# for distributed training (not applicable here).
gcloud ai-platform local train \
--package-path trainer \
--module-name trainer.task \
--job-dir local-training-output
Osserva l'avanzamento dell'addestramento nella shell. Al termine, l'applicazione di addestramento esporta il modello addestrato e visualizza un messaggio simile al seguente:
Model exported to: local-training-output/keras_export/1553709223
Addestrare il modello utilizzando AI Platform
Invia un job di addestramento ad AI Platform. Viene eseguito il modulo di addestramento nel cloud ed esportato il modello addestrato in Cloud Storage.
Innanzitutto, assegna un nome al job di addestramento e scegli una directory all'interno del tuo bucket Cloud Storage per salvare i file intermedi e di output. Imposta come variabili di ambiente. Ad esempio:
JOB_NAME="my_first_keras_job"
JOB_DIR="gs://$BUCKET_NAME/keras-job-dir"
Esegui questo comando per pacchettizzare la directory trainer/
, caricala nella
specificato --job-dir
e indica ad AI Platform di eseguire il
trainer.task
modulo dal pacchetto.
Il flag --stream-logs
ti consente di visualizzare i log di addestramento nella shell. Puoi anche visualizzare i log e altri dettagli del job nella console Google Cloud.
gcloud ai-platform jobs submit training $JOB_NAME \
--package-path trainer/ \
--module-name trainer.task \
--region $REGION \
--python-version 3.7 \
--runtime-version 1.15 \
--job-dir $JOB_DIR \
--stream-logs
Questa operazione potrebbe richiedere più tempo rispetto a quella locale, ma puoi osservare i progressi dell'addestramento nella shell in modo simile. Al termine, il job di addestramento esporta addestrato al tuo bucket Cloud Storage e stampa un messaggio simile al le seguenti:
INFO 2019-03-27 17:57:11 +0000 master-replica-0 Model exported to: gs://your-bucket-name/keras-job-dir/keras_export/1553709421 INFO 2019-03-27 17:57:11 +0000 master-replica-0 Module completed; cleaning up. INFO 2019-03-27 17:57:11 +0000 master-replica-0 Clean up finished. INFO 2019-03-27 17:57:11 +0000 master-replica-0 Task completed successfully.
Ottimizzazione degli iperparametri
Facoltativamente, puoi eseguire l'ottimizzazione degli iperparametri utilizzando
di configurazione di hptuning_config.yaml
. Questo file indica
AI Platform per ottimizzare la dimensione del batch e il tasso di apprendimento per l'addestramento
in più prove per massimizzare la precisione.
In questo esempio, il codice di addestramento utilizza un callback di TensorBoard, che crea Summary
Event
di TensorFlow
durante l'addestramento. AI Platform utilizza questi eventi per monitorare la metrica
che vuoi ottimizzare. Scopri di più sull'ottimizzazione degli iperparametri in
AI Platform Training.
gcloud ai-platform jobs submit training ${JOB_NAME}_hpt \
--config hptuning_config.yaml \
--package-path trainer/ \
--module-name trainer.task \
--region $REGION \
--python-version 3.7 \
--runtime-version 1.15 \
--job-dir $JOB_DIR \
--stream-logs
Guida rapida per le previsioni online in AI Platform
Questa sezione mostra come utilizzare AI Platform e il modello addestrato da la sezione precedente per prevedere la fascia di reddito di una persona da un altro censimento informazioni che li riguardano.
Creare risorse di modelli e versioni in AI Platform
Per pubblicare previsioni online utilizzando il modello che hai addestrato ed esportato nel guida rapida per addestramento, crea una risorsa modello in AI Platform e una risorsa versione al suo interno. La risorsa versione è quella che utilizza effettivamente il modello addestrato per eseguire le previsioni. Questa struttura consente di regolare e addestrare nuovamente il modello volte e organizzare tutte le versioni insieme in AI Platform. Impara scopri di più sui modelli le versioni secondarie.
Per prima cosa, assegna un nome e crea la risorsa modello:
MODEL_NAME="my_first_keras_model"
gcloud ai-platform models create $MODEL_NAME \
--regions $REGION
Created ml engine model [projects/your-project-id/models/my_first_keras_model].
Crea quindi la versione del modello. Il job di addestramento della guida rapida formazione ha esportato un file TensorFlow SavedModel con timestamp directory al tuo bucket Cloud Storage. AI Platform utilizza questo per creare una versione del modello. Scopri di più su SavedModel e AI Platform.
Potresti riuscire a trovare il percorso di questa directory nei log del job di addestramento. Cerca una riga simile alla seguente:
Model exported to: gs://your-bucket-name/keras-job-dir/keras_export/1545439782
Esegui questo comando per identificare la directory SavedModel e utilizzala per creare una risorsa della versione del modello:
MODEL_VERSION="v1"
# Get a list of directories in the `keras_export` parent directory. Then pick
# the directory with the latest timestamp, in case you've trained multiple
# times.
SAVED_MODEL_PATH=$(gsutil ls $JOB_DIR/keras_export | head -n 1)
# Create model version based on that SavedModel directory
gcloud ai-platform versions create $MODEL_VERSION \
--model $MODEL_NAME \
--region $REGION \
--runtime-version 1.15 \
--python-version 3.7 \
--framework tensorflow \
--origin $SAVED_MODEL_PATH
Prepara l'input per la previsione
Per ricevere previsioni valide e utili, devi pre-elaborare l'input per la previsione nello stesso modo in cui sono stati pre-elaborati i dati di addestramento. In un ambiente di produzione di sistema, potresti voler creare una pipeline di pre-elaborazione che possa essere utilizzata in modo identico al momento dell'addestramento e al momento della previsione.
Per questo esercizio, utilizza il codice di caricamento dei dati del pacchetto di addestramento per selezionare un campione casuale dai dati di valutazione. Questi dati sono nel formato utilizzato per valutare l'accuratezza dopo ogni epoca di addestramento, pertanto possono essere utilizzati per inviare le previsioni del test senza ulteriore preelaborazione.
Apri l'interprete Python (python
) dalla directory di lavoro attuale in
per eseguire i prossimi snippet di codice:
from trainer import util
_, _, eval_x, eval_y = util.load_data()
prediction_input = eval_x.sample(20)
prediction_targets = eval_y[prediction_input.index]
prediction_input
età | classe di lavoro | education_num | marital_status | professione | relazione | gruppo etnico | capital_gain | perdita_capitale | hours_per_week | native_country | |
---|---|---|---|---|---|---|---|---|---|---|---|
1979 | 0,901213 | 1 | 1,525542 | 2 | 9 | 0 | 4 | -0.144792 | -0,217132 | -0,437544 | 38 |
2430 | -0,922154 | 3 | -0.419265 | 4 | 2 | 3 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
4214 | -1,213893 | 3 | -0.030304 | 4 | 10 | 1 | 4 | -0.144792 | -0,217132 | 1,579979 | 38 |
10389 | -0.630415 | 3 | 0,358658 | 4 | 0 | 3 | 4 | -0.144792 | -0,217132 | -0.679647 | 38 |
14525 | -1,505632 | 3 | -1,586149 | 4 | 7 | 3 | 0 | -0.144792 | -0,217132 | -0,034039 | 38 |
15040 | -0,119873 | 5 | 0,358658 | 2 | 2 | 0 | 4 | -0.144792 | -0,217132 | - 0,841048 | 38 |
8409 | 0,244801 | 3 | 1,525542 | 2 | 9 | 0 | 4 | -0.144792 | -0,217132 | 1,176475 | 6 |
10628 | 0,098931 | 1 | 1,525542 | 2 | 9 | 0 | 4 | 0,886847 | -0,217132 | -0,034039 | 38 |
10942 | 0,390670 | 5 | -0.030304 | 2 | 4 | 0 | 4 | -0.144792 | -0,217132 | 4,727315 | 38 |
5129 | 1,120017 | 3 | 1,136580 | 2 | 12 | 0 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
2096 | -1.286827 | 3 | -0.030304 | 4 | 11 | 3 | 4 | -0.144792 | -0,217132 | -1.648058 | 38 |
12463 | -0,703350 | 3 | -0.419265 | 2 | 7 | 5 | 4 | -0.144792 | 4,502280 | -0,437544 | 38 |
8528 | 0,536539 | 3 | 1,525542 | 4 | 3 | 4 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
7093 | -1,359762 | 3 | -0.419265 | 4 | 6 | 3 | 2 | -0.144792 | -0,217132 | -0,034039 | 38 |
12565 | 0,536539 | 3 | 1,136580 | 0 | 11 | 2 | 2 | -0.144792 | -0,217132 | -0,034039 | 38 |
5655 | 1,338821 | 3 | -0.419265 | 2 | 2 | 0 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
2322 | 0,682409 | 3 | 1,136580 | 0 | 12 | 3 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
12652 | 0,025997 | 3 | 1,136580 | 2 | 11 | 0 | 4 | -0.144792 | -0,217132 | 0,369465 | 38 |
4755 | -0,411611 | 3 | -0.419265 | 2 | 11 | 0 | 4 | -0.144792 | -0,217132 | 1,176475 | 38 |
4413 | 0,390670 | 6 | 1,136580 | 4 | 4 | 1 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
Tieni presente che i campi categorici, ad esempio occupation
, sono già stati convertiti
a numeri interi (con la stessa mappatura utilizzata per l'addestramento). Numerica
come age
, sono stati scalati a un
z-score.
Alcuni campi sono stati rimossi dai dati originali. Confronta la previsione
con i dati non elaborati per gli stessi esempi:
import pandas as pd
_, eval_file_path = util.download(util.DATA_DIR)
raw_eval_data = pd.read_csv(eval_file_path,
names=util._CSV_COLUMNS,
na_values='?')
raw_eval_data.iloc[prediction_input.index]
età | classe di lavoro | fnlwgt | education | education_num | marital_status | professione | relazione | gruppo etnico | genere | capital_gain | perdita_capitale | hours_per_week | native_country | income_bracket | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1979 | 51 | Pubblica amministrazione locale | 99064 | Master | 14 | Married-civ-spouse | Specializzazione | Marito | Bianco | Uomo | 0 | 0 | 35 | Stati Uniti | <= 50.000 |
2430 | 26 | Privato | 197967 | HS-grad | 9 | Mai sposato | Riparazione-articoli-da-cucina | Figlio | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
4214 | 22 | Privato | 221694 | Università | 10 | Mai sposato | Protective-serv | Non fa parte del gruppo Famiglia | Bianco | Uomo | 0 | 0 | 60 | Stati Uniti | <= 50.000 |
10389 | 30 | Privato | 96480 | Assoc-voc | 11 | Mai sposato | Amm-clerical | Figlio | Bianco | Donna | 0 | 0 | 32 | Stati Uniti | <= 50.000 |
14525 | 18 | Privato | 146225 | 10 | 6 | Mai sposato | Altro servizio | Figlio | Amer-indiano-eschimese | Donna | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
15040 | 37 | Self-emp-not-inc | 50096 | Assoc-voc | 11 | Married-civ-spouse | Riparazione-articoli-da-cucina | Marito | Bianco | Uomo | 0 | 0 | 30 | Stati Uniti | <= 50.000 |
8409 | 42 | Privato | 102988 | Master | 14 | Married-civ-spouse | Specializzazione | Marito | Bianco | Uomo | 0 | 0 | 55 | Ecuador | > 50.000 |
10628 | 40 | Local-gov | 284086 | Masters | 14 | Married-civ-spouse | Specializzazione | Marito | Bianco | Uomo | 7688 | 0 | 40 | Stati Uniti | Più di 50.000 |
10942 | 44 | Self-emp-not-inc | 52505 | Università | 10 | Married-civ-spouse | Agricoltura-pesca | Marito | Bianco | Uomo | 0 | 0 | 99 | Stati Uniti | <= 50.000 |
5129 | 54 | Privato | 106728 | Lauree | 13 | Married-civ-spouse | Assistenza tecnica | Marito | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
2096 | 21 | Privato | 190916 | Università | 10 | Mai sposato | Vendite | Figlio | Bianco | Donna | 0 | 0 | 20 | Stati Uniti | <= 50.000 |
12463 | 29 | Privato | 197565 | HS-grad | 9 | Married-civ-spouse | Altro servizio | Moglie | Bianco | Donna | 0 | 1902 | 35 | Stati Uniti | Più di 50.000 |
8528 | 46 | Privato | 193188 | Master | 14 | Mai sposato | Esecutivo-direttivo | Celibe/nubile | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
7093 | 20 | Privato | 273147 | HS-grad | 9 | Mai sposato | Machine-op-inspct | Figlio | Nero | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
12565 | 46 | Privato | 203653 | Lauree | 13 | Divorziato/a | Vendite | Altro correlato | Nero | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
5655 | 57 | Privato | 174662 | HS-grad | 9 | Coniuge/coniuge sposata | Riparazione-articoli-da-cucina | Marito | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
2322 | 48 | Privato | 232149 | Lauree | 13 | Divorziato/a | Assistenza tecnica | Figlio | Bianco | Donna | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
12652 | 39 | Privato | 82521 | Lauree | 13 | Married-civ-spouse | Vendite | Marito | Bianco | Uomo | 0 | 0 | 45 | Stati Uniti | > 50.000 |
4755 | 33 | Privato | 330715 | HS-grad | 9 | Married-civ-spouse | Vendite | Marito | Bianco | Uomo | 0 | 0 | 55 | Stati Uniti | <= 50.000 |
4413 | 44 | Stato-gov | 128586 | Lauree | 13 | Mai sposato | Agricoltura-pesca | Non fa parte del gruppo Famiglia | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
Esporta l'input di previsione in un file JSON delimitato da nuova riga:
import json
with open('prediction_input.json', 'w') as json_file:
for row in prediction_input.values.tolist():
json.dump(row, json_file)
json_file.write('\n')
Esci dall'interprete Python (exit()
). Dalla tua shell, esamina
prediction_input.json
:
cat prediction_input.json
[0.9012127751273994, 1.0, 1.525541514460902, 2.0, 9.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.43754385253479555, 38.0] [-0.9221541171760282, 3.0, -0.4192650914017433, 4.0, 2.0, 3.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [-1.2138928199445767, 3.0, -0.030303770229214273, 4.0, 10.0, 1.0, 4.0, -0.14479173735784842, -0.21713186390175285, 1.5799792247041626, 38.0] [-0.6304154144074798, 3.0, 0.35865755094331475, 4.0, 0.0, 3.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.6796466218034705, 38.0] [-1.5056315227131252, 3.0, -1.5861490549193304, 4.0, 7.0, 3.0, 0.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [-0.11987268456252011, 5.0, 0.35865755094331475, 2.0, 2.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.8410484679825871, 38.0] [0.24480069389816542, 3.0, 1.525541514460902, 2.0, 9.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, 1.176474609256371, 6.0] [0.0989313425138912, 1.0, 1.525541514460902, 2.0, 9.0, 0.0, 4.0, 0.8868473744801746, -0.21713186390175285, -0.03403923708700391, 38.0] [0.39067004528243965, 5.0, -0.030303770229214273, 2.0, 4.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, 4.7273152251969375, 38.0] [1.1200168022038106, 3.0, 1.1365801932883728, 2.0, 12.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [-1.2868274956367138, 3.0, -0.030303770229214273, 4.0, 11.0, 3.0, 4.0, -0.14479173735784842, -0.21713186390175285, -1.6480576988781703, 38.0] [-0.7033500900996169, 3.0, -0.4192650914017433, 2.0, 7.0, 5.0, 4.0, -0.14479173735784842, 4.5022796885373735, -0.43754385253479555, 38.0] [0.5365393966667138, 3.0, 1.525541514460902, 4.0, 3.0, 4.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [-1.3597621713288508, 3.0, -0.4192650914017433, 4.0, 6.0, 3.0, 2.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [0.5365393966667138, 3.0, 1.1365801932883728, 0.0, 11.0, 2.0, 2.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [1.338820829280222, 3.0, -0.4192650914017433, 2.0, 2.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [0.6824087480509881, 3.0, 1.1365801932883728, 0.0, 12.0, 3.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0] [0.0259966668217541, 3.0, 1.1365801932883728, 2.0, 11.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, 0.3694653783607877, 38.0] [-0.4116113873310685, 3.0, -0.4192650914017433, 2.0, 11.0, 0.0, 4.0, -0.14479173735784842, -0.21713186390175285, 1.176474609256371, 38.0] [0.39067004528243965, 6.0, 1.1365801932883728, 4.0, 4.0, 1.0, 4.0, -0.14479173735784842, -0.21713186390175285, -0.03403923708700391, 38.0]
Lo strumento a riga di comando gcloud
accetta JSON delimitato da nuova riga per i file
e questo particolare modello Keras si aspetta un elenco fisso di numeri
per ogni esempio di input.
AI Platform richiede un formato diverso quando effettui richieste di previsione online all'API REST senza utilizzare lo strumento gcloud
. Il modo in cui
struttura del modello può cambiare anche il modo in cui devi formattare i dati per la previsione.
Scopri di più sulla formattazione dei dati per online
per la previsione.
Invia la richiesta di previsione online
Utilizza gcloud
per inviare la richiesta di previsione online:
gcloud ai-platform predict \
--model $MODEL_NAME \
--region $REGION \
--version $MODEL_VERSION \
--json-instances prediction_input.json
DENSE_4 [0.6854287385940552] [0.011786997318267822] [0.037236183881759644] [0.016223609447479248] [0.0012015104293823242] [0.23621389269828796] [0.6174039244651794] [0.9822691679000854] [0.3815768361091614] [0.6715215444564819] [0.001094043254852295] [0.43077391386032104] [0.22132840752601624] [0.004075437784194946] [0.22736871242523193] [0.4111979305744171] [0.27328649163246155] [0.6981356143951416] [0.3309604525566101] [0.20807647705078125]
Poiché l'ultimo livello del modello utilizza una funzione sigmoide per l'attivazione, gli output compresi tra 0 e 0,5 rappresentano le previsioni negative ("<=50.000") e quelli compresi tra 0,5 e 1 rappresentano quelle positive (">50.000").
Sviluppo del modello Keras da zero
A questo punto, hai addestrato un modello di machine learning su AI Platform, ne hai eseguito il deployment come risorsa di versione su AI Platform e hai ricevuto previsioni online dal deployment. La sezione successiva illustra la procedura per ricreare il codice Keras utilizzato per addestrare il modello. Copre le seguenti parti dello sviluppo di un modello di machine learning da utilizzare con AI Platform:
- Scaricare e pre-elaborare i dati
- Progettazione e addestramento del modello
- Visualizzazione dell'addestramento ed esportazione del modello addestrato
Questa sezione fornisce informazioni più dettagliate sulle attività completate in
parti precedenti, per ulteriori informazioni sull'uso di tf.keras
, leggi la guida di TensorFlow
a
Keras.
Per scoprire di più su come strutturare il codice come pacchetto di addestramento
AI Platform, leggi l'articolo Presentazione di una formazione
applicazione
e consulta l'addestramento completo
codice,
strutturato come pacchetto Python.
Importa le librerie e definisci le costanti
Innanzitutto, importa le librerie Python necessarie per l'addestramento:
import os
from six.moves import urllib
import tempfile
import numpy as np
import pandas as pd
import tensorflow as tf
# Examine software versions
print(__import__('sys').version)
print(tf.__version__)
print(tf.keras.__version__)
Quindi, definisci alcune costanti utili:
- Informazioni per il download dei dati di addestramento e valutazione
- Informazioni necessarie per consentire a Pandas di interpretare i dati e convertire i campi categorici in elementi numerici
- Iperparametri per l'addestramento, come il tasso di apprendimento e la dimensione del batch
### For downloading data ###
# Storage directory
DATA_DIR = os.path.join(tempfile.gettempdir(), 'census_data')
# Download options.
DATA_URL = 'https://storage.googleapis.com/cloud-samples-data/ai-platform' \
'/census/data'
TRAINING_FILE = 'adult.data.csv'
EVAL_FILE = 'adult.test.csv'
TRAINING_URL = '%s/%s' % (DATA_URL, TRAINING_FILE)
EVAL_URL = '%s/%s' % (DATA_URL, EVAL_FILE)
### For interpreting data ###
# These are the features in the dataset.
# Dataset information: https://archive.ics.uci.edu/ml/datasets/census+income
_CSV_COLUMNS = [
'age', 'workclass', 'fnlwgt', 'education', 'education_num',
'marital_status', 'occupation', 'relationship', 'race', 'gender',
'capital_gain', 'capital_loss', 'hours_per_week', 'native_country',
'income_bracket'
]
_CATEGORICAL_TYPES = {
'workclass': pd.api.types.CategoricalDtype(categories=[
'Federal-gov', 'Local-gov', 'Never-worked', 'Private', 'Self-emp-inc',
'Self-emp-not-inc', 'State-gov', 'Without-pay'
]),
'marital_status': pd.api.types.CategoricalDtype(categories=[
'Divorced', 'Married-AF-spouse', 'Married-civ-spouse',
'Married-spouse-absent', 'Never-married', 'Separated', 'Widowed'
]),
'occupation': pd.api.types.CategoricalDtype([
'Adm-clerical', 'Armed-Forces', 'Craft-repair', 'Exec-managerial',
'Farming-fishing', 'Handlers-cleaners', 'Machine-op-inspct',
'Other-service', 'Priv-house-serv', 'Prof-specialty', 'Protective-serv',
'Sales', 'Tech-support', 'Transport-moving'
]),
'relationship': pd.api.types.CategoricalDtype(categories=[
'Husband', 'Not-in-family', 'Other-relative', 'Own-child', 'Unmarried',
'Wife'
]),
'race': pd.api.types.CategoricalDtype(categories=[
'Amer-Indian-Eskimo', 'Asian-Pac-Islander', 'Black', 'Other', 'White'
]),
'native_country': pd.api.types.CategoricalDtype(categories=[
'Cambodia', 'Canada', 'China', 'Columbia', 'Cuba', 'Dominican-Republic',
'Ecuador', 'El-Salvador', 'England', 'France', 'Germany', 'Greece',
'Guatemala', 'Haiti', 'Holand-Netherlands', 'Honduras', 'Hong', 'Hungary',
'India', 'Iran', 'Ireland', 'Italy', 'Jamaica', 'Japan', 'Laos', 'Mexico',
'Nicaragua', 'Outlying-US(Guam-USVI-etc)', 'Peru', 'Philippines', 'Poland',
'Portugal', 'Puerto-Rico', 'Scotland', 'South', 'Taiwan', 'Thailand',
'Trinadad&Tobago', 'United-States', 'Vietnam', 'Yugoslavia'
]),
'income_bracket': pd.api.types.CategoricalDtype(categories=[
'<=50K', '>50K'
])
}
# This is the label (target) we want to predict.
_LABEL_COLUMN = 'income_bracket'
### Hyperparameters for training ###
# This the training batch size
BATCH_SIZE = 128
# This is the number of epochs (passes over the full training data)
NUM_EPOCHS = 20
# Define learning rate.
LEARNING_RATE = .01
Scaricare e pre-elaborare i dati
Scarica i dati
A questo punto, definisci le funzioni per scaricare i dati di addestramento e valutazione. Queste funzioni correggere anche le irregolarità minori nella formattazione dei dati.
def _download_and_clean_file(filename, url):
"""Downloads data from url, and makes changes to match the CSV format.
The CSVs may use spaces after the comma delimters (non-standard) or include
rows which do not represent well-formed examples. This function strips out
some of these problems.
Args:
filename: filename to save url to
url: URL of resource to download
"""
temp_file, _ = urllib.request.urlretrieve(url)
with tf.gfile.Open(temp_file, 'r') as temp_file_object:
with tf.gfile.Open(filename, 'w') as file_object:
for line in temp_file_object:
line = line.strip()
line = line.replace(', ', ',')
if not line or ',' not in line:
continue
if line[-1] == '.':
line = line[:-1]
line += '\n'
file_object.write(line)
tf.gfile.Remove(temp_file)
def download(data_dir):
"""Downloads census data if it is not already present.
Args:
data_dir: directory where we will access/save the census data
"""
tf.gfile.MakeDirs(data_dir)
training_file_path = os.path.join(data_dir, TRAINING_FILE)
if not tf.gfile.Exists(training_file_path):
_download_and_clean_file(training_file_path, TRAINING_URL)
eval_file_path = os.path.join(data_dir, EVAL_FILE)
if not tf.gfile.Exists(eval_file_path):
_download_and_clean_file(eval_file_path, EVAL_URL)
return training_file_path, eval_file_path
Utilizza queste funzioni per scaricare i dati per l'addestramento e verificare di avere File CSV per l'addestramento e la valutazione:
training_file_path, eval_file_path = download(DATA_DIR)
Quindi, carica questi file utilizzando Pandas ed esamina i dati:
# This census data uses the value '?' for fields (column) that are missing data.
# We use na_values to find ? and set it to NaN values.
# https://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html
train_df = pd.read_csv(training_file_path, names=_CSV_COLUMNS, na_values='?')
eval_df = pd.read_csv(eval_file_path, names=_CSV_COLUMNS, na_values='?')
La tabella seguente mostra un estratto dei dati (train_df.head()
) prima
pre-elaborazione:
età | classe di lavoro | fnlwgt | education | education_num | marital_status | professione | relazione | gruppo etnico | genere | capital_gain | perdita_capitale | hours_per_week | native_country | income_bracket | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 39 | Stato-gov | 77516 | Lauree | 13 | Mai sposato | Adm-clericale | Non fa parte del gruppo Famiglia | Bianco | Uomo | 2174 | 0 | 40 | Stati Uniti | <= 50.000 |
1 | 50 | Self-emp-not-inc | 83311 | Lauree | 13 | Coniuge/coniuge sposata | Esecutivo-manageriale | Marito | Bianco | Uomo | 0 | 0 | 13 | Stati Uniti | <= 50.000 |
2 | 38 | Privato | 215646 | HS-grad | 9 | Divorziato/a | Addetti alle pulizie dei gestori | Non fa parte del gruppo Famiglia | Bianco | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
3 | 53 | Privato | 234721 | 11 | 7 | Married-civ-spouse | Gestori-pulitori | Marito | Nero | Uomo | 0 | 0 | 40 | Stati Uniti | <= 50.000 |
4 | 28 | Privato | 338409 | Lauree | 13 | Married-civ-spouse | Specializzazione | Moglie | Nero | Donna | 0 | 0 | 40 | Cuba | <= 50.000 |
Pre-elabora i dati
Il primo passaggio di pre-elaborazione rimuove alcune funzionalità dai dati e converte le funzionalità categoriche in valori numerici per l'utilizzo con Keras.
Scopri di più sulle funzionalità ingegneristica e pregiudizi dei dati.
UNUSED_COLUMNS = ['fnlwgt', 'education', 'gender']
def preprocess(dataframe):
"""Converts categorical features to numeric. Removes unused columns.
Args:
dataframe: Pandas dataframe with raw data
Returns:
Dataframe with preprocessed data
"""
dataframe = dataframe.drop(columns=UNUSED_COLUMNS)
# Convert integer valued (numeric) columns to floating point
numeric_columns = dataframe.select_dtypes(['int64']).columns
dataframe[numeric_columns] = dataframe[numeric_columns].astype('float32')
# Convert categorical columns to numeric
cat_columns = dataframe.select_dtypes(['object']).columns
dataframe[cat_columns] = dataframe[cat_columns].apply(lambda x: x.astype(
_CATEGORICAL_TYPES[x.name]))
dataframe[cat_columns] = dataframe[cat_columns].apply(lambda x: x.cat.codes)
return dataframe
prepped_train_df = preprocess(train_df)
prepped_eval_df = preprocess(eval_df)
La tabella seguente (prepped_train_df.head()
) mostra in che modo la pre-elaborazione ha modificato
i dati. Tieni presente in particolare che income_bracket
, l'etichetta che stai addestrando il modello a prevedere, è passata da <=50K
e >50K
a 0
e
1
:
età | classe di lavoro | education_num | marital_status | professione | relazione | gruppo etnico | capital_gain | perdita_capitale | hours_per_week | native_country | income_bracket | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 39,0 | 6 | 13,0 | 4 | 0 | 1 | 4 | 2174,0 | 0.0 | 40,0 | 38 | 0 |
1 | 50,0 | 5 | 13,0 | 2 | 3 | 0 | 4 | 0.0 | 0.0 | 13,0 | 38 | 0 |
2 | 38,0 | 3 | 9,0 | 0 | 5 | 1 | 4 | 0.0 | 0.0 | 40,0 | 38 | 0 |
3 | 53,0 | 3 | 7,0 | 2 | 5 | 0 | 2 | 0.0 | 0.0 | 40,0 | 38 | 0 |
4 | 28,0 | 3 | 13,0 | 2 | 9 | 5 | 2 | 0.0 | 0.0 | 40,0 | 4 | 0 |
Successivamente, separa i dati in elementi ("x") ed etichette ("y") e rimodella gli array di etichette in un formato da utilizzare in seguito con tf.data.Dataset
:
# Split train and test data with labels.
# The pop() method will extract (copy) and remove the label column from the dataframe
train_x, train_y = prepped_train_df, prepped_train_df.pop(_LABEL_COLUMN)
eval_x, eval_y = prepped_eval_df, prepped_eval_df.pop(_LABEL_COLUMN)
# Reshape label columns for use with tf.data.Dataset
train_y = np.asarray(train_y).astype('float32').reshape((-1, 1))
eval_y = np.asarray(eval_y).astype('float32').reshape((-1, 1))
Scalare i dati di addestramento in modo che ogni colonna di caratteristiche numeriche abbia una media pari a 0 e una la deviazione standard di 1 può migliorare modello.
In un sistema di produzione, potresti voler salvare le medie e le deviazioni standard del set di addestramento e utilizzarli per eseguire una trasformazione identica al momento della previsione. Per praticità in questo esercizio, combinare i dati di addestramento e valutazione per scalarli tutti:
def standardize(dataframe):
"""Scales numerical columns using their means and standard deviation to get
z-scores: the mean of each numerical column becomes 0, and the standard
deviation becomes 1. This can help the model converge during training.
Args:
dataframe: Pandas dataframe
Returns:
Input dataframe with the numerical columns scaled to z-scores
"""
dtypes = list(zip(dataframe.dtypes.index, map(str, dataframe.dtypes)))
# Normalize numeric columns.
for column, dtype in dtypes:
if dtype == 'float32':
dataframe[column] -= dataframe[column].mean()
dataframe[column] /= dataframe[column].std()
return dataframe
# Join train_x and eval_x to normalize on overall means and standard
# deviations. Then separate them again.
all_x = pd.concat([train_x, eval_x], keys=['train', 'eval'])
all_x = standardize(all_x)
train_x, eval_x = all_x.xs('train'), all_x.xs('eval')
La tabella successiva (train_x.head()
) mostra come sono i dati completamente pre-elaborate:
età | classe di lavoro | education_num | marital_status | professione | relazione | gruppo etnico | capital_gain | perdita_capitale | hours_per_week | native_country | |
---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0,025997 | 6 | 1,136580 | 4 | 0 | 1 | 4 | 0,146933 | -0,217132 | -0,034039 | 38 |
1 | 0,828278 | 5 | 1,136580 | 2 | 3 | 0 | 4 | -0.144792 | -0,217132 | -2,212964 | 38 |
2 | -0,046938 | 3 | - 0,419265 | 0 | 5 | 1 | 4 | -0.144792 | -0,217132 | -0,034039 | 38 |
3 | 1,047082 | 3 | -1,197188 | 2 | 5 | 0 | 2 | -0.144792 | -0,217132 | -0,034039 | 38 |
4 | -0,776285 | 3 | 1,136580 | 2 | 9 | 5 | 2 | -0.144792 | -0,217132 | -0,034039 | 4 |
Progetta e addestra il modello
Creare set di dati di addestramento e convalida
Creare una funzione di input per convertire caratteristiche ed etichette in un
tf.data.Dataset
per addestramento o valutazione:
def input_fn(features, labels, shuffle, num_epochs, batch_size):
"""Generates an input function to be used for model training.
Args:
features: numpy array of features used for training or inference
labels: numpy array of labels for each example
shuffle: boolean for whether to shuffle the data or not (set True for
training, False for evaluation)
num_epochs: number of epochs to provide the data for
batch_size: batch size for training
Returns:
A tf.data.Dataset that can provide data to the Keras model for training or
evaluation
"""
if labels is None:
inputs = features
else:
inputs = (features, labels)
dataset = tf.data.Dataset.from_tensor_slices(inputs)
if shuffle:
dataset = dataset.shuffle(buffer_size=len(features))
# We call repeat after shuffling, rather than before, to prevent separate
# epochs from blending together.
dataset = dataset.repeat(num_epochs)
dataset = dataset.batch(batch_size)
return dataset
Quindi, crea questi set di dati di addestramento e valutazione.Utilizza il NUM_EPOCHS
e BATCH_SIZE
iperparametri definiti in precedenza per definire le modalità di
fornisce esempi al modello durante l'addestramento. Configurare la convalida
set di dati per fornire tutti i relativi esempi in un solo batch, per un'unica fase di convalida
al termine di ogni epoca di addestramento.
# Pass a numpy array by using DataFrame.values
training_dataset = input_fn(features=train_x.values,
labels=train_y,
shuffle=True,
num_epochs=NUM_EPOCHS,
batch_size=BATCH_SIZE)
num_eval_examples = eval_x.shape[0]
# Pass a numpy array by using DataFrame.values
validation_dataset = input_fn(features=eval_x.values,
labels=eval_y,
shuffle=False,
num_epochs=NUM_EPOCHS,
batch_size=num_eval_examples)
Progettare un modello Keras
Progetta la tua rete neurale utilizzando l'API Keras Sequential.
Questa rete neurale profonda (DNN, Deep Neural Network, rete neurale profonda) ha diversi strati nascosti e l'ultimo utilizza una funzione di attivazione sigmoidea per restituire un valore compreso tra 0 e 1:
- Il livello di input ha 100 unità che utilizzano la funzione di attivazione ReLU.
- Lo strato nascosto ha 75 unità che utilizzano la funzione di attivazione ReLU.
- Lo strato nascosto ha 50 unità che utilizzano la funzione di attivazione ReLU.
- Lo strato nascosto ha 25 unità che utilizzano la funzione di attivazione ReLU.
- Lo strato di output ha 1 unità che utilizza una funzione di attivazione sigmoide.
- L'ottimizzatore utilizza la funzione di perdita di entropia incrociata binaria, che è appropriata per un problema di classificazione binaria come questo.
Se vuoi, puoi modificare questi strati per provare a migliorare il modello:
def create_keras_model(input_dim, learning_rate):
"""Creates Keras Model for Binary Classification.
Args:
input_dim: How many features the input has
learning_rate: Learning rate for training
Returns:
The compiled Keras model (still needs to be trained)
"""
Dense = tf.keras.layers.Dense
model = tf.keras.Sequential(
[
Dense(100, activation=tf.nn.relu, kernel_initializer='uniform',
input_shape=(input_dim,)),
Dense(75, activation=tf.nn.relu),
Dense(50, activation=tf.nn.relu),
Dense(25, activation=tf.nn.relu),
Dense(1, activation=tf.nn.sigmoid)
])
# Custom Optimizer:
# https://www.tensorflow.org/api_docs/python/tf/train/RMSPropOptimizer
optimizer = tf.keras.optimizers.RMSprop(
lr=learning_rate)
# Compile Keras model
model.compile(
loss='binary_crossentropy', optimizer=optimizer, metrics=['accuracy'])
return model
Quindi, crea l'oggetto di modello Keras:
num_train_examples, input_dim = train_x.shape
print('Number of features: {}'.format(input_dim))
print('Number of examples: {}'.format(num_train_examples))
keras_model = create_keras_model(
input_dim=input_dim,
learning_rate=LEARNING_RATE)
L'esame del modello con keras_model.summary()
dovrebbe restituire qualcosa di simile a quanto segue:
Number of features: 11 Number of examples: 32561 WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow/python/ops/resource_variable_ops.py:435: colocate_with (from tensorflow.python.framework.ops) is deprecated and will be removed in a future version. Instructions for updating: Colocations handled automatically by placer. _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense (Dense) (None, 100) 1200 _________________________________________________________________ dense_1 (Dense) (None, 75) 7575 _________________________________________________________________ dense_2 (Dense) (None, 50) 3800 _________________________________________________________________ dense_3 (Dense) (None, 25) 1275 _________________________________________________________________ dense_4 (Dense) (None, 1) 26 ================================================================= Total params: 13,876 Trainable params: 13,876 Non-trainable params: 0 _________________________________________________________________
Addestra e valuta il modello
Definisci un decadimento del tasso di apprendimento per incoraggiare i parametri del modello a apportare modifiche più piccole man mano che l'addestramento procede:
# Setup Learning Rate decay.
lr_decay_cb = tf.keras.callbacks.LearningRateScheduler(
lambda epoch: LEARNING_RATE + 0.02 * (0.5 ** (1 + epoch)),
verbose=True)
# Setup TensorBoard callback.
JOB_DIR = os.getenv('JOB_DIR')
tensorboard_cb = tf.keras.callbacks.TensorBoard(
os.path.join(JOB_DIR, 'keras_tensorboard'),
histogram_freq=1)
Infine, addestrare il modello. Fornisci il steps_per_epoch
appropriato per
da addestrare sull'intero set di dati di addestramento (con BATCH_SIZE
esempi per
passaggio) durante ogni epoca. E chiedi al modello di calcolare l'accuratezza di convalida con un unico grande batch di convalida al termine di ogni epoca.
history = keras_model.fit(training_dataset,
epochs=NUM_EPOCHS,
steps_per_epoch=int(num_train_examples/BATCH_SIZE),
validation_data=validation_dataset,
validation_steps=1,
callbacks=[lr_decay_cb, tensorboard_cb],
verbose=1)
L'avanzamento dell'addestramento potrebbe avere il seguente aspetto:
WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow/python/ops/math_ops.py:3066: to_int32 (from tensorflow.python.ops.math_ops) is deprecated and will be removed in a future version. Instructions for updating: Use tf.cast instead. Epoch 00001: LearningRateScheduler reducing learning rate to 0.02. Epoch 1/20 254/254 [==============================] - 1s 5ms/step - loss: 0.6986 - acc: 0.7893 - val_loss: 0.3894 - val_acc: 0.8329 Epoch 00002: LearningRateScheduler reducing learning rate to 0.015. Epoch 2/20 254/254 [==============================] - 1s 4ms/step - loss: 0.3574 - acc: 0.8335 - val_loss: 0.3861 - val_acc: 0.8131 ... Epoch 00019: LearningRateScheduler reducing learning rate to 0.010000038146972657. Epoch 19/20 254/254 [==============================] - 1s 4ms/step - loss: 0.3239 - acc: 0.8512 - val_loss: 0.3334 - val_acc: 0.8496 Epoch 00020: LearningRateScheduler reducing learning rate to 0.010000019073486329. Epoch 20/20 254/254 [==============================] - 1s 4ms/step - loss: 0.3279 - acc: 0.8504 - val_loss: 0.3174 - val_acc: 0.8523
Visualizza l'addestramento ed esporta il modello addestrato.
Visualizza l'addestramento
Importa matplotlib
per visualizzare l'apprendimento del modello durante il periodo di addestramento.
Se necessario, installala prima con pip install matplotlib
.
from matplotlib import pyplot as plt
Tracciare la perdita (entropia incrociata binaria) e l'accuratezza del modello, misurate alla fine di ogni epoca di addestramento:
# Visualize History for Loss.
plt.title('Keras model loss')
plt.plot(history.history['loss'])
plt.plot(history.history['val_loss'])
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['training', 'validation'], loc='upper right')
plt.show()
# Visualize History for Accuracy.
plt.title('Keras model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.plot(history.history['acc'])
plt.plot(history.history['val_acc'])
plt.legend(['training', 'validation'], loc='lower right')
plt.show()
Nel tempo, la perdita diminuisce e la precisione aumenta. Ma convergono a un livello stabile? Esistono grandi differenze tra le metriche di addestramento e quelle di convalida (un segno di overfitting)?
Scopri come migliorare il tuo machine learning modello. Poi, non esitare ad adeguare gli iperparametri o l'architettura del modello e ad addestrare nuovamente il modello.
Esporta il modello per la pubblicazione
Utilizza tf.contrib.saved_model.save_keras_model per esportare una directory SavedModel di TensorFlow. Questo è il formato richiesto da AI Platform quando crei una risorsa per la versione del modello.
Poiché non tutti gli ottimizzatori possono essere esportati nel formato SavedModel, potresti visualizzare degli avvisi durante il processo di esportazione. Se esporti correttamente una pubblicazione AI Platform può utilizzare SavedModel per fornire previsioni.
# Export the model to a local SavedModel directory
export_path = tf.contrib.saved_model.save_keras_model(keras_model, 'keras_export')
print("Model exported to: ", export_path)
WARNING: The TensorFlow contrib module will not be included in TensorFlow 2.0. For more information, please see: * https://github.com/tensorflow/community/blob/master/rfcs/20180907-contrib-sunset.md * https://github.com/tensorflow/addons If you depend on functionality not listed there, please file an issue. WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.RMSprop object at 0x7fc198c4e400>) but is being saved in TensorFlow format with `save_weights`. The model's weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer's state will not be saved. Consider using a TensorFlow optimizer from `tf.train`. WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/network.py:1436: update_checkpoint_state (from tensorflow.python.training.checkpoint_management) is deprecated and will be removed in a future version. Instructions for updating: Use tf.train.CheckpointManager to manage checkpoints rather than manually editing the Checkpoint proto. WARNING:tensorflow:Model was compiled with an optimizer, but the optimizer is not from `tf.train` (e.g. `tf.train.AdagradOptimizer`). Only the serving graph was exported. The train and evaluate graphs were not added to the SavedModel. WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow/python/saved_model/signature_def_utils_impl.py:205: build_tensor_info (from tensorflow.python.saved_model.utils_impl) is deprecated and will be removed in a future version. Instructions for updating: This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.utils.build_tensor_info or tf.compat.v1.saved_model.build_tensor_info. INFO:tensorflow:Signatures INCLUDED in export for Classify: None INFO:tensorflow:Signatures INCLUDED in export for Regress: None INFO:tensorflow:Signatures INCLUDED in export for Predict: ['serving_default'] INFO:tensorflow:Signatures INCLUDED in export for Train: None INFO:tensorflow:Signatures INCLUDED in export for Eval: None INFO:tensorflow:No assets to save. INFO:tensorflow:No assets to write. INFO:tensorflow:SavedModel written to: keras_export/1553710367/saved_model.pb Model exported to: b'keras_export/1553710367'
Puoi esportare una directory SavedModel nel file system locale o in Cloud Storage, a condizione che tu disponga delle autorizzazioni necessarie. Nel tuo
ambiente attuale, hai concesso l'accesso a Cloud Storage
l'autenticazione dell'account Google Cloud e l'impostazione
GOOGLE_APPLICATION_CREDENTIALS
variabile di ambiente. I job di addestramento della piattaforma AI possono anche esportare direttamente in Cloud Storage, perché gli account di servizio della piattaforma AI hanno accesso ai bucket Cloud Storage nel proprio progetto.
Prova a esportare direttamente in Cloud Storage:
JOB_DIR = os.getenv('JOB_DIR')
# Export the model to a SavedModel directory in Cloud Storage
export_path = tf.contrib.saved_model.save_keras_model(keras_model, JOB_DIR + '/keras_export')
print("Model exported to: ", export_path)
WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.RMSprop object at 0x7fc198c4e400>) but is being saved in TensorFlow format with `save_weights`. The model's weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer's state will not be saved. Consider using a TensorFlow optimizer from `tf.train`. WARNING:tensorflow:Model was compiled with an optimizer, but the optimizer is not from `tf.train` (e.g. `tf.train.AdagradOptimizer`). Only the serving graph was exported. The train and evaluate graphs were not added to the SavedModel. INFO:tensorflow:Signatures INCLUDED in export for Classify: None INFO:tensorflow:Signatures INCLUDED in export for Regress: None INFO:tensorflow:Signatures INCLUDED in export for Predict: ['serving_default'] INFO:tensorflow:Signatures INCLUDED in export for Train: None INFO:tensorflow:Signatures INCLUDED in export for Eval: None INFO:tensorflow:No assets to save. INFO:tensorflow:No assets to write. INFO:tensorflow:SavedModel written to: gs://your-bucket-name/keras-job-dir/keras_export/1553710379/saved_model.pb Model exported to: b'gs://your-bucket-name/keras-job-dir/keras_export/1553710379'
Ora puoi eseguire il deployment di questo modello su AI Platform e pubblicare le previsioni seguendo i passaggi descritti nella guida introduttiva alla previsione.
Pulizia
Per eseguire la pulizia di tutte le risorse Google Cloud utilizzate in questo progetto, puoi eliminare l'account Google Cloud progetto che hai usato per il tutorial.
In alternativa, puoi ripulire le singole risorse eseguendo i seguenti comandi:
# Delete model version resource
gcloud ai-platform versions delete $MODEL_VERSION --quiet --model $MODEL_NAME
# Delete model resource
gcloud ai-platform models delete $MODEL_NAME --quiet
# Delete Cloud Storage objects that were created
gsutil -m rm -r $JOB_DIR
# If training job is still running, cancel it
gcloud ai-platform jobs cancel $JOB_NAME --quiet
Se il bucket Cloud Storage non contiene altri oggetti e
vuoi eliminarlo, esegui gsutil rm -r gs://$BUCKET_NAME
.
Passaggi successivi
- Visualizza il codice di addestramento completo utilizzato in questa guida, che struttura il codice in modo da accettare iperparametri personalizzati come flag della riga di comando.
- Scopri di più sul codice di imballaggio per un job di addestramento di AI Platform.
- Scopri di più sul deployment di un modello per generare previsioni.