Tutorial: esegui l'inferenza in una tabella di oggetti utilizzando un modello di classificazione
Questo tutorial mostra come creare una tabella di oggetti in base alle immagini di un set di dati pubblico, quindi eseguire l'inferenza su questa tabella di oggetti utilizzando il modello ResNet 50.
Il modello ResNet 50
Il modello ResNet 50 analizza i file immagine e genera un batch di vettori che rappresentano la probabilità che un'immagine appartenga alla classe corrispondente (logits). Per ulteriori informazioni, consulta la sezione Utilizzo nella pagina di TensorFlow Hub del modello.
L'input del modello ResNet 50 accetta un tensore di
DType
=
float32
nella forma [-1, 224, 224, 3]
. L'output è un array di
tensori di tf.float32
nella forma[-1, 1024]
.
Autorizzazioni obbligatorie
- Per creare il set di dati, devi disporre dell'autorizzazione
bigquery.datasets.create
. Per creare la risorsa di connessione, devi disporre delle seguenti autorizzazioni:
bigquery.connections.create
bigquery.connections.get
Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:
resourcemanager.projects.setIamPolicy
Per creare la tabella degli oggetti, devi disporre delle seguenti autorizzazioni:
bigquery.tables.create
bigquery.tables.update
bigquery.connections.delegate
Per creare il bucket, devi disporre dell'autorizzazione
storage.buckets.create
.Per caricare il modello su Cloud Storage, devi disporre delle autorizzazioni
storage.objects.create
estorage.objects.get
.Per caricare il modello in BigQuery ML, sono necessarie le seguenti autorizzazioni:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:
bigquery.tables.getData
nella tabella degli oggettibigquery.models.getData
sul modellobigquery.jobs.create
Costi
In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:
- BigQuery: You incur storage costs for the object table you create in BigQuery.
- BigQuery ML: You incur costs for the model you create and the inference you perform in BigQuery ML.
- Cloud Storage: You incur costs for the objects you store in Cloud Storage.
Per generare una stima dei costi in base all'utilizzo previsto,
utilizza il Calcolatore prezzi.
Per ulteriori informazioni sui prezzi dello spazio di archiviazione di BigQuery, consulta la sezione Prezzi dello spazio di archiviazione nella documentazione di BigQuery.
Per ulteriori informazioni sui prezzi di BigQuery ML, consulta Prezzi di BigQuery ML nella documentazione di BigQuery.
Per maggiori informazioni sui prezzi di Cloud Storage, consulta la pagina Prezzi di Cloud Storage.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and BigQuery Connection API APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and BigQuery Connection API APIs.
Crea un set di dati
Crea un set di dati denominato resnet_inference_test
:
SQL
Vai alla pagina BigQuery.
Nel riquadro Editor, esegui il seguente istruzione SQL:
CREATE SCHEMA `PROJECT_ID.resnet_inference_test`;
Sostituisci
PROJECT_ID
con l'ID progetto.
bq
Nella console Google Cloud, attiva Cloud Shell.
Esegui il comando
bq mk
per creare il set di dati:bq mk --dataset --location=us PROJECT_ID:resnet_inference_test
Sostituisci
PROJECT_ID
con l'ID progetto.
Crea una connessione
Crea una connessione denominata lake-connection
:
Console
Vai alla pagina BigQuery.
Fai clic su
Aggiungi e poi su Origine dati esterna.Nell'elenco Tipo di connessione, seleziona BigLake e funzioni remote (risorsa Cloud).
Nel campo ID connessione, digita
lake-connection
.Fai clic su Crea connessione.
Nel riquadro Informazioni sulla connessione, copia il valore dal campo ID account di servizio e salvalo da qualche parte. Queste informazioni sono necessarie per concedere le autorizzazioni all'account di servizio della connessione.
bq
In Cloud Shell, esegui il comando
bq mk
per creare la connessione:bq mk --connection --location=us --connection_type=CLOUD_RESOURCE \ lake-connection
Esegui il comando
bq show
per recuperare le informazioni sulla connessione:bq show --connection us.lake-connection
Dalla colonna
properties
, copia il valore della proprietàserviceAccountId
e salvalo da qualche parte. Queste informazioni sono necessarie per concedere le autorizzazioni all'account di servizio della connessione.
Crea un bucket Cloud Storage
Crea un bucket Cloud Storage per contenere i file del modello.
Concedi le autorizzazioni all'account di servizio della connessione
Console
Vai alla pagina IAM e amministrazione.
Fai clic su Concedi l'accesso.
Viene visualizzata la finestra di dialogo Aggiungi entità.
Nel campo Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.
Nel campo Seleziona un ruolo, seleziona Cloud Storage e poi Visualizzatore oggetti Storage.
Fai clic su Salva.
gcloud
In Cloud Shell, esegui il
comando gcloud storage buckets add-iam-policy-binding
:
gcloud storage buckets add-iam-policy-binding gs://BUCKET_NAME \ --member=serviceAccount:MEMBER \ --role=roles/storage.objectViewer
Sostituisci MEMBER
con l'ID account di servizio che hai copiato in precedenza. Sostituisci BUCKET_NAME
con il nome
del bucket che hai creato in precedenza.
Per ulteriori informazioni, consulta Aggiungere un principale a un criterio a livello di bucket.
Crea una tabella di oggetti
Crea una tabella di oggetti denominata vision_images
in base ai file immagine nel bucket pubblico gs://cloud-samples-data/vision
:
SQL
Vai alla pagina BigQuery.
Nel riquadro Editor, esegui il seguente istruzione SQL:
CREATE EXTERNAL TABLE resnet_inference_test.vision_images WITH CONNECTION `us.lake-connection` OPTIONS( object_metadata = 'SIMPLE', uris = ['gs://cloud-samples-data/vision/*.jpg'] );
bq
In Cloud Shell, esegui il
comando bq mk
per creare la connessione:
bq mk --table \
--external_table_definition='gs://cloud-samples-data/vision/*.jpg@us.lake-connection' \
--object_metadata=SIMPLE \
resnet_inference_test.vision_images
Carica il modello su Cloud Storage
Recupera i file del modello e rendili disponibili in Cloud Storage:
- Scarica
il modello ResNet 50 sulla tua macchina locale. In questo modo, avrai un
saved_model.pb
file e una cartellavariables
per il modello. - Carica il file
saved_model.pb
e la cartellavariables
nel bucket che hai creato in precedenza.
Carica il modello in BigQuery ML
Vai alla pagina BigQuery.
Nel riquadro Editor, esegui il seguente istruzione SQL:
CREATE MODEL `resnet_inference_test.resnet` OPTIONS( model_type = 'TENSORFLOW', model_path = 'gs://BUCKET_NAME/*');
Sostituisci
BUCKET_NAME
con il nome del bucket che hai creato in precedenza.
Ispeziona il modello
Controlla il modello caricato per vedere quali sono i campi di input e di output:
Vai alla pagina BigQuery.
Nel riquadro Explorer, espandi il progetto, il set di dati
resnet_inference_test
e il nodo Modelli.Fai clic sul modello
resnet
.Nel riquadro del modello che si apre, fai clic sulla scheda Schema.
Guarda la sezione Etichette. Identifica i campi generati dal modello. In questo caso, il valore del nome del campo è
activation_49
.Consulta la sezione Funzionalità. Identifica i campi che devono essere inseriti nel modello. Devi fare riferimento a queste variabili nell'istruzione
SELECT
per la funzioneML.DECODE_IMAGE
. In questo caso, il valore del nome del campo èinput_1
.
Esegui l'inferenza
Esegui l'inferenza sulla tabella di oggetti vision_images
utilizzando il modello resnet
:
Vai alla pagina BigQuery.
Nel riquadro Editor, esegui il seguente istruzione SQL:
SELECT * FROM ML.PREDICT( MODEL `resnet_inference_test.resnet`, (SELECT uri, ML.RESIZE_IMAGE(ML.DECODE_IMAGE(data), 224, 224, FALSE) AS input_1 FROM resnet_inference_test.vision_images) );
I risultati dovrebbero essere simili ai seguenti:
------------------------------------------------------------------------------------------------------------------------------------- | activation_49 | uri | input_1 | —------------------------------------------------------------------------------------------------------------------------------------ | 1.0254175464297077e-07 | gs://cloud-samples-data/vision/automl_classification/flowers/daisy/21652746_cc379e0eea_m.jpg | 0.0 | —------------------------------------------------------------------------------------------------------------------------------------ | 2.1671139620593749e-06 | | 0.0 | —-------------------------- ----------- | 8.346052027263795e-08 | | 0.0 | —-------------------------- ----------- | 1.159310958342985e-08 | | 0.0 | —------------------------------------------------------------------------------------------------------------------------------------
Esegui la pulizia
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.