Tutorial: esegui l'inferenza in una tabella di oggetti utilizzando un modello di classificazione

Questo tutorial mostra come creare una tabella di oggetti in base alle immagini di un set di dati pubblico, quindi eseguire l'inferenza su questa tabella di oggetti utilizzando il modello ResNet 50.

Il modello ResNet 50

Il modello ResNet 50 analizza i file immagine e restituisce un batch di vettori che rappresentano la probabilità che un'immagine appartenga alla classe corrispondente (logit). Per ulteriori informazioni, consulta la sezione Utilizzo nella pagina di TensorFlow Hub del modello.

L'input del modello ResNet 50 prende un tensore di DType = float32 nella forma [-1, 224, 224, 3]. L'output è un array di tensori di tf.float32 nella forma[-1, 1024].

Autorizzazioni obbligatorie

  • Per creare il set di dati, devi disporre dell'autorizzazione bigquery.datasets.create.
  • Per creare la risorsa di connessione, devi disporre delle seguenti autorizzazioni:

    • bigquery.connections.create
    • bigquery.connections.get
  • Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:

    • resourcemanager.projects.setIamPolicy
  • Per creare la tabella degli oggetti, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.create
    • bigquery.tables.update
    • bigquery.connections.delegate
  • Per creare il bucket, devi disporre dell'autorizzazione storage.buckets.create.

  • Per caricare il modello su Cloud Storage, devi disporre delle autorizzazioni storage.objects.create e storage.objects.get.

  • Per caricare il modello in BigQuery ML, sono necessarie le seguenti autorizzazioni:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
  • Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.getData nella tabella dell'oggetto
    • bigquery.models.getData sul modello
    • bigquery.jobs.create

Costi

In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:

  • BigQuery: You incur storage costs for the object table you create in BigQuery.
  • BigQuery ML: You incur costs for the model you create and the inference you perform in BigQuery ML.
  • Cloud Storage: You incur costs for the objects you store in Cloud Storage.

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Per ulteriori informazioni sui prezzi dello spazio di archiviazione di BigQuery, consulta la sezione Prezzi dello spazio di archiviazione nella documentazione di BigQuery.

Per ulteriori informazioni sui prezzi di BigQuery ML, consulta Prezzi di BigQuery ML in documentazione di BigQuery.

Per ulteriori informazioni sui prezzi di Cloud Storage, consulta Prezzi di Cloud Storage.

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery and BigQuery Connection API APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery and BigQuery Connection API APIs.

    Enable the APIs

Crea un set di dati

Crea un set di dati denominato resnet_inference_test:

SQL

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Editor, esegui la seguente istruzione SQL:

    CREATE SCHEMA `PROJECT_ID.resnet_inference_test`;

    Sostituisci PROJECT_ID con l'ID progetto.

bq

  1. Nella console Google Cloud, attiva Cloud Shell.

    Attivare Cloud Shell

  2. Esegui l' Comando bq mk per creare il set di dati:

    bq mk --dataset --location=us PROJECT_ID:resnet_inference_test

    Sostituisci PROJECT_ID con l'ID progetto.

Crea una connessione

Crea una connessione denominata lake-connection:

Console

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Fai clic su Aggiungi dati e poi su Origine dati esterna.

  3. Nell'elenco Tipo di connessione, seleziona BigLake e funzioni remote (risorsa cloud).

  4. Nel campo ID connessione, digita lake-connection.

  5. Fai clic su Crea connessione.

  6. Nel riquadro Informazioni sulla connessione, copia il valore dalla ID account di servizio e salvalo da qualche parte. Ti serve le informazioni per concedere autorizzazioni all'infrastruttura l'account di servizio.

bq

  1. In Cloud Shell, esegui il comando bq mk per creare la connessione:

    bq mk --connection --location=us --connection_type=CLOUD_RESOURCE \
    lake-connection
    
  2. Esegui il comando bq show per recuperare le informazioni sulla connessione:

    bq show --connection us.lake-connection
    
  3. Dalla colonna properties, copia il valore della proprietà serviceAccountId e salvalo da qualche parte. Queste informazioni sono necessarie per concedere le autorizzazioni all'account di servizio della connessione.

Crea un bucket Cloud Storage

Crea un bucket Cloud Storage per contenere i file del modello.

Concedi le autorizzazioni all'account di servizio della connessione

Console

  1. Vai alla pagina IAM e amministrazione.

    Vai a IAM e amministrazione

  2. Fai clic su Concedi l'accesso.

    Viene visualizzata la finestra di dialogo Aggiungi entità.

  3. Nel campo Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.

  4. Nel campo Seleziona un ruolo, seleziona Cloud Storage e poi Visualizzatore oggetti Storage.

  5. Fai clic su Salva.

gcloud

In Cloud Shell, esegui il comando gcloud storage buckets add-iam-policy-binding:

gcloud storage buckets add-iam-policy-binding gs://BUCKET_NAME \
--member=serviceAccount:MEMBER \
--role=roles/storage.objectViewer

Sostituisci MEMBER con l'ID account di servizio che hai copiato in precedenza. Sostituisci BUCKET_NAME con il nome del bucket che hai creato in precedenza.

Per ulteriori informazioni, consulta Aggiungere un principale a un criterio a livello di bucket.

Crea una tabella di oggetti

Crea una tabella di oggetti denominata vision_images in base ai file immagine nel bucket pubblico gs://cloud-samples-data/vision:

SQL

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Editor, esegui il seguente statement SQL:

    CREATE EXTERNAL TABLE resnet_inference_test.vision_images
    WITH CONNECTION `us.lake-connection`
    OPTIONS(
      object_metadata = 'SIMPLE',
      uris = ['gs://cloud-samples-data/vision/*.jpg']
    );

bq

In Cloud Shell, esegui il comando bq mk per creare la connessione:

bq mk --table \
--external_table_definition='gs://cloud-samples-data/vision/*.jpg@us.lake-connection' \
--object_metadata=SIMPLE \
resnet_inference_test.vision_images

Carica il modello in Cloud Storage

Ottieni i file del modello e rendili disponibili in Cloud Storage:

  1. Scarica il modello ResNet 50 sulla tua macchina locale. In questo modo, avrai un saved_model.pb file e una cartella variables per il modello.
  2. Carica il file saved_model.pb e la cartella variables al bucket che hai creato in precedenza.

Carica il modello in BigQuery ML

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Editor, esegui la seguente istruzione SQL:

    CREATE MODEL `resnet_inference_test.resnet`
    OPTIONS(
      model_type = 'TENSORFLOW',
      model_path = 'gs://BUCKET_NAME/*');

    Sostituisci BUCKET_NAME con il nome del bucket che hai creato in precedenza.

Ispeziona il modello

Controlla il modello caricato per vedere quali sono i campi di input e di output:

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Explorer, espandi il progetto, il set di dati resnet_inference_test e il nodo Modelli.

  3. Fai clic sul modello resnet.

  4. Nel riquadro del modello visualizzato, fai clic sulla scheda Schema.

  5. Esamina la sezione Etichette. Identifica i campi di output modello. In questo caso, il valore del nome del campo activation_49.

  6. Esamina la sezione Funzionalità. Identifica i campi che devono essere inseriti nel modello. Puoi farne riferimento nell'istruzione SELECT per la funzione ML.DECODE_IMAGE. In questo caso, il valore del nome del campo è input_1.

Esegui l'inferenza

Esegui l'inferenza sulla tabella di oggetti vision_images utilizzando il modello resnet:

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Editor, esegui il seguente statement SQL:

    SELECT *
    FROM ML.PREDICT(
      MODEL `resnet_inference_test.resnet`,
      (SELECT uri, ML.RESIZE_IMAGE(ML.DECODE_IMAGE(data), 224, 224, FALSE) AS input_1
      FROM resnet_inference_test.vision_images)
    );

    I risultati dovrebbero essere simili ai seguenti:

    -------------------------------------------------------------------------------------------------------------------------------------
    | activation_49           | uri                                                                                           | input_1 |
    ------------------------------------------------------------------------------------------------------------------------------------
    | 1.0254175464297077e-07  | gs://cloud-samples-data/vision/automl_classification/flowers/daisy/21652746_cc379e0eea_m.jpg  | 0.0     |
    ------------------------------------------------------------------------------------------------------------------------------------
    | 2.1671139620593749e-06  |                                                                                               | 0.0     |
    --------------------------                                                                                               -----------
    | 8.346052027263795e-08   |                                                                                               | 0.0     |
    --------------------------                                                                                               -----------
    | 1.159310958342985e-08   |                                                                                               | 0.0     |
    ------------------------------------------------------------------------------------------------------------------------------------
    

Esegui la pulizia

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.