Crea una soluzione di analisi visiva ML con Dataflow e l'API Cloud Vision

Last reviewed 2024-05-23 UTC

In questa architettura di riferimento, scoprirai i casi d'uso, le alternative di progettazione e le considerazioni di progettazione per il deployment di una pipeline Dataflow per l'elaborazione di file di immagini con Cloud Vision e per archiviare i risultati elaborati in BigQuery. Puoi utilizzare questi risultati archiviati per l'analisi dei dati su larga scala e per addestrare modelli BigQuery ML predefiniti.

Questo documento sull'architettura di riferimento è rivolto a data engineer e data scientist.

Architettura

Il seguente diagramma illustra il flusso di sistema per questa architettura di riferimento.

Un'architettura che mostra il flusso di informazioni per i processi di importazione e attivazione, elaborazione, archiviazione e analisi.

Come mostrato nel diagramma precedente, le informazioni fluiscono nel seguente modo:

  1. Importazione e attivazione: questa è la prima fase del flusso di sistema in cui le immagini vengono importate per la prima volta nel sistema. Durante questa fase, vengono eseguite le seguenti azioni:

    1. I client caricano i file immagine in un bucket Cloud Storage.
    2. Per ogni caricamento di file, Cloud Storage invia automaticamente una notifica di inserimento pubblicando un messaggio in Pub/Sub.
  2. Elaborazione: questa fase segue immediatamente quella di importazione e attivazione. Per ogni nuova notifica di input, vengono eseguite le seguenti azioni:

    1. La pipeline Dataflow ascolta queste notifiche di input dei file, estrae i metadati dei file dal messaggio Pub/Sub e invia il riferimento del file all'API Vision per l'elaborazione.
    2. L'API Vision legge l'immagine e crea le annotazioni.
    3. La pipeline Dataflow archivia le annotazioni prodotte dall'API Vision nelle tabelle BigQuery.
  3. Archiviazione e analisi: questa è la fase finale del flusso. A questo punto, puoi eseguire le seguenti operazioni con i risultati salvati:

    1. Esegui query sulle tabelle BigQuery e analizza le annotazioni archiviate.
    2. Utilizza BigQuery ML o Vertex AI per creare modelli ed eseguire previsioni in base alle annotazioni archiviate.
    3. Esegui un'analisi aggiuntiva nella pipeline Dataflow (non riportata in questo diagramma).

Prodotti utilizzati

Questa architettura di riferimento utilizza i seguenti prodotti Google Cloud:

Casi d'uso

L'API Vision supporta più funzionalità di elaborazione, tra cui etichettatura delle immagini, rilevamento di volti e punti di riferimento, riconoscimento ottico dei caratteri, tagging dei contenuti espliciti e altre ancora. Ognuna di queste funzionalità consente diversi casi d'uso applicabili a settori diversi. Questo documento contiene alcuni semplici esempi di cosa è possibile fare con l'API Vision, ma lo spettro delle possibili applicazioni è molto ampio.

L'API Vision offre anche modelli avanzati di machine learning preaddestrati tramite API REST e RPC. Puoi assegnare etichette alle immagini e classificarle in milioni di categorie predefinite. Ti aiuta a rilevare oggetti, leggere testo stampato o scritto a mano e creare preziosi metadati nel tuo catalogo di immagini.

Questa architettura non richiede l'addestramento del modello prima di poter essere utilizzata. Se hai bisogno di un modello personalizzato addestrato sui tuoi dati specifici, Vertex AI ti consente di addestrare un modello AutoML o personalizzato per scopi di visione artificiale, come la classificazione delle immagini e il rilevamento di oggetti. In alternativa, puoi utilizzare Vertex AI Vision per un ambiente di sviluppo di applicazioni end-to-end che ti consente di creare, eseguire il deployment e gestire applicazioni di visione artificiale.

Alternative di design

Invece di archiviare le immagini in un bucket Google Cloud Storage, il processo che le produce può pubblicarle direttamente in un sistema di messaggistica, ad esempio Pub/Sub, e la pipeline Dataflow può inviare le immagini direttamente all'API Vision.

Questa alternativa di progettazione può essere una buona soluzione per i casi d'uso sensibili alla latenza in cui devi analizzare immagini di dimensioni relativamente ridotte. Pub/Sub limita la dimensione massima del messaggio a 10 MB.

Se devi elaborare in batch un numero elevato di immagini, puoi utilizzare un'API asyncBatchAnnotate progettata appositamente.

Note sul layout

Questa sezione descrive le considerazioni di progettazione per questa architettura di riferimento:

Sicurezza, privacy e conformità

Le immagini ricevute da fonti non attendibili possono contenere malware. Poiché l'API Vision non esegue nulla in base alle immagini che analizza, i malware basati su immagini non influiscono sull'API. Se devi eseguire la scansione delle immagini, modifica la pipeline Dataflow per aggiungere un passaggio di scansione. Per ottenere lo stesso risultato, puoi anche utilizzare una sottoscrizione separata all'argomento Pub/Sub e scansionare le immagini in un processo separato.

Per ulteriori informazioni, consulta Automatizzare la scansione antimalware per i file caricati su Cloud Storage.

L'API Vision utilizza Identity and Access Management (IAM) per l'autenticazione. Per accedere all'API Vision, il principale della sicurezza deve disporre del ruolo Cloud Storage > Visualizzatore oggetti Storage (roles/storage.objectViewer) per accedere al bucket contenente i file da analizzare.

Ottimizzazione dei costi

Rispetto alle altre opzioni discusse, come l'elaborazione a bassa latenza e l'elaborazione batch asincrona, questa architettura di riferimento utilizza un modo economico per elaborare le immagini nelle pipeline di streaming raggruppando le richieste API. Lo streaming diretto di immagini con latenza inferiore menzionato nella sezione Alternative di progettazione potrebbe essere più costoso a causa dei costi aggiuntivi di Pub/Sub e Dataflow. Per l'elaborazione delle immagini che non deve avvenire in pochi secondi o minuti, puoi eseguire la pipeline Dataflow in modalità batch. L'esecuzione della pipeline in modalità batch può comportare alcuni risparmi rispetto al costo dell'esecuzione della pipeline di streaming.

L'API Vision supporta l'annotazione di immagini batch asincrona offline per tutte le funzionalità. La richiesta asincrona supporta fino a 2000 immagini per batch. In risposta, l'API Vision restituisce file JSON memorizzati in un bucket Cloud Storage.

L'API Vision offre anche un insieme di funzionalità per l'analisi delle immagini. I prezzi sono calcolati per immagine e per funzionalità. Per ridurre i costi, richiedi solo le funzionalità specifiche di cui hai bisogno per la tua soluzione.

Per generare una stima dei costi in base all'utilizzo previsto, utilizza il Calcolatore prezzi.

Ottimizzazione delle prestazioni

L'API Vision è un'API che richiede molte risorse. Per questo motivo, l'elaborazione di immagini su larga scala richiede un'attenta orchestrazione delle chiamate API. La pipeline Dataflow si occupa di raggruppare le richieste API, gestire in modo corretto le eccezioni relative al raggiungimento delle quote e produrre metriche personalizzate dell'utilizzo dell'API. Queste metriche possono aiutarti a decidere se è giustificato un aumento della quota dell'API o se è necessario modificare i parametri della pipeline Dataflow per ridurre la frequenza delle richieste. Per ulteriori informazioni sull'aumento delle richieste di quota per l'API Vision, consulta Quote e limiti.

La pipeline Dataflow ha diversi parametri che possono influire sulle latenze di elaborazione. Per ulteriori informazioni su questi parametri, consulta Eseguire il deployment di una soluzione di analisi della visione basata sull'AI con Dataflow e l'API Vision.

Deployment

Per eseguire il deployment di questa architettura, consulta Eseguire il deployment di una soluzione di analisi della visione artificiale basata su ML con Dataflow e l'API Vision.

Passaggi successivi

Collaboratori

Autori:

Altri collaboratori: