In questa architettura di riferimento, scoprirai i casi d'uso, progettare alternative e considerazioni sulla progettazione quando si esegue il deployment Dataflow pipeline per elaborare i file immagine Cloud Vision e archiviare i risultati elaborati in BigQuery. Puoi utilizzare questi risultati archiviati per l'analisi dei dati su larga scala e per addestrare modelli BigQuery ML predefiniti.
Questo documento sull'architettura di riferimento è rivolto a data engineer e data scientist.
Architettura
Il seguente diagramma illustra il flusso di sistema per questo riferimento dell'architettura.
Come mostrato nel diagramma precedente, il flusso di informazioni è il seguente:
Importa e attiva: questa è la prima fase del flusso di sistema in cui le immagini vengono inserite nel sistema. Durante questa fase, le seguenti azioni avvengono nel seguente modo:
- I client caricano i file immagine in un bucket Cloud Storage.
- Per ogni caricamento di file, Cloud Storage invia automaticamente una notifica di inserimento pubblicando un messaggio in Pub/Sub.
Processo: questa fase segue immediatamente la fase di importazione e attivazione. Per ogni nuova notifica di input, vengono eseguite le seguenti azioni:
- La pipeline Dataflow rimane in ascolto di questo file di input, estrae i metadati dei file messaggio Pub/Sub e invia il riferimento al file a API Vision per l'elaborazione.
- L'API Vision legge l'immagine e crea annotazioni.
- La pipeline Dataflow archivia le annotazioni prodotte dall'API Vision nelle tabelle BigQuery.
Archiviazione e analisi: questa è la fase finale del flusso. A questo punto, puoi eseguire le seguenti operazioni con i risultati salvati:
- Esegui query sulle tabelle BigQuery e analizza le annotazioni archiviate.
- Utilizzare BigQuery ML o Vertex AI per creare modelli e eseguire previsioni in base alle annotazioni archiviate.
- Eseguire analisi aggiuntive nella pipeline Dataflow (non come mostrato in questo diagramma).
Prodotti utilizzati
Questa architettura di riferimento utilizza i seguenti prodotti Google Cloud:
Casi d'uso
L'API Vision supporta più funzionalità di elaborazione, tra cui etichettatura delle immagini, rilevamento di volti e punti di riferimento, riconoscimento ottico dei caratteri, tagging dei contenuti espliciti e altre ancora. Ognuna di queste funzionalità consente diversi casi d'uso applicabili a settori diversi. Questo documento contiene alcuni semplici esempi di cosa è possibile fare con l'API Vision, ma lo spettro delle possibili applicazioni è molto ampio.
L'API Vision offre anche modelli avanzati di machine learning preaddestrati tramite API REST e RPC. Puoi assegnare etichette alle immagini e classificarle in milioni di categorie predefinite. Ti aiuta a rilevare oggetti, leggere testo stampato e scritto a mano e integrare preziosi metadati nella tua immagine catalogo.
Questa architettura non richiede l'addestramento del modello prima di poter essere utilizzata. Se hai bisogno di un modello personalizzato addestrato sui tuoi dati specifici, Vertex AI ti consente di addestrare un modello AutoML o personalizzato per scopi di visione artificiale, come la classificazione delle immagini e il rilevamento di oggetti. In alternativa, puoi utilizzare Vertex AI Vision per un ambiente di sviluppo di applicazioni end-to-end che ti consente di creare, eseguire il deployment e gestire applicazioni di visione artificiale.
Alternative di design
Invece di archiviare le immagini in un bucket Google Cloud Storage, il processo che le produce può pubblicarle direttamente in un sistema di messaggistica, ad esempio Pub/Sub, e la pipeline Dataflow può inviare le immagini direttamente all'API Vision.
Questa alternativa di progettazione può essere una buona soluzione per i casi d'uso sensibili alla latenza, in cui devi analizzare immagini relative piccole dimensioni. Pub/Sub limita la dimensione massima del messaggio a 10 MB.
Se devi elaborare in batch un numero elevato di immagini, puoi utilizzare un'API asyncBatchAnnotate
progettata appositamente.
Note sul layout
Questa sezione descrive le considerazioni sulla progettazione per questo riferimento dell'architettura:
Sicurezza, privacy e conformità
Le immagini ricevute da fonti non attendibili possono contenere malware. Poiché l'API Vision non esegue nulla in base alle immagini analizzate, i malware basati su immagini non influiscono sull'API. Se devi eseguire la scansione delle immagini, modifica la pipeline Dataflow per aggiungere un passaggio di scansione. Per ottenere lo stesso puoi anche usare una sottoscrizione separata al prompt Pub/Sub l'argomento e la scansione delle immagini in un processo separato.
Per ulteriori informazioni, consulta Automatizzare la scansione antimalware per i file caricati su Cloud Storage.
Utilizzo dell'API Vision
Identity and Access Management (IAM)
per l'autenticazione. Per accedere all'API Vision, il principale della sicurezza deve disporre del ruolo Cloud Storage > Visualizzatore oggetti Storage (roles/storage.objectViewer
) per accedere al bucket contenente i file da analizzare.
Ottimizzazione dei costi
Rispetto alle altre opzioni discusse, come l'elaborazione a bassa latenza e un'elaborazione batch asincrona, questa architettura di riferimento utilizza una per elaborare le immagini nelle pipeline di flusso raggruppando le richieste API in batch. Lo streaming diretto delle immagini a latenza più bassa menzionato nei Alternative di progettazione potrebbe essere più costosa a causa dell'aggiunta di Pub/Sub costi di Dataflow. Per l'elaborazione delle immagini che non è necessaria in pochi secondi o minuti, puoi eseguire la pipeline Dataflow modalità batch. L'esecuzione della pipeline in modalità batch può comportare alcuni risparmi rispetto al costo dell'esecuzione della pipeline di streaming.
L'API Vision supporta l'annotazione di immagini batch asincrona offline per tutte le funzionalità. La richiesta asincrona supporta fino a 2000 di immagini per batch. In risposta, l'API Vision restituisce i file JSON che in un bucket Cloud Storage.
L'API Vision fornisce anche una serie di funzionalità per l'analisi delle immagini. I prezzi viene calcolato per immagine per caratteristica. Per ridurre i costi, richiedi solo le funzionalità specifiche di cui hai bisogno per la tua soluzione.
Per generare una stima dei costi basata sull'utilizzo previsto, utilizza Calcolatore prezzi.
Ottimizzazione delle prestazioni
L'API Vision è un'API che richiede molte risorse. Per questo motivo, l'elaborazione di immagini su larga scala richiede un'attenta orchestrazione delle chiamate API. La La pipeline Dataflow si occupa di raggruppare le richieste API, gestire in modo controllato le eccezioni relative al raggiungimento delle quote e produrre e metriche personalizzate di utilizzo dell'API. Queste metriche possono aiutarti a decidere se è giustificato un aumento della quota dell'API o se è necessario modificare i parametri della pipeline Dataflow per ridurre la frequenza delle richieste. Per maggiori informazioni informazioni sull'aumento delle richieste di quota per l'API Vision, consulta Quote e limiti.
La pipeline Dataflow ha diversi parametri che possono influenzare e la latenza di elaborazione. Per ulteriori informazioni su questi parametri, consulta Eseguire il deployment di una soluzione di analisi della visione basata sull'AI con Dataflow e l'API Vision.
Deployment
Per eseguire il deployment di questa architettura, Esegui il deployment di una soluzione di analisi della visione artificiale ML con Dataflow e l'API Vision.
Passaggi successivi
- Scopri di più su Dataflow.
- Scopri di più sull'affidabilità di Dataflow nella guida sull'affidabilità di Dataflow.
- Scopri di più su BigQuery ML.
- Scopri di più sull'affidabilità di BigQuery nella guida all'affidabilità di BigQuery .
- Scopri di più sull'archiviazione dei dati in Soluzione già pronta: data warehouse con BigQuery.
- Consulta l'elenco delle funzionalità dell'API Vision.
- Scopri come eseguire il deployment di una soluzione di analisi della visione artificiale ML con Dataflow e l'API Vision.
- Per altre architetture di riferimento, diagrammi e best practice, esplora il Centro architetture cloud.
Collaboratori
Autori:
- Masud Hasan | Site Reliability Engineering Manager
- Sergei Lilichenko | Architetto di soluzioni
- Lakshmanan Sethu | Technical Account Manager
Altri collaboratori:
- Jiyeon Kang | Customer Engineer
- Sunil Kumar Jang Bahadur | Customer Engineer