Panoramica dell'AI generativa
Questo documento descrive le funzionalità di intelligenza artificiale generativa (AI) supportate da BigQuery ML. Queste funzionalità consentono di eseguire attività di IA in BigQuery ML utilizzando modelli di base di Vertex AI preaddestrati. Le attività supportate includono:
Puoi accedere a un modello Vertex AI per eseguire una di queste funzioni creando un modello remoto in BigQuery ML che rappresenti l'endpoint del modello Vertex AI. Dopo aver creato un modello remoto sul modello Vertex AI che vuoi utilizzare, puoi accedere alle funzionalità di quel modello eseguendo una funzione BigQuery ML sul modello remoto.
Questo approccio consente di utilizzare le funzionalità di questi modelli Vertex AI per analizzare i dati BigQuery tramite SQL.
Flusso di lavoro
Puoi utilizzare modelli remoti rispetto a modelli Vertex AI e modelli remoti su servizi Cloud AI insieme alle funzioni di BigQuery ML per svolgere attività complesse di analisi dei dati e IA generativa.
Il seguente diagramma mostra alcuni flussi di lavoro tipici in cui è possibile utilizzare queste funzionalità insieme:
IA generativa
Puoi utilizzare modelli linguistici di grandi dimensioni (LLM) per eseguire attività come la generazione e il riepilogo di un testo o l'analisi di contenuti visivi. Ad esempio, potresti riassumere un lungo report o generare un testo che descriva i contenuti visivi. Puoi usare anche i modelli linguistici di visione artificiale (VLM) per analizzare contenuti visivi, come immagini e video, per attività come le didascalie visive e le domande e risposte visive.
Per eseguire attività di analisi visiva o di linguaggio naturale generativo, puoi creare un riferimento a un modello di base Vertex AI preaddestrato, creando un modello remoto e specificando il nome del modello per il valore ENDPOINT
. Sono supportati i seguenti modelli
Vertex AI:
gemini-pro
gemini-pro-vision
(Anteprima)text-bison
text-bison-32k
text-unicorn
Quando crei un modello remoto che fa riferimento a qualsiasi versione di un modello Vertex AI text-bison
, facoltativamente puoi scegliere di configurare contemporaneamente l'ottimizzazione supervisionata (anteprima).
Dopo aver creato il modello, puoi utilizzare la funzione ML.GENERATE_TEXT
per interagirci. Per i modelli remoti basati su modelli di testo,
la funzione ML.GENERATE_TEXT
funziona con il testo nelle
tabelle standard.
Per i modelli remoti basati su modelli multimodali, la funzione ML.GENERATE_TEXT
funziona con i contenuti visivi nelle tabelle degli oggetti. Tutte le inferenze avvengono
in Vertex AI. I risultati vengono archiviati
in BigQuery.
Per scoprire di più, prova a generare testo con la funzione ML.GENERATE_TEXT
.
Incorporamento
Puoi utilizzare l'incorporamento per identificare elementi semanticamente simili. Ad esempio, puoi utilizzare l'incorporamento del testo per identificare il grado di somiglianza tra due parti di testo. Se le parti di testo sono semanticamente simili, i rispettivi incorporamenti si trovano uno accanto all'altro nello spazio vettoriale di incorporamento.
Puoi utilizzare i modelli BigQuery ML per creare i seguenti tipi di incorporamenti:
- Per creare incorporamenti di testo, puoi creare un riferimento a uno dei modelli di base di incorporamento del testo
textembedding-gecko
otextembedding-gecko-multilingual
di Vertex AI creando un modello remoto e specificando il nome LLM per il valoreENDPOINT
. - Per creare incorporamenti multimodali che incorporano testo e immagini nello stesso
spazio semantico, puoi creare un riferimento all'LLM di Vertex AI
multimodalembedding
creando un modello remoto e specificando il nome LLM per il valoreENDPOINT
. Questa funzionalità è in anteprima. - Per creare incorporamenti per dati strutturati per variabili casuali (IID) indipendenti e distribuite in modo identico, puoi utilizzare un modello di analisi delle componenti principali (PCA) o un modello di Autoencoder. Questa funzionalità è in anteprima.
- Per creare incorporamenti per dati utente o degli articoli, puoi utilizzare un modello di fattorizzazione matriciale. Questa funzionalità è in anteprima.
Dopo aver creato il modello, puoi utilizzare la funzione ML.GENERATE_EMBEDDING
per interagirci. Per tutti i tipi di modelli supportati, ML.GENERATE_EMBEDDING
funziona con i dati nelle tabelle standard. Per i modelli di incorporamento multimodale, ML.GENERATE_EMBEDDING
funziona anche con contenuti visivi nelle tabelle degli oggetti. Per i modelli remoti, tutte le inferenze avvengono in Vertex AI. Per gli altri tipi di modelli,
tutte l'inferenza avviene in BigQuery. I risultati vengono archiviati
in BigQuery.
Per scoprire di più, prova a creare incorporamenti di testo e incorporamenti di immagini con la funzione ML.GENERATE_EMBEDDING
.
Per un incorporamento di testo più piccolo e leggero, prova a utilizzare un modello TensorFlow preaddestrato, ad esempio NNLM, SWIVEL o BERT.
Per informazioni su come scegliere il modello migliore per il caso d'uso di incorporamento, consulta Scegliere un modello di incorporamento del testo.
Passaggi successivi
- Per ulteriori informazioni sull'esecuzione dell'inferenza sui modelli di machine learning, consulta Panoramica dell'inferenza dei modelli.