Panoramica dell'AI generativa

Questo documento descrive le funzionalità di intelligenza artificiale (IA) generativa supportate da BigQuery ML. Queste funzionalità ti consentono di eseguire attività di IA in BigQuery ML utilizzando modelli di base pre-addestrati di Vertex AI. Le attività supportate includono:

Accedi a un modello Vertex AI per eseguire una di queste funzioni la creazione di un modello remoto in BigQuery ML che rappresenta Vertex AI dell'endpoint del modello. Dopo aver creato un modello remoto sul modello Vertex AI che vuoi utilizzare, accedi alle sue funzionalità eseguendo una funzione BigQuery ML sul modello remoto.

Questo approccio ti consente di utilizzare le funzionalità di questi modelli Vertex AI per analizzare i dati di BigQuery utilizzando SQL.

Flusso di lavoro

Puoi utilizzare modelli remoti rispetto ai modelli Vertex AI e modelli remoti rispetto ai servizi Cloud AI insieme alle funzioni BigQuery ML per eseguire analisi dei dati complesse e attività di IA generativa.

Il seguente diagramma mostra alcuni flussi di lavoro tipici in cui potresti utilizzare queste funzionalità insieme:

Diagramma che mostra i flussi di lavoro comuni per i modelli remoti che utilizzano modelli Vertex AI o servizi Cloud AI.

AI generativa

Puoi utilizzare modelli linguistici di grandi dimensioni (LLM) per eseguire attività come riassunti e generazioni. Ad esempio, puoi riassumere un report lungo o analizzare il sentiment nei feedback dei clienti. Puoi utilizzare i modelli linguistici di visione (VLM) per analizzare contenuti visivi come immagini e video per attività come la trascrizione di video e le domande e risposte visive. Puoi utilizzare i modelli multimodali per eseguire le stesse attività degli LLM e dei VLM, oltre ad altre attività come la trascrizione audio e l'analisi dei documenti.

Per eseguire attività di AI generativa, puoi creare un riferimento a un modello preaddestrato di Vertex AI creando un modello remoto e specificando il nome del modello per il valore ENDPOINT. I seguenti modelli Vertex AI sono supportati:

  • gemini-1.5-flash (Anteprima)
  • gemini-1.5-pro (Anteprima)
  • gemini-1.0-pro
  • gemini-1.0-pro-vision (Anteprima)
  • text-bison
  • text-bison-32k
  • text-unicorn

Modelli di Claude antropici (Anteprima).

Per fornire feedback o richiedere assistenza per i modelli in anteprima, invia un'email all'indirizzo bqml-feedback@google.com.

Quando crei un modello remoto che fa riferimento al modello gemini-1.0-pro-002 o a qualsiasi versione del modello text-bison, puoi scegliere se configurare contemporaneamente la ottimizzazione supervisionata (Anteprima).

Dopo aver creato il modello, puoi utilizzare la funzione ML.GENERATE_TEXT per interagire con il modello:

  • Per i modelli remoti basati su gemini-1.0-pro, text-bison, text-bison-32k, o text-unicorn, puoi utilizzare la funzione ML.GENERATE_TEXT con un prompt fornito in una query o da una colonna in tabella standard.
  • Per i modelli remoti basati sul modello gemini-1.0-pro-vision, puoi utilizzare la Funzione ML.GENERATE_TEXT per analizzare i contenuti di immagini o video da una tabella di oggetti con un prompt da fornire come argomento di funzione.
  • Per i modelli remoti basati su gemini-1.5-flash o gemini-1.5-pro personalizzati, puoi utilizzare la funzione ML.GENERATE_TEXT per analizzare testo, immagini contenuti audio, video o PDF da una tabella di oggetti con un prompt come argomento di funzione, oppure puoi generare testo da un prompt fornire in una query o da una colonna di una tabella standard.

Puoi utilizzare la modalità grounding e attributi relativi alla sicurezza quando utilizzi i modelli Gemini con la funzione ML.GENERATE_TEXT, a condizione che utilizzi una tabella standard per l'input. La funzionalità di grounding consente al modello Gemini di utilizzare informazioni aggiuntive di internet per generare risposte più specifiche e oggettive. Gli attributi di sicurezza consentono al modello Gemini di filtrare le risposte restituite in base agli attributi specificati.

Tutta l'inferenza avviene in Vertex AI. I risultati vengono archiviati in BigQuery.

Per scoprire di più, prova a generare del testo con la funzione ML.GENERATE_TEXT.

Incorporamento

Puoi utilizzare l'incorporamento per identificare elementi semanticamente simili. Ad esempio, puoi utilizzare l'embedding del testo per identificare il grado di somiglianza tra due testi. Se le parti di testo sono semanticamente simili, i rispettivi incorporamenti si trovano una vicina all'altra nello spazio del vettore di incorporamento.

Puoi utilizzare i modelli BigQuery ML per creare i seguenti tipi di embedding:

Dopo aver creato il modello, puoi utilizzare la funzione ML.GENERATE_EMBEDDING per interagire con esso. Per tutti i tipi di modelli supportati, ML.GENERATE_EMBEDDING lavora con i dati in tabelle standard. Per i modelli di embedding multimodali, ML.GENERATE_EMBEDDING funziona anche con i contenuti visivi nelle tabelle di oggetti. Per i modelli remote, tutta l'inferenza avviene in Vertex AI. Per altri tipi di modelli, tutte le inferenze si verificano in BigQuery. I risultati vengono archiviati in BigQuery.

Per scoprire di più, prova a creare incorporamenti di testo, incorporamenti di immagini e incorporamenti di video con la funzione ML.GENERATE_EMBEDDING.

Per un embedding di testo più piccolo e leggero, prova a utilizzare un modello di TensorFlow preaddestrato, come NNLM, SWIVEL o BERT.

Per informazioni su come scegliere il modello migliore per il tuo caso d'uso di embedding, consulta Scegliere un modello di embedding del testo.

Passaggi successivi