Le previsioni batch consentono di inviare un numero elevato di prompt multimodali in un'unica richiesta batch.
Per ulteriori informazioni sul flusso di lavoro batch e su come formattare i dati di input, consulta Ottenere previsioni batch per Gemini.
Modelli supportati
- Gemini 2.5 Flash Image
 - Gemini 2.5 Flash-Lite
 - Gemini 2.5 Pro
 - Gemini 2.5 Flash
 - Gemini 2.0 Flash
 - Gemini 2.0 Flash-Lite
 
Sintassi di esempio
L'esempio seguente mostra come inviare una richiesta API di previsione batch utilizzando il comando curl. Questo esempio è specifico per l'archiviazione BigQuery.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/batchPredictionJobs \ -d '{ "displayName": "...", "model": "publishers/google/models/${MODEL_ID}", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri" : "..." } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "..." } } }'
Parametri
Per informazioni dettagliate sull'implementazione, consulta gli esempi.
Corpo della richiesta
| Parametri | |
|---|---|
  | 
    Un nome che scegli per il tuo job.  | 
  
  | 
    Il modello da utilizzare per la previsione batch.  | 
  
  | 
    Il formato dei dati. Per la previsione batch di Gemini, sono supportate le origini di input Cloud Storage e BigQuery.  | 
  
  | 
    La configurazione dell'output che determina la posizione dell'output del modello. Sono supportate le posizioni di output di Cloud Storage e BigQuery.  | 
  
inputConfig
| Parametri | |
|---|---|
  | 
    Il formato di input del prompt. Utilizza   | 
  
  | 
    L'URI dell'origine di input. Si tratta di una posizione Cloud Storage del file JSONL
      nel formato   | 
  
  | 
    L'URI dell'origine di input. Si tratta di un URI della tabella BigQuery nel formato   | 
  
outputConfig
| Parametri | |
|---|---|
  | 
    Il formato di output della previsione. Utilizza   | 
  
  | 
    La posizione del bucket e della directory Cloud Storage, nel formato
      | 
  
  | 
    L'URI BigQuery della tabella di output di destinazione, nel formato   | 
  
Esempi
Richiedere una risposta batch
Le richieste batch per i modelli multimodali accettano origini di archiviazione Cloud Storage e BigQuery. Per saperne di più, consulta le seguenti risorse:
A seconda del numero di elementi di input inviati, il completamento di un'attività di generazione batch può richiedere un po' di tempo.
REST
Per creare un job di previsione batch, utilizza il
metodo projects.locations.batchPredictionJobs.create.
Input Cloud Storage
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- ENDPOINT_PREFIX: la regione della risorsa modello seguita da 
-. Ad esempio:us-central1-. Se utilizzi l'endpoint globale, lascia vuoto il campo. Nota:l'endpoint globale non è supportato per l'inferenza batch utilizzando modelli ottimizzati. - LOCATION: una regione che supporta
    i modelli Gemini. Se utilizzi l'endpoint globale, inserisci 
global. - PROJECT_ID: il tuo ID progetto.
 - MODEL_PATH: il nome del modello dell'editore, ad esempio
  
publishers/google/models/gemini-2.5-flash; o il nome dell'endpoint ottimizzato, ad esempioprojects/PROJECT_ID/locations/LOCATION/models/MODEL_ID, dove MODEL_ID è l'ID modello del modello ottimizzato. - INPUT_URI: la
    posizione Cloud Storage dell'input di previsione batch JSONL, ad esempio
    
gs://bucketname/path/to/file.jsonl. - OUTPUT_FORMAT: Per l'output in
    un bucket Cloud Storage, specifica 
jsonl. - DESTINATION: per
    BigQuery, specifica 
bigqueryDestination. Per Cloud Storage, specificagcsDestination. - OUTPUT_URI_FIELD_NAME:
      Per BigQuery, specifica 
outputUri. Per Cloud Storage, specificaoutputUriPrefix. - OUTPUT_URI: per
    BigQuery, specifica la posizione della tabella, ad esempio
    
bq://myproject.mydataset.output_result. La regione del set di dati BigQuery di output deve essere la stessa del job di previsione batch di Vertex AI. Per Cloud Storage, specifica la posizione del bucket e della directory, ad esempiogs://mybucket/path/to/output. 
Corpo JSON della richiesta:
{
  "displayName": "my-cloud-storage-batch-prediction-job",
  "model": "MODEL_PATH",
  "inputConfig": {
    "instancesFormat": "jsonl",
    "gcsSource": {
      "uris" : "INPUT_URI"
    }
  },
  "outputConfig": {
    "predictionsFormat": "OUTPUT_FORMAT",
    "DESTINATION": {
      "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
    }
  }
}
Per inviare la richiesta, scegli una di queste opzioni:
curl
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Input BigQuery
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: una regione che supporta i modelli Gemini.
 - PROJECT_ID: il tuo ID progetto
 - MODEL_PATH: il nome del modello del publisher, ad esempio
    
publishers/google/models/gemini-2.0-flash-001; o il nome dell'endpoint ottimizzato, ad esempioprojects/PROJECT_ID/locations/LOCATION/models/MODEL_ID, dove MODEL_ID è l'ID modello del modello ottimizzato. - INPUT_URI: la
    tabella BigQuery in cui si trova l'input della previsione batch
    come 
bq://myproject.mydataset.input_table. Il set di dati deve trovarsi nella stessa regione del job di previsione batch. I set di dati multiregionali non sono supportati. - OUTPUT_FORMAT: per l'output in
    una tabella BigQuery, specifica 
bigquery. Per l'output in un bucket Cloud Storage, specificajsonl. - DESTINATION: per
    BigQuery, specifica 
bigqueryDestination. Per Cloud Storage, specificagcsDestination. - OUTPUT_URI_FIELD_NAME:
      Per BigQuery, specifica 
outputUri. Per Cloud Storage, specificaoutputUriPrefix. - OUTPUT_URI: per
    BigQuery, specifica la posizione della tabella, ad esempio
    
bq://myproject.mydataset.output_result. La regione del set di dati BigQuery di output deve essere la stessa del job di previsione batch di Vertex AI. Per Cloud Storage, specifica la posizione del bucket e della directory, ad esempiogs://mybucket/path/to/output. 
Corpo JSON della richiesta:
{
  "displayName": "my-bigquery-batch-prediction-job",
  "model": "MODEL_PATH",
  "inputConfig": {
    "instancesFormat": "bigquery",
    "bigquerySource":{
      "inputUri" : "INPUT_URI"
    }
  },
  "outputConfig": {
    "predictionsFormat": "OUTPUT_FORMAT",
    "DESTINATION": {
      "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
    }
  }
}
Per inviare la richiesta, scegli una di queste opzioni:
curl
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Python
Installa
pip install --upgrade google-genai
Per saperne di più, consulta la documentazione di riferimento dell'SDK.
Imposta le variabili di ambiente per utilizzare l'SDK Gen AI con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Input Cloud Storage
Input BigQuery
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Node.js.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Input Cloud Storage
Input BigQuery
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Java.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Input Cloud Storage
Input BigQuery
Go
Prima di provare questo esempio, segui le istruzioni di configurazione di Go nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Go.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Input Cloud Storage
Input BigQuery
Recupera output batch
Al termine di un'attività di previsione batch, l'output viene archiviato nel bucket Cloud Storage o nella tabella BigQuery specificati nella richiesta.
Passaggi successivi
- Scopri come ottimizzare un modello Gemini in Panoramica dell'ottimizzazione dei modelli per Gemini.
 - Scopri di più su come ottenere previsioni batch per Gemini.