Domande frequenti sull'API Gemini

Questo documento fornisce risposte alle domande frequenti sull'API Gemini, organizzate nelle seguenti categorie:

Confronti di modelli

Qual è la differenza tra PaLM e Gemini?

I modelli Gemini sono progettati per applicazioni multimodali. I modelli Gemini accettano i prompt che includono, ad esempio, testo e immagini, quindi restituiscono una risposta di testo. Gemini supporta anche le chiamate di funzione, che consentono agli sviluppatori di passare la descrizione di una funzione e il modello restituisce una funzione e i parametri che meglio corrispondono alla descrizione. Gli sviluppatori possono quindi chiamare quella funzione in API e servizi esterni.

I modelli PaLM 2 sono in disponibilità generale (GA). I modelli PaLM 2 sono progettati per applicazioni linguistiche e offrono prestazioni ottimali in casi d'uso come il riassunto e la generazione di testi. PaLM 2 offre inoltre supporto completo per i servizi MLOps su Vertex AI, come il confronto automatico fianco a fianco e il monitoraggio dei modelli, che non sono disponibili con Gemini.

Con Vertex AI Studio, puoi personalizzare i modelli Gemini e PaLM 2 con controlli completi dei dati e sfruttare il supporto di Google Cloud per sicurezza, sicurezza, privacy, governance e conformità dei dati. I prompt e i dati di ottimizzazione per Gemini e PaLM 2 non vengono mai utilizzati per addestrare o migliorare i nostri modelli di base.

Perché sceglieresti PaLM anziché Gemini?

Per i casi d'uso che richiedono esclusivamente input-output di testo (come riassunti di testi, generazione di testi e domande e risposte), i modelli PaLM 2 sono in grado di fornire risposte di qualità sufficientemente elevata.

I modelli Gemini sono ideali per i casi d'uso che includono input multimodali, richiedono chiamate di funzione o richiedono tecniche di prompting complesse (come catena di pensiero e seguire istruzioni complesse).

PaLM 2 verrà ritirato?

Non è previsto il ritiro di PaLM 2.

Qual è la differenza tra Imagen su Vertex AI e i casi d'uso dell'API Gemini per la visione artificiale?

Imagen è un modello di visione artificiale per generazione, modifica, sottotitolaggio di immagini e casi d'uso di domande e risposte. Nell'ambito dei tuoi prompt, Gemini può acquisire più immagini o un video e fornire risposte in merito ai tuoi input, mentre Imagen può prendere una sola immagine di input. Gemini non supporta la generazione o la modifica di immagini.

Qual è la differenza tra le API Vertex AI Codey e l'API Gemini per la programmazione dei casi d'uso?

Le API Codey sono create appositamente per generare codice, completare il codice e chattare. Le API Codey si basano su Gemini e altri modelli sviluppati da Google. Puoi utilizzare le API durante l'intero ciclo di vita dello sviluppo del software integrandole in IDE, flussi di lavoro CI/CD, dashboard e altre applicazioni. Puoi anche personalizzare i modelli con il tuo codebase. Non consigliamo Gemini 1.0 Pro Vision per la generazione del codice.

Come faccio a inviare un prompt al modello Gemini 1.0 Pro o Gemini 1.0 Pro Vision

Esistono diversi metodi che puoi utilizzare per inviare richieste all'API Gemini. Ad esempio, puoi utilizzare la console Google Cloud, un SDK del linguaggio di programmazione o l'API REST per inviare richieste a gemini-1.0-pro (Gemini 1.0 Pro) o gemini-1.0-pro-vision (Gemini 1.0 Pro Vision).

Per iniziare, vedi Provare l'API Gemini.

È disponibile l'ottimizzazione per Gemini?

Puoi ottimizzare la versione 002 della versione stabile di Gemini 1.0 Pro (gemini-1.0-pro-002). Per maggiori informazioni, consulta Panoramica dell'ottimizzazione del modello per Gemini.

Sicurezza e utilizzo dei dati

Perché le mie risposte sono bloccate?

L'IA generativa su Vertex AI utilizza filtri di sicurezza per prevenire risposte potenzialmente dannose. Puoi regolare questa soglia del filtro di sicurezza. Per maggiori informazioni, vedi IA responsabile.

Come vengono utilizzati i dati di input?

Google garantisce che i suoi team seguano il nostro impegno alla privacy per AI/ML attraverso pratiche solide di governance dei dati, che includono revisioni dei dati utilizzati da Google Cloud per lo sviluppo dei suoi prodotti. Per maggiori dettagli, consulta IA generativa e governance dei dati.

I miei dati vengono memorizzati nella cache?

Google può memorizzare nella cache gli input e gli output di un cliente per i modelli Gemini al fine di accelerare le risposte ai prompt successivi del cliente. I contenuti memorizzati nella cache vengono archiviati per un massimo di 24 ore. Per impostazione predefinita, la memorizzazione nella cache dei dati è abilitata per ogni progetto Google Cloud. Le stesse impostazioni della cache per un progetto Google Cloud si applicano a tutte le regioni. Puoi utilizzare i seguenti comandi curl per ottenere lo stato della memorizzazione nella cache, disabilitare la memorizzazione nella cache o riattivarla. Per maggiori informazioni, consulta Previsione nella pagina AI generativa e governance dei dati. Quando disabiliti o riattivi la memorizzazione nella cache, la modifica si applica a tutte le regioni di Google Cloud. Per ulteriori informazioni sull'utilizzo di Identity and Access Management per concedere le autorizzazioni necessarie per abilitare o disabilitare la memorizzazione nella cache, consulta Controllo controllo dell'accesso AI con IAM. Espandi le sezioni seguenti per scoprire come recuperare l'impostazione attuale della cache e come attivarla.

Recupera l'impostazione di memorizzazione nella cache attuale

Esegui questo comando per determinare se la memorizzazione nella cache è abilitata o disabilitata per un progetto. Per eseguire questo comando, all'utente deve essere concesso uno dei seguenti ruoli: roles/aiplatform.viewer, roles/aiplatform.user o roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# GetCacheConfig
$ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig

# Response if caching is enabled (caching is enabled by default).
{
  "name": "projects/PROJECT_ID/cacheConfig"
}

# Response if caching is disabled.
{
  "name": "projects/PROJECT_ID/cacheConfig"
  "disableCache": true
}
    

Disabilita memorizzazione nella cache

Esegui questo comando curl per disabilitare la memorizzazione nella cache per un progetto Google Cloud. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore di Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt-out of caching.
$ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": true
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Abilita memorizzazione nella cache

Se hai disabilitato la memorizzazione nella cache per un progetto Google Cloud e vuoi riabilitarla, esegui questo comando curl. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore di Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
LOCATION_ID="us-central1"
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt in to caching.
$ curl -X PATCH     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": false
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Migrazione

Come faccio a eseguire la migrazione di Gemini da Google AI Studio a Vertex AI Studio?

La migrazione alla piattaforma Vertex AI di Google Cloud offre una suite di strumenti MLOps che semplificano l'utilizzo, il deployment e il monitoraggio dei modelli di IA per garantire efficienza e affidabilità. Per eseguire la migrazione del tuo lavoro a Vertex AI, importa e carica i tuoi dati esistenti in Vertex AI Studio e utilizza l'API Gemini di Vertex AI. Per maggiori informazioni, vedi Eseguire la migrazione da Gemini su Google AI a Vertex AI.

Come posso passare da PaLM 2 all'API Gemini di Vertex AI come modello sottostante?

Quando passi dai modelli PaLM ai modelli Gemini, non è necessario apportare modifiche significative all'architettura delle applicazioni. Dal punto di vista delle API, il passaggio da un modello all'altro richiede la modifica di una singola riga di codice o l'aggiornamento dell'SDK. Per maggiori informazioni, vedi Eseguire la migrazione dall'API PaLM all'API Gemini di Vertex AI.

Poiché le risposte possono variare da un modello all'altro, ti consigliamo di eseguire test dei prompt per confrontare le risposte dei modelli PaLM e Gemini e verificare che le risposte soddisfino le tue aspettative.

Disponibilità e prezzi

In quali località è disponibile Gemini?

Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono disponibili nelle regioni dell'Asia, degli Stati Uniti e dell'Europa. Per ulteriori informazioni, vedi Località dell'AI generativa su Vertex AI.

È disponibile un livello di valutazione gratuito per l'API Gemini di Vertex AI?

Contatta il tuo rappresentante Google Cloud per ulteriori informazioni.

Quali sono i prezzi dell'API Gemini di Vertex AI?

Le informazioni sui prezzi dei modelli Gemini sono disponibili nella sezione Multimodale dei prezzi per l'IA generativa su Vertex AI.

Come faccio ad accedere a Gemini Ultra?

Contatta il rappresentante Google per l'account per richiedere l'accesso.

Quote

Come posso risolvere un errore di quota (429) quando effettuo richieste API?

La domanda è eccessiva oppure la richiesta ha superato la quota per progetto. Verifica che il tasso di richieste sia inferiore alla quota del progetto. Per visualizzare le quote del progetto, vai alla pagina Quote nella console Google Cloud. Per maggiori informazioni, vedi Quota e limiti dell'AI generativa su Vertex AI su Vertex AI.

Come faccio ad aumentare le quote dei miei progetti per Gemini?

Puoi richiedere un aumento dalla console Google Cloud. Per ulteriori informazioni, consulta Quota e limiti dell'AI generativa su Vertex AI su Vertex AI.