Questo documento fornisce risposte alle domande frequenti su l'API Gemini, organizzata nelle seguenti categorie:
Confronti di modelli
Qual è la differenza tra PaLM e Gemini?
I modelli Gemini sono progettati per applicazioni multimodali. I modelli Gemini accettano prompt che includono, ad esempio, testo e immagini, per poi restituire una risposta di testo. Gemini supporta anche le chiamate di funzione, che ti consentono gli sviluppatori passano la descrizione di una funzione e il modello restituisce la funzione e i parametri che meglio corrispondono alla descrizione. Gli sviluppatori possono quindi chiamare questa funzione in API e servizi esterni.
I modelli PaLM 2 sono in disponibilità generale (GA). I modelli PaLM 2 sono progettati per applicazioni di linguaggio hanno un buon rendimento in casi d'uso come il riassunto e la generazione di testi. PaLM 2 offre inoltre il supporto completo per i servizi MLOps su Vertex AI, come il monitoraggio dei modelli, che non sono disponibili con Gemini.
Con Vertex AI Studio, puoi personalizzare i modelli Gemini e PaLM 2 con controlli dati completi e sfruttare la sicurezza, la protezione, la privacy, la conformità e la governance dei dati di Google Cloud. Prompt e dati di ottimizzazione per sia Gemini che PaLM 2 non vengono mai utilizzati per addestrare o migliorare i nostri modelli di base.
Perché sceglieresti PaLM anziché Gemini?
Per i casi d'uso che richiedono esclusivamente input-output di testo (come testo riassunto, generazione di testi e domande e risposte), i modelli PaLM 2 sono in grado di risposte di alta qualità.
I modelli Gemini sono adatti per casi d'uso che includono input multimodali, richiedono chiamate di funzioni o richiedono tecniche di prompt complesse (come la catena di pensiero e il rispetto di istruzioni complesse).
PaLM 2 verrà ritirato?
Non è prevista la ritiro di PaLM 2.
Qual è la differenza tra Imagen su Vertex AI e i casi d'uso dell'API Gemini per la visione artificiale?
Imagen è un modello di visione per casi d'uso di generazione, modifica, sottotitolazione e domande e risposte di immagini. Nell'ambito dei tuoi prompt, Gemini può assumere più immagini o un video e fornire risposte sui tuoi input, laddove Imagen può accettare una sola immagine di input. Gemini non supporta la generazione o la modifica di immagini.
Qual è la differenza tra le API Vertex AI Codey e l'API Gemini per la programmazione dei casi d'uso?
Le API Codey sono progettate appositamente per la generazione, il completamento e la chat di codice. Le API Codey si basano su Gemini e su altri modelli sviluppati da Google. Puoi utilizzare le API in tutte le fasi di sviluppo software il ciclo di vita integrandolo in IDE, flussi di lavoro CI/CD, dashboard e diverse applicazioni. Puoi anche personalizzare i modelli con il tuo codebase. Non consigliamo Gemini 1.0 Pro Vision per la generazione di codice.
Come faccio a inviare un prompt al modello Gemini 1.0 Pro o Gemini 1.0 Pro Vision
Esistono diversi metodi che puoi utilizzare per inviare richieste all'API Gemini. Ad esempio, puoi utilizzare la console Google Cloud,
l'SDK del linguaggio di programmazione o l'API REST per inviare richieste a gemini-1.0-pro
.
(Gemini 1.0 Pro) o gemini-1.0-pro-vision
(Gemini 1.0 Pro Vision).
Per iniziare, vedi Provare l'API Gemini.
È disponibile l'ottimizzazione per Gemini?
Puoi ottimizzare la versione 002 della
versione stabile di
Gemini 1.0 Pro (gemini-1.0-pro-002
). Per ulteriori
informazioni, consulta
Panoramica dell'ottimizzazione del modello per Gemini.
Sicurezza e utilizzo dei dati
Perché le mie risposte sono bloccate?
L'IA generativa su Vertex AI utilizza filtri di sicurezza per impedire risposte potenzialmente dannose. Puoi regolare questa soglia del filtro di sicurezza. Per ulteriori informazioni, consulta IA responsabile.
Come vengono utilizzati i dati di input?
Google si assicura che i suoi team rispettino il nostro impegno in materia di privacy AI/ML attraverso pratiche di governance dei dati solide, che includono le revisioni dei dati utilizzati da Google Cloud nello sviluppo dei suoi prodotti. Per maggiori dettagli, consulta IA generativa e governance dei dati.
I miei dati vengono memorizzati nella cache?
Google può memorizzare nella cache gli input e gli output di un cliente per i modelli Gemini accelerare le risposte ai successivi prompt del cliente. Contenuti memorizzati nella cache e vengono archiviati per massimo 24 ore. Per impostazione predefinita, la memorizzazione nella cache dei dati è abilitata progetto Google Cloud. Le stesse impostazioni della cache per un progetto Google Cloud si applicano a tutte regioni. Puoi utilizzare i seguenti comandi curl per ottenere lo stato della memorizzazione nella cache, disattivare la memorizzazione nella cache o riattivarla. Per ulteriori informazioni, consulta Predizione nella pagina sull'AI generativa e sulla governance dei dati. Quando disattivi o riattivi la memorizzazione nella cache, la modifica viene applicata a tutte le regioni Google Cloud. Per ulteriori informazioni sull'utilizzo Identity and Access Management per concedere le autorizzazioni necessarie per attivare o disattivare la memorizzazione nella cache, consulta Controllo dell'accesso a Vertex AI con IAM. Espandi le sezioni seguenti per scoprire come ottenere l'impostazione di cache corrente per disattivare la memorizzazione nella cache e abilitarla.
Ottenere l'impostazione di memorizzazione nella cache corrente
Esegui il comando seguente per determinare se la memorizzazione nella cache è attivata o disattivata per un progetto. Per eseguire questo comando, a un utente deve essere concesso uno dei seguenti ruoli: roles/aiplatform.viewer
, roles/aiplatform.user
o roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # GetCacheConfig $ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig # Response if caching is enabled (caching is enabled by default). { "name": "projects/PROJECT_ID/cacheConfig" } # Response if caching is disabled. { "name": "projects/PROJECT_ID/cacheConfig" "disableCache": true }
Disabilita memorizzazione nella cache
Esegui questo comando curl per disabilitare la memorizzazione nella cache per un progetto Google Cloud. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore di Vertex AI,roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt-out of caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": true }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Abilita memorizzazione nella cache
Se hai disattivato la memorizzazione nella cache per un progetto Google Cloud e vuoi riattivarla, esegui il seguente comando curl. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore Vertex AI, roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID LOCATION_ID="us-central1" # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt in to caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": false }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Migrazione
Come faccio a eseguire la migrazione di Gemini su Google AI Studio a Vertex AI Studio?
La migrazione alla piattaforma Vertex AI di Google Cloud offre una suite Strumenti MLOps che semplificano l'utilizzo, il deployment e il monitoraggio dei modelli di AI per ottenere efficienza e affidabilità. Per eseguire la migrazione del tuo lavoro a Vertex AI, importa e carica i dati esistenti in Vertex AI Studio e utilizza l' API Gemini di Vertex AI. Per ulteriori informazioni, consulta Eseguire la migrazione da Gemini su Google AI a Vertex AI.
Come faccio a passare da PaLM 2 all'API Vertex AI Gemini come modello sottostante?
Quando non devi apportare modifiche significative all'architettura delle applicazioni passando dai modelli PaLM ai modelli Gemini. Dal punto di vista dell'API, il passaggio da un modello all'altro richiede la modifica di una singola riga di codice o l'aggiornamento dell'SDK. Per maggiori informazioni, vedi Eseguire la migrazione dall'API PaLM a API Gemini di Vertex AI.
Poiché le risposte possono variare da un modello all'altro, ti consigliamo di eseguire test dei prompt per Confrontare le risposte dei modelli PaLM e Gemini per verificare che le risposte soddisfino le tue aspettative.
Disponibilità e prezzi
In quali località è disponibile Gemini?
Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono disponibili nelle regioni Asia, Stati Uniti ed Europa. Per ulteriori informazioni, consulta Località dell'IA generativa su Vertex AI.
È disponibile un livello di valutazione gratuito per l'API Gemini di Vertex AI?
Contatta il tuo rappresentante Google Cloud per ulteriori informazioni.
Quali sono i prezzi dell'API Gemini di Vertex AI?
Le informazioni sui prezzi dei modelli Gemini sono disponibili nella sezione Multimodale della pagina Prezzi per l'IA generativa su Vertex AI.
Come faccio ad accedere a Gemini Ultra?
Contatta il rappresentante Google per l'account per richiedere l'accesso.
Quote
Come faccio a risolvere un errore di quota (429) quando effettuo richieste API?
La domanda è eccessiva o la richiesta ha superato la quota per progetto. Verifica che il tasso di richieste sia inferiore alla quota per il tuo progetto. Per visualizzare le quote del progetto, vai alla pagina Quote in Google Cloud Console. Per ulteriori informazioni, vedi IA generativa su Vertex AI su Quota e limiti di Vertex AI.
Come faccio ad aumentare le quote del mio progetto per Gemini?
Puoi richiedere un aumento dalla console Google Cloud. Per maggiori informazioni informazioni, vedi la quota dell'AI generativa su Vertex AI su Vertex AI limiti.