Gemini 2.0

I modelli Gemini 2.0 sono gli ultimi modelli di Google supportati in Vertex AI. Questa pagina illustra i seguenti modelli:

Se cerchi informazioni sul nostro modello Gemini 2.0 Flash Thinking, consulta la nostra documentazione su Gemini 2.0 Flash Thinking.

Modelli 2.0

2.0 Flash

Gemini 2.0 Flash è il nostro modello più recente disponibile al pubblico della famiglia Gemini. È il nostro modello di punta per tutte le attività quotidiane, offre prestazioni migliorate e supporta l'API Live in tempo reale. 2.0 Flash è un percorso di upgrade per gli utenti di 1.5 Flash che vogliono un modello leggermente più lento con una qualità notevolmente migliore o per gli utenti di 1.5 Pro che vogliono una qualità leggermente migliore e una latenza in tempo reale a un prezzo inferiore.

Gemini 2.0 Flash introduce le seguenti funzionalità nuove e migliorate:

  • API Multimodal Live:questa nuova API consente interazioni vocali e video bidirezionali a bassa latenza con Gemini.
  • Qualità: prestazioni migliorate rispetto alla maggior parte dei benchmark di qualità rispetto a Gemini 1.5 Pro.
  • Funzionalità di agente migliorate: 2.0 Flash offre miglioramenti alla comprensione multimodale, alla programmazione, al rispetto di istruzioni complesse e alla chiamata di funzioni. Questi miglioramenti agiscono in sinergia per offrire esperienze migliori agli agenti.
  • Nuove modalità: Flash 2.0 introduce la generazione di immagini e la sintesi vocale controllabile integrate, che consentono la modifica delle immagini, la creazione di artwork localizzati e la narrazione espressiva.

Funzionalità di Gemini 2.0 Flash:

  • Input multimodale
  • Output di testo (disponibilità generale) / output multimodale (anteprima privata)
  • Strumenti per ottimizzare i prompt
  • Generazione controllata
  • Chiamata di funzione
  • Grounding con la Ricerca Google
  • Esecuzione di codice
  • Token di conteggio

Utilizza questo ID modello per utilizzare Gemini 2.0 Flash con l'SDK Gen AI: gemini-2.0-flash

Disponibilità della funzionalità

Per Gemini 2.0 Flash sono disponibili le seguenti funzionalità:

Funzionalità Livello di disponibilità
Generazione di testo Generalmente disponibile
Grounding con la Ricerca Google Generalmente disponibile
SDK Gen AI Generalmente disponibile
API Multimodal Live Anteprima pubblica
Rilevamento di caselle delimitanti Anteprima pubblica
Generazione di immagini Anteprima privata
Generare voce Anteprima privata
  • Disponibile a livello generale:questa funzionalità è disponibile pubblicamente e supportata per l'uso nel codice a livello di produzione.
  • Anteprima pubblica:questa funzionalità è disponibile pubblicamente con una capacità ridotta. Non utilizzare le funzionalità rilasciate come anteprima pubblica nel codice di produzione, perché il livello di assistenza e la funzionalità della funzionalità possono cambiare senza preavviso.
  • Anteprima privata:questa funzionalità è disponibile solo per gli utenti inclusi in una lista consentita approvata. Non utilizzare le funzionalità rilasciate come anteprima privata nel codice di produzione, perché il livello di assistenza e la funzionalità di quella funzionalità possono cambiare senza preavviso.

Prezzi

Le informazioni sui prezzi di Gemini 2.0 Flash sono disponibili nella nostra pagina dei prezzi.

Quote e limitazioni

Le funzionalità GA in Gemini 2.0 Flash utilizzano la quota condivisa dinamica.

La verifica della fondatezza con la Ricerca Google in Gemini 2.0 Flash è soggetta al limite di frequenza.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite è il nostro modello Flash più veloce e conveniente. Si tratta di un percorso di upgrade per gli utenti di Flash 1.5 che vogliono una qualità migliore allo stesso prezzo e con la stessa velocità.

Gemini 2.0 Flash-Lite include:

  • Input multimodale, output di testo
  • Finestra contestuale di input da 1 milione di token
  • Finestra contestuale di output di 8000 token

2.0 Flash-Lite non include le seguenti funzionalità:

  • Generazione di output multimodale
  • Integrazione con l'API Multimodal Live
  • Modalità di pensiero
  • Utilizzo dello strumento integrato

Utilizza questo ID modello per utilizzare Gemini 2.0 Flash-Lite con l'SDK Gen AI: gemini-2.0-flash-lite

2.0 Pro

Gemini 2.0 Pro è il nostro modello più efficace per la programmazione e la conoscenza del mondo e presenta una finestra contestuale di 2 milioni di token. Gemini 2.0 Pro è disponibile come modello sperimentale in Vertex AI ed è un percorso di upgrade per gli utenti di 1.5 Pro che vogliono una migliore qualità o che sono particolarmente interessati a contesto e codice lunghi.

Funzionalità di Gemini 2.0 Pro:

  • Input multimodale
  • Output di testo
  • Strumenti per ottimizzare i prompt
  • Generazione controllata
  • Chiamate di funzione (escluse le chiamate di funzioni compositive)
  • Grounding con la Ricerca Google
  • Esecuzione di codice
  • Token di conteggio

Utilizza questo ID modello per utilizzare Gemini 2.0 Pro con l'SDK Gen AI: gemini-2.0-pro-exp-02-05

Quote e limitazioni

La frequenza di Gemini 2.0 Pro è limitata a 10 query al minuto (QPM) durante la fase sperimentale.

La verifica della fondatezza con la Ricerca Google in Gemini 2.0 Pro è soggetta al limite di frequenza.

SDK Google Gen AI

L'SDK AI generativa fornisce un'interfaccia unificata a Gemini 2.0 tramite sia l'API Gemini Developer sia l'API Gemini su Vertex AI. Con alcune eccezioni, il codice che viene eseguito su una piattaforma verrà eseguito su entrambe. Ciò significa che puoi realizzare il prototipo di un'applicazione utilizzando l'API Developer e poi eseguirne la migrazione a Vertex AI senza riscriverne il codice.

L'SDK Gen AI supporta anche i modelli Gemini 1.5.

L'SDK è disponibile in Python. Il supporto per Go è in anteprima e il supporto per Java e JavaScript sarà disponibile a breve.

Puoi iniziare a utilizzare l'SDK come mostrato.

Gen AI SDK for Python

Scopri come installare o aggiornare Gen AI SDK for Python.

Per saperne di più, consulta la documentazione di riferimento dell'SDK.

Imposta le variabili di ambiente per utilizzare l'SDK di IA generativa con Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...