Gemini 2.0

Les modèles Gemini 2.0 sont les derniers modèles Google compatibles avec Vertex AI. Cette page présente les modèles suivants:

Pour en savoir plus sur notre modèle de pensée Flash Gemini 2.0, consultez la documentation sur la pensée Flash Gemini 2.0.

Modèles 2.0

2.0 Flash

Gemini 2.0 Flash est notre tout dernier modèle disponible dans la famille Gemini. Il s'agit de notre modèle de base pour toutes les tâches quotidiennes. Il offre des performances améliorées et est compatible avec l'API Live en temps réel. 2.0 Flash est un chemin d'accès pour les utilisateurs de 1.5 Flash qui souhaitent un modèle légèrement plus lent avec une qualité nettement meilleure, ou pour les utilisateurs de 1.5 Pro qui souhaitent une qualité légèrement meilleure et une latence en temps réel à moindre coût.

Gemini 2.0 Flash introduit les nouvelles fonctionnalités suivantes:

  • API Multimodal Live:cette nouvelle API permet des interactions vocales et vidéo bidirectionnelles à faible latence avec Gemini.
  • Qualité:performances améliorées pour la plupart des benchmarks de qualité par rapport à Gemini 1.5 Pro.
  • Amélioration des fonctionnalités d'agentivité:Flash 2.0 améliore la compréhension multimodale, le codage, le suivi d'instructions complexes et l'appel de fonctions. Ces améliorations fonctionnent ensemble pour offrir de meilleures expériences d'agent.
  • Nouvelles modalités:Flash 2.0 introduit la génération d'images intégrée et des fonctionnalités de synthèse vocale contrôlées, ce qui permet de modifier des images, de créer des illustrations localisées et de raconter des histoires expressives.

Fonctionnalités de Gemini 2.0 Flash:

  • Entrée multimodale
  • Sortie textuelle (disponibilité générale) / sortie multimodale (aperçu privé)
  • Optimiseurs de requêtes
  • Génération contrôlée
  • Appel de fonction
  • Ancrage avec la recherche Google
  • Exécution du code
  • Jeton de comptage

Utilisez cet ID de modèle pour utiliser Gemini 2.0 Flash avec le SDK Gen AI: gemini-2.0-flash

Fonctionnalités disponibles

Les fonctionnalités suivantes sont disponibles pour Gemini 2.0 Flash:

Fonctionnalité Niveau de disponibilité
Génération de texte Disponibilité générale
Ancrage avec la recherche Google Disponibilité générale
SDK Gen AI Disponibilité générale
API Multimodal Live Version Preview publique
Détection de cadre de délimitation Version Preview publique
Génération d'images Version Preview privée
Génération de la parole Version Preview privée
  • Disponibilité générale:cette fonctionnalité est disponible publiquement et peut être utilisée dans le code de production.
  • Preview publique:cette fonctionnalité est disponible publiquement dans une capacité réduite. N'utilisez pas les fonctionnalités publiées en version preview publique dans le code de production, car le niveau d'assistance et les fonctionnalités de cette fonctionnalité peuvent changer sans avertissement.
  • Preview privée:cette fonctionnalité n'est disponible que pour les utilisateurs figurant sur une liste d'autorisation approuvée. N'utilisez pas de fonctionnalités publiées en version preview privée dans le code de production, car le niveau d'assistance et les fonctionnalités de cette fonctionnalité peuvent changer sans avertissement.

Tarifs

Pour en savoir plus sur les tarifs de Gemini 2.0 Flash, consultez la page des tarifs.

Quotas et limites

Les fonctionnalités GA de Gemini 2.0 Flash utilisent un quota partagé dynamique.

L'ancrage avec la recherche Google dans Gemini 2.0 Flash est soumis à une limitation de débit.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite est notre modèle Flash le plus rapide et le plus économique. Il s'agit d'un chemin d'accès pour les utilisateurs de Flash 1.5 qui souhaitent une meilleure qualité pour le même prix et la même vitesse.

Gemini 2.0 Flash-Lite inclut:

  • Entrée multimodale, sortie textuelle
  • Fenêtre de contexte d'entrée de 1 million de jetons
  • Fenêtre de contexte de sortie de 8 000 jetons

2.0 Flash-Lite n'inclut pas les fonctionnalités suivantes:

  • Génération de sortie multimodale
  • Intégration à l'API Multimodal Live
  • Mode réflexion
  • Utilisation des outils intégrés

Utilisez cet ID de modèle pour utiliser Gemini 2.0 Flash-Lite avec le SDK Gen AI: gemini-2.0-flash-lite

2.0 Pro

Gemini 2.0 Pro est notre modèle le plus performant pour le codage et les connaissances du monde. Il dispose d'une fenêtre de contexte de deux millions de jetons. Gemini 2.0 Pro est disponible en tant que modèle expérimental dans Vertex AI. Il s'agit d'un chemin de mise à niveau pour les utilisateurs de 1.5 Pro qui souhaitent une meilleure qualité ou qui sont particulièrement investis dans le contexte et le code longs.

Fonctionnalités de Gemini 2.0 Pro:

  • Entrée multimodale
  • Sortie textuelle
  • Optimiseurs de requêtes
  • Génération contrôlée
  • Appel de fonction (à l'exception de l'appel de fonction compositionnel)
  • Ancrage avec la recherche Google
  • Exécution du code
  • Jeton de comptage

Utilisez cet ID de modèle pour utiliser Gemini 2.0 Pro avec le SDK Gen AI: gemini-2.0-pro-exp-02-05

Quotas et limites

Gemini 2.0 Pro est limité à 10 requêtes par minute (RPM) pendant la phase expérimentale.

L'ancrage avec la recherche Google dans Gemini 2.0 Pro est soumis à une limitation de débit.

SDK Google Gen AI

Le SDK Gen AI fournit une interface unifiée à Gemini 2.0 via l'API Gemini Developer et l'API Gemini sur Vertex AI. À quelques exceptions près, le code qui s'exécute sur une plate-forme s'exécute sur les deux. Cela signifie que vous pouvez créer un prototype d'application à l'aide de l'API pour les développeurs, puis migrer l'application vers Vertex AI sans réécrire votre code.

Le SDK Gen AI est également compatible avec les modèles Gemini 1.5.

Le SDK est disponible pour tous les utilisateurs en Python. La prise en charge de Go est en version preview, et celle de Java et JavaScript sera bientôt disponible.

Vous pouvez commencer à utiliser le SDK comme indiqué.

Gen AI SDK for Python

Découvrez comment installer ou mettre à jour Gen AI SDK for Python.

Pour en savoir plus, consultez la documentation de référence du SDK.

Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...