Gemini 2.0

Los modelos de Gemini 2.0 son los modelos de Google más recientes compatibles con Vertex AI. En esta página, se analizan los siguientes modelos:

Si buscas información sobre nuestro modelo Gemini 2.0 Flash Thinking, visita nuestra documentación de Gemini 2.0 Flash Thinking.

Modelos 2.0

2.0 Flash

Gemini 2.0 Flash es nuestro modelo más reciente disponible de forma general en la familia Gemini. Es nuestro modelo de trabajo para todas las tareas diarias, tiene un rendimiento mejorado y admite la API en vivo en tiempo real. 2.0 Flash es una ruta de actualización para los usuarios de 1.5 Flash que desean un modelo un poco más lento con una calidad significativamente mejor, o para los usuarios de 1.5 Pro que desean una calidad ligeramente mejor y una latencia en tiempo real por menos.

Gemini 2.0 Flash presenta las siguientes funciones nuevas y mejoradas:

  • API de Multimodal Live: Esta nueva API habilita interacciones de voz y video bidireccionales de baja latencia con Gemini.
  • Calidad: Rendimiento mejorado en la mayoría de las comparativas de calidad en comparación con Gemini 1.5 Pro.
  • Capacidades de agente mejoradas: Flash 2.0 ofrece mejoras en la comprensión multimodal, la codificación, el seguimiento de instrucciones complejas y las llamadas a funciones. Estas mejoras funcionan en conjunto para ofrecer mejores experiencias de agentes.
  • Nuevas modalidades: Flash 2.0 presenta capacidades de generación de imágenes integradas y de texto a voz controlable, lo que permite la edición de imágenes, la creación de material gráfico localizado y la narración expresiva.

Funciones de Gemini 2.0 Flash:

  • Entrada multimodal
  • Salida de texto (disponibilidad general) / salida multimodal (vista previa privada)
  • Optimizadores de instrucciones
  • Generación controlada
  • Llamada a función
  • Grounding with Google Search
  • Ejecución de código
  • Cuenta el token

Usa este ID de modelo para usar Gemini 2.0 Flash con el SDK de Gen AI: gemini-2.0-flash-001

Disponibilidad de las características

Las siguientes funciones están disponibles para Gemini 2.0 Flash:

Función Nivel de disponibilidad
Generación de texto Disponible de manera general
Grounding with Google Search Disponible de manera general
SDK de Gen AI Disponible de manera general
API de Multimodal Live Versión preliminar pública
Detección de cuadros de límite Versión preliminar pública
Generación de imágenes Versión preliminar privada
Generación de voz Versión preliminar privada
  • Disponibilidad general: Esta función está disponible de forma pública y es compatible con el uso en código a nivel de producción.
  • Versión preliminar pública: Esta función está disponible públicamente en una capacidad reducida. No uses funciones que se hayan lanzado como versión preliminar pública en el código de producción, ya que el nivel de compatibilidad y la funcionalidad de esa función pueden cambiar sin previo aviso.
  • Versión preliminar privada: Esta función solo está disponible para los usuarios que figuran en una lista de entidades permitidas aprobada. No uses funciones que se lanzan como una vista preliminar privada en el código de producción, ya que el nivel de compatibilidad y la funcionalidad de esa función pueden cambiar sin previo aviso.

Precios

La información sobre los precios de Gemini 2.0 Flash está disponible en nuestra página de precios.

Cuotas y limitaciones

Las funciones de GA en Gemini 2.0 Flash usan una cuota compartida dinámica.

La verificación de la conexión a tierra con la Búsqueda de Google en Gemini 2.0 Flash está sujeta al límite de frecuencia.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite es nuestro modelo de Flash más rápido y rentable. Es una ruta de actualización para los usuarios de 1.5 Flash que desean obtener una mejor calidad por el mismo precio y velocidad.

Gemini 2.0 Flash-Lite incluye lo siguiente:

  • Entrada multimodal, salida de texto
  • Ventana de contexto de entrada de 1 millón de tokens
  • Ventana de contexto de salida de 8,000 tokens

2.0 Flash-Lite no incluye las siguientes funciones de 2.0 Flash:

  • Generación de resultados multimodales
  • Integración con la API de Multimodal Live
  • Modo de pensar
  • Uso de herramientas integradas

Usa este ID de modelo para usar Gemini 2.0 Flash-Lite con el SDK de Gen AI: gemini-2.0-flash-lite-preview-02-05

Cuotas y limitaciones

Gemini 2.0 Flash-Lite tiene una limitación de frecuencia de 60 consultas por minuto durante la versión preliminar pública.

Gemini 2.0 Flash-Lite solo está disponible en la región us-central1 en Vertex AI.

2.0 Pro

Gemini 2.0 Pro es nuestro modelo más potente para la programación y el conocimiento mundial, y cuenta con una ventana de contexto de 2 millones de tokens. Gemini 2.0 Pro está disponible como modelo experimental en Vertex AI y es una ruta de actualización para los usuarios de 1.5 Pro que desean una mejor calidad o que invierten especialmente en el contexto y el código largos.

Funciones de Gemini 2.0 Pro:

  • Entrada multimodal
  • Salida de texto
  • Optimizadores de instrucciones
  • Generación controlada
  • Llamadas a función (sin incluir llamadas a función de composición)
  • Grounding with Google Search
  • Ejecución de código
  • Cuenta el token

Usa este ID de modelo para usar Gemini 2.0 Pro con el SDK de Gen AI: gemini-2.0-pro-exp-02-05

Cuotas y limitaciones

Gemini 2.0 Pro tiene una limitación de frecuencia de 10 consultas por minuto (QPM) durante la fase experimental.

La verificación de la conexión a tierra con la Búsqueda de Google en Gemini 2.0 Pro está sujeta al límite de frecuencia.

Google Gen AI SDK

El SDK de Gen AI proporciona una interfaz unificada a Gemini 2.0 a través de la API para desarrolladores de Gemini y la API de Gemini en Vertex AI. Con algunas excepciones, el código que se ejecuta en una plataforma se ejecutará en ambas. Esto significa que puedes crear prototipos de una aplicación con la API para desarrolladores y, luego, migrar la aplicación a Vertex AI sin reescribir el código.

El SDK de Gen AI también admite los modelos Gemini 1.5.

El SDK está disponible de forma general en Python. La compatibilidad con Go está en versión preliminar, y la compatibilidad con Java y JavaScript estará disponible próximamente.

Puedes comenzar a usar el SDK como se muestra.

SDK de Gen AI para Python

Obtén información para instalar o actualizar el SDK de Google Gen AI para Python.
Para obtener más información, consulta la documentación de referencia de la API del SDK de Gen AI para Python o el repositorio de GitHub de python-genai.
Establece variables de entorno para usar el SDK de Gen AI con Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...

Cómo configurar variables de entorno (opcional)

Como alternativa, puedes inicializar el cliente con variables de entorno. Primero, establece los valores adecuados y exporta las variables:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=YOUR_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

Luego, puedes inicializar el cliente sin ningún argumento:

client = genai.Client()