Gemini 2.0

Os modelos Gemini 2.0 são os modelos mais recentes do Google com suporte na Vertex AI. Esta página aborda os seguintes modelos:

Para saber mais sobre o modelo de pensamento rápido do Gemini 2.0, acesse a documentação do Gemini 2.0 Flash Thinking.

Modelos 2.0

2.0 Flash

O Gemini 2.0 Flash é o modelo mais recente da família Gemini disponível em geral. É o modelo de trabalho para todas as tarefas diárias e oferece desempenho aprimorado e suporte à API Live em tempo real. O Flash 2.0 é um caminho de upgrade para usuários do Flash 1.5 que querem um modelo um pouco mais lento com qualidade significativamente melhor ou usuários do 1.5 Pro que querem qualidade um pouco melhor e latência em tempo real por menos.

O Gemini 2.0 Flash apresenta os seguintes recursos novos e aprimorados:

  • API Multimodal Live:essa nova API permite interações de voz e vídeo bidirecionais de baixa latência com o Gemini.
  • Qualidade:melhoria no desempenho na maioria dos comparativos de mercado de qualidade em relação ao Gemini 1.5 Pro.
  • Melhorias nos recursos de agente:o Flash 2.0 oferece melhorias na compreensão multimodal, programação, acompanhamento de instruções complexas e chamada de função. Essas melhorias funcionam juntas para oferecer experiências melhores.
  • Novas modalidades:o Flash 2.0 apresenta recursos integrados de geração de imagens e de conversão de texto em fala, permitindo a edição de imagens, a criação de artes localizadas e a narrativa expressiva.

Recursos do Gemini 2.0 Flash:

  • Entrada multimodal
  • Saída de texto (disponibilidade geral) / saída multimodal (visualização particular)
  • Otimizadores de comandos
  • Geração controlada
  • Chamadas de função
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar o Gemini 2.0 Flash com o SDK da IA generativa: gemini-2.0-flash

Disponibilidade do recurso

Os seguintes recursos estão disponíveis para o Gemini 2.0 Flash:

Recurso Nível de disponibilidade
Geração de texto Disponibilidade geral
Embasamento com a Pesquisa Google Disponibilidade geral
SDK da Gen AI Disponibilidade geral
API Multimodal Live Pré-lançamento público
Detecção de caixa delimitadora Pré-lançamento público
Geração de imagens Pré-lançamento particular
Geração de fala Pré-lançamento particular
  • Disponível de forma geral:esse recurso está disponível publicamente e tem suporte para uso em código de produção.
  • Pré-lançamento público:esse recurso está disponível publicamente em uma capacidade reduzida. Não use recursos lançados como uma prévia pública no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.
  • Prévia particular:esse recurso está disponível apenas para usuários listados em uma lista de permissões aprovada. Não use recursos lançados como uma prévia privada no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.

Preços

Informações sobre os preços do Gemini 2.0 Flash estão disponíveis na nossa página de preços.

Cotas e limitações

Os recursos de GA no Gemini 2.0 Flash usam a cota compartilhada dinâmica.

O embasamento na Pesquisa Google no Gemini 2.0 Flash está sujeito a limitação de taxa.

2.0 Flash-Lite

O Gemini 2.0 Flash-Lite é nosso modelo Flash mais rápido e econômico. É um caminho de upgrade para usuários do Flash 1.5 que querem qualidade melhor pelo mesmo preço e velocidade.

O Gemini 2.0 Flash-Lite inclui:

  • Entrada multimodal, saída de texto
  • Janela de contexto de entrada com 1 milhão de tokens
  • Janela de contexto de saída de 8 mil tokens

O Flash-Lite 2.0 não inclui os seguintes recursos:

  • Geração de saída multimodal
  • Integração com a API Multimodal Live
  • Modo de pensamento
  • Uso da ferramenta integrada

Use este ID de modelo para usar o Gemini 2.0 Flash-Lite com o SDK da IA generativa: gemini-2.0-flash-lite

2.0 Pro

O Gemini 2.0 Pro é nosso modelo mais forte para programação e conhecimento mundial e tem uma janela de contexto de 2 milhões. O Gemini 2.0 Pro está disponível como um modelo experimental na Vertex AI e é um caminho de upgrade para usuários do 1.5 Pro que querem uma qualidade melhor ou que estão particularmente interessados em contexto e código longos.

Recursos do Gemini 2.0 Pro:

  • Entrada multimodal
  • Saída de texto
  • Otimizadores de comandos
  • Geração controlada
  • Chamada de função (exceto chamada de função compositiva)
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar o Gemini 2.0 Pro com o SDK da IA generativa: gemini-2.0-pro-exp-02-05

Cotas e limitações

O Gemini 2.0 Pro tem uma taxa limitada a 10 consultas por minuto (QPM) durante o Experimental.

O embasamento na Pesquisa Google no Gemini 2.0 Pro está sujeito a limitação de taxa.

SDK do Google Gen AI

O SDK da IA generativa oferece uma interface unificada para o Gemini 2.0 pela API para desenvolvedores e pela API Gemini na Vertex AI. Com poucas exceções, o código executado em uma plataforma é executado nas duas. Isso significa que você pode criar protótipos de um aplicativo usando a API Developer e migrar o aplicativo para a Vertex AI sem reescrever o código.

O SDK da IA generativa também oferece suporte aos modelos Gemini 1.5.

O SDK está disponível para todos os usuários no Python. O suporte para Go está em pré-lançamento, e o suporte para Java e JavaScript será disponibilizado em breve.

Você pode começar a usar o SDK como mostrado.

Gen AI SDK for Python

Saiba como instalar ou atualizar o Gen AI SDK for Python.

Para saber mais, consulte a documentação de referência do SDK.

Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...