Gemini 2.0

Os modelos Gemini 2.0 são os modelos mais recentes do Google com suporte na Vertex AI. Esta página aborda os seguintes modelos:

Para saber mais sobre o modelo de pensamento rápido do Gemini 2.0, acesse a documentação do Gemini 2.0 Flash Thinking.

Modelos 2.0

2.0 Flash

O Gemini 2.0 Flash é o modelo mais recente da família Gemini disponível em geral. É o modelo de trabalho para todas as tarefas diárias e oferece desempenho aprimorado e suporte à API Live em tempo real. O Flash 2.0 é um caminho de upgrade para usuários do Flash 1.5 que querem um modelo um pouco mais lento com qualidade significativamente melhor ou usuários do 1.5 Pro que querem qualidade um pouco melhor e latência em tempo real por menos.

O Gemini 2.0 Flash apresenta os seguintes recursos novos e aprimorados:

  • API Multimodal Live:essa nova API permite interações de voz e vídeo bidirecionais de baixa latência com o Gemini.
  • Qualidade:melhor desempenho na maioria dos comparativos de mercado de qualidade do que o Gemini 1.5 Pro.
  • Melhorias nos recursos de agentes:o Flash 2.0 oferece melhorias na compreensão multimodal, na programação, no acompanhamento de instruções complexas e na chamada de função. Essas melhorias funcionam em conjunto para oferecer experiências melhores.
  • Novas modalidades:o Flash 2.0 apresenta recursos integrados de geração de imagens e de conversão de texto em fala, permitindo a edição de imagens, a criação de artes localizadas e a narrativa expressiva.

Recursos do Gemini 2.0 Flash:

  • Entrada multimodal
  • Saída de texto (disponibilidade geral) / saída multimodal (visualização particular)
  • Otimizadores de comandos
  • Geração controlada
  • Chamadas de função
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar o Gemini 2.0 Flash com o SDK da IA generativa: gemini-2.0-flash-001

Disponibilidade do recurso

Os seguintes recursos estão disponíveis para o Gemini 2.0 Flash:

Recurso Nível de disponibilidade
Geração de texto Disponibilidade geral
Embasamento com a Pesquisa Google Disponibilidade geral
SDK da IA generativa Disponibilidade geral
API Multimodal Live Pré-lançamento público
Detecção de caixa delimitadora Pré-lançamento público
Geração de imagens Pré-lançamento particular
Geração de fala Pré-lançamento particular
  • Disponível de forma geral:esse recurso está disponível publicamente e tem suporte para uso em código de produção.
  • Pré-lançamento público:esse recurso está disponível publicamente em uma capacidade reduzida. Não use recursos lançados como uma prévia pública no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.
  • Prévia particular:esse recurso está disponível apenas para usuários listados em uma lista de permissões aprovada. Não use recursos lançados como uma prévia privada no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.

Preços

Informações sobre os preços do Gemini 2.0 Flash estão disponíveis na nossa página de preços.

Cotas e limitações

Os recursos de GA no Gemini 2.0 Flash usam a cota compartilhada dinâmica.

O embasamento na Pesquisa Google no Gemini 2.0 Flash está sujeito a limitação de taxa.

2.0 Flash-Lite

O Gemini 2.0 Flash-Lite é nosso modelo Flash mais rápido e econômico. É um caminho de upgrade para usuários do Flash 1.5 que querem uma qualidade melhor pelo mesmo preço e velocidade.

O Gemini 2.0 Flash-Lite inclui:

  • Entrada multimodal, saída de texto
  • Janela de contexto de entrada com 1 milhão de tokens
  • Janela de contexto de saída de 8 mil tokens

O 2.0 Flash-Lite não inclui os seguintes recursos do 2.0 Flash:

  • Geração de saída multimodal
  • Integração com a API Multimodal Live
  • Modo de pensamento
  • Uso da ferramenta integrada

Use este ID de modelo para usar o Gemini 2.0 Flash-Lite com o SDK da IA generativa: gemini-2.0-flash-lite-preview-02-05

Cotas e limitações

O Gemini 2.0 Flash-Lite tem uma taxa limitada a 60 consultas por minuto durante o pré-lançamento público.

O Gemini 2.0 Flash-Lite só está disponível na região us-central1 na Vertex AI.

2.0 Pro

O Gemini 2.0 Pro é nosso modelo mais avançado para programação e conhecimento mundial e tem uma janela de contexto de 2 milhões. O Gemini 2.0 Pro está disponível como um modelo experimental na Vertex AI e é um caminho de upgrade para usuários do 1.5 Pro que querem uma qualidade melhor ou que estão particularmente interessados em contexto e código longos.

Recursos do Gemini 2.0 Pro:

  • Entrada multimodal
  • Saída de texto
  • Otimizadores de comandos
  • Geração controlada
  • Chamada de função (exceto chamada de função compositiva)
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar o Gemini 2.0 Pro com o SDK da IA generativa: gemini-2.0-pro-exp-02-05

Cotas e limitações

O Gemini 2.0 Pro tem uma taxa limitada a 10 consultas por minuto (QPM) durante o Experimental.

O embasamento na Pesquisa Google no Gemini 2.0 Pro está sujeito a limitação de taxa.

SDK do Google Gen AI

O SDK de IA generativa oferece uma interface unificada para o Gemini 2.0 pela API para desenvolvedores e pela API Gemini na Vertex AI. Com poucas exceções, o código executado em uma plataforma é executado nas duas. Isso significa que você pode criar protótipos de um aplicativo usando a API para desenvolvedores e migrar o aplicativo para a Vertex AI sem reescrever o código.

O SDK de IA generativa também oferece suporte aos modelos Gemini 1.5.

O SDK está disponível para todos os usuários no Python. O suporte para Go está em pré-lançamento, e o suporte para Java e JavaScript será disponibilizado em breve.

Você pode começar a usar o SDK como mostrado.

SDK da Gen AI para Python

Saiba como instalar ou atualizar o SDK do Google Gen AI para Python.
Para mais informações, consulte a documentação de referência da API SDK do Gen AI para Python ou o python-genai repositório do GitHub.
Defina as variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...

(Opcional) Defina variáveis de ambiente

Como alternativa, é possível inicializar o cliente usando variáveis de ambiente. Primeiro, defina os valores apropriados e exporte as variáveis:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=YOUR_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

Em seguida, inicialize o cliente sem argumentos:

client = genai.Client()