Este documento fornece respostas para perguntas frequentes sobre a API Gemini, organizadas nas seguintes categorias:
Comparações de modelos
Qual é a diferença entre o PaLM e o Gemini?
Os modelos do Gemini são projetados para aplicativos multimodais. Eles aceitam comandos que incluem, por exemplo, texto e imagens, e depois retornam uma resposta de texto. O Gemini também oferece suporte à chamada de função, que permite que os desenvolvedores transmitam a descrição de uma função e, em seguida, o modelo retorne uma função e parâmetros que melhor correspondam à descrição. Os desenvolvedores podem chamar essa função em APIs e serviços externos.
Os modelos do PaLM 2 estão em disponibilidade geral (GA, na sigla em inglês). Os modelos do PaLM 2 são projetados para aplicativos de linguagem e têm um bom desempenho em casos de uso, como resumo e geração de textos. O PaLM 2 também oferece suporte completo para serviços de MLOps na Vertex AI, como monitoramento de modelos, que não estão disponíveis no Gemini.
Com o Vertex AI Studio, é possível personalizar modelos Gemini e PaLM 2 com controles de dados completos e aproveitar o suporte de conformidade e segurança do Google Cloud, além da segurança, proteção, privacidade e governança de dados. Os comandos e os dados de ajuste do Gêmeo e do PaLM 2 nunca são usados para treinar ou aprimorar os modelos de fundação.
Por que você escolheria o PaLM em vez do Gemini?
Para casos de uso que exigem exclusivamente entrada e saída de texto (como resumo, geração de texto e perguntas e respostas), os modelos do PaLM 2 podem fornecer respostas de alta qualidade o suficiente.
O Gemini é uma boa opção para casos de uso que incluem entrada multimodal, chamadas de funções ou técnicas de comandos complexas, como cadeia de pensamento e instruções complexas a seguir.
O PaLM 2 vai ser descontinuado?
Não há planos de descontinuar o PaLM 2.
Qual é a diferença entre o Imagen na Vertex AI e a API Gemini para casos de uso de visão?
O Imagen é um modelo de visão para casos de uso de geração, edição, legendagem e perguntas e respostas de imagens. Como parte das suas instruções, o Gemini pode capturar várias imagens ou um vídeo e fornecer respostas sobre suas entradas, enquanto o Imagen só pode ter uma imagem de entrada. O Gemini não tem suporte para geração ou edição de imagens.
Qual é a diferença entre as APIs Vertex AI Codey e a API Gemini para casos de uso de programação?
As APIs Codey foram criadas especificamente para geração, preenchimento e chat de código. As APIs Codey usam a tecnologia do Gemini e outros modelos desenvolvidos pelo Google. É possível usar as APIs em todo o ciclo de vida de desenvolvimento de software integrando-as a ambientes de desenvolvimento, fluxos de trabalho de CI/CD, painéis e outros aplicativos. Também é possível personalizar os modelos com sua base de código. Não recomendamos o Gemini 1.0 Pro Vision para geração de código.
Como envio uma solicitação para o modelo Gemini 1.0 Pro ou Gemini 1.0 Pro Vision
Há vários métodos diferentes que podem ser usados para enviar solicitações à API Gemini. Por exemplo, é possível usar o console do Google Cloud, um
SDK de linguagem de programação ou a API REST para enviar solicitações a gemini-1.0-pro
(Gemini 1.0 Pro) ou gemini-1.0-pro-vision
(Gemini 1.0 Pro Vision).
Para começar, consulte Testar a API Gemini.
Existe ajuste já disponível para o Gemini?
Você pode ajustar a versão 002 da
versão estável do
Gemini 1.0 Pro (gemini-1.0-pro-002
). Para mais
informações, consulte
Visão geral do ajuste de modelos para o Gemini.
Segurança e uso de dados
Por que minhas respostas estão bloqueadas?
A IA generativa na Vertex AI usa filtros de segurança para evitar respostas potencialmente nocivas. É possível ajustar esse limite de filtro de segurança. Para mais informações, consulte IA responsável.
Como meus dados de entrada são usados?
O Google garante que as equipes sigam nosso compromisso com a privacidade de IA/ML por meio de práticas robustas de governança de dados, que incluem análises dos dados que o Google Cloud usa no desenvolvimento de produtos. Para mais detalhes, consulte IA generativa e governança de dados
Você armazena meus dados em cache?
O Google pode armazenar em cache as entradas e saídas de um cliente para modelos Gemini para acelerar as respostas aos prompts subsequentes do cliente. Os conteúdos armazenados em cache são armazenados por até 24 horas. Por padrão, o armazenamento em cache de dados é ativado para cada projeto do Google Cloud. As mesmas configurações de cache para um projeto do Google Cloud se aplicam a todas as regiões. Você pode usar os seguintes comandos curl para receber o status de armazenamento em cache, desativar o armazenamento em cache ou reativar o armazenamento em cache. Para mais informações, consulte Previsão na página IA generativa e governança de dados. Quando você desativa ou reativa o armazenamento em cache, a alteração é aplicada a todas as regiões do Google Cloud. Para mais informações sobre como usar o Identity and Access Management para conceder permissões necessárias para ativar ou desativar o armazenamento em cache, consulte Controle de acesso da Vertex AI com IAM. Expanda as seções a seguir para saber como conseguir a configuração atual de cache e ativá-lo e desativá-lo.
Acessar a configuração de armazenamento em cache atual
Execute o comando a seguir para determinar se o armazenamento em cache está ativado ou desativado em um projeto. Para executar esse comando, o usuário precisa receber um dos seguintes papéis: roles/aiplatform.viewer
, roles/aiplatform.user
ou roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # GetCacheConfig $ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig # Response if caching is enabled (caching is enabled by default). { "name": "projects/PROJECT_ID/cacheConfig" } # Response if caching is disabled. { "name": "projects/PROJECT_ID/cacheConfig" "disableCache": true }
Desativar cache
Execute o comando curl a seguir para desativar o armazenamento em cache para um projeto do Google Cloud. Para executar
esse comando, o usuário precisa receber o papel de administrador da Vertex AI,
roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt-out of caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": true }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Ativar o armazenamento em cache
Se você desativou o armazenamento em cache de um projeto do Google Cloud e quer reativá-lo, execute o
comando curl a seguir. Para executar esse comando, o usuário precisa ter o
papel de administrador da Vertex AI, roles/aiplatform.admin
.
PROJECT_ID=PROJECT_ID LOCATION_ID="us-central1" # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt in to caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": false }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Migração
Como faço para migrar o Gemini no Google AI Studio para o Vertex AI Studio?
A migração para a plataforma Vertex AI do Google Cloud oferece um conjunto de ferramentas de MLOps que simplificam o uso, a implantação e o monitoramento de modelos de IA para eficiência e confiabilidade. Para migrar seu trabalho para a Vertex AI, importe e faça upload dos dados atuais para o Vertex AI Studio e use a API Vertex AI Gemini. Para mais informações, consulte Migrar do Gemini no Google AI para a Vertex AI.
Como faço para mudar do PaLM 2 para a API Vertex AI Gemini como modelo?
Não é necessário fazer grandes alterações na arquitetura dos aplicativos ao mudar de modelos do PaLM para modelos do Gemini. Do ponto de vista da API, a mudança de um modelo para outro requer a mudança de uma única linha de código ou a atualização do SDK. Para mais informações, consulte Migrar da API PaLM para a API Vertex AI Gemini.
Como as respostas podem variar entre os modelos, recomendamos que você faça testes de comandos para comparar as respostas dos modelos PaLM e Gemini e verificar se as respostas atendem às suas expectativas.
Disponibilidade e preços
Em quais locais o Gemini está disponível?
O Gemini 1.0 Pro e o Gemini 1.0 Pro Vision estão disponíveis nas regiões da Ásia, dos EUA e da Europa. Para mais informações, consulte IA generativa em locais da Vertex AI.
Existe um nível de avaliação gratuito para a API Vertex AI Gemini?
Entre em contato com seu representante do Google Cloud para mais informações.
Qual é o preço da API Vertex AI Gemini?
As informações sobre preços para modelos do Gemini estão disponíveis na seção Multimodal de Preços da IA generativa na Vertex AI.
Como tenho acesso ao Gemini Ultra?
Entre em contato com o representante da sua Conta do Google para solicitar acesso.
Cotas
Como resolvo um erro de cota (429) ao fazer solicitações de API?
Há demanda excessiva ou a solicitação excedeu sua cota por projeto. Verifique se a taxa de solicitação é menor que a cota do projeto. Para conferir as cotas do projeto, acesse a página Cotas no console do Google Cloud. Para mais informações, consulte IA generativa na Vertex AI sobre cota e limites da Vertex AI.
Como posso aumentar as cotas do meu projeto para o Gemini?
É possível solicitar um aumento no console do Google Cloud. Para mais informações, consulte IA generativa na Vertex AI sobre cota e limites da Vertex AI.