O Vertex AI suporta uma lista organizada de modelos desenvolvidos por parceiros Google. Os modelos de parceiros podem ser usados com a Vertex AI como um modelo como serviço (MaaS) e são oferecidos como uma API gerida. Quando usa um modelo de parceiro, continua a enviar os seus pedidos para os pontos finais da Vertex AI. Os modelos de parceiros são sem servidor, pelo que não tem de aprovisionar nem gerir infraestruturas.
Pode descobrir modelos de parceiros através do Model Garden. Também pode implementar modelos através do Model Garden. Para mais informações, consulte o artigo Explore modelos de IA no Model Garden. Embora possa encontrar informações sobre cada modelo de parceiro disponível no respetivo cartão de modelo no Model Garden, apenas os modelos de terceiros que funcionam como um MaaS com a Vertex AI estão documentados neste guia.
Os modelos Claude da Anthropic e Mistral são exemplos de modelos geridos de terceiros que estão disponíveis para utilização no Vertex AI.
Modelos de parceiros
Os seguintes modelos de parceiros são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
Nome do modelo | Modalidade | Descrição | Início rápido |
---|---|---|---|
Claude Opus 4.1 | Idioma, visão | Um líder da indústria na programação. Oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço concentrado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. Ideal para potenciar produtos de agentes de vanguarda e funcionalidades. | Cartão do modelo |
Claude Opus 4 | Idioma, visão | O Claude Opus 4 oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço focado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. | Cartão do modelo |
Claude Sonnet 4 | Idioma, visão | Modelo de tamanho médio da Anthropic com inteligência superior para utilizações de grande volume, como programação, investigação detalhada e agentes. | Cartão do modelo |
Claude 3.7 Sonnet da Anthropic | Idioma, visão | Modelo líder da indústria para programação e tecnologia de agentes de IA, e o primeiro modelo Claude a oferecer um raciocínio alargado. | Cartão do modelo |
Claude 3.5 Sonnet v2 da Anthropic | Idioma, visão | O Claude 3.5 Sonnet atualizado é um modelo de vanguarda para tarefas de engenharia de software do mundo real e capacidades de agente. O Claude 3.5 Sonnet oferece estes avanços ao mesmo preço e velocidade que o seu antecessor. | Cartão do modelo |
Claude 3.5 Haiku da Anthropic | Idioma, visão | O Claude 3.5 Haiku, a próxima geração do modelo mais rápido e económico da Anthropic, é ideal para exemplos de utilização em que a velocidade e a acessibilidade são importantes. | Cartão do modelo |
Claude 3 Haiku da Anthropic | Idioma | O modelo de visão e texto mais rápido da Anthropic para respostas quase instantâneas a consultas básicas, destinado a experiências de IA perfeitas que imitam as interações humanas. | Cartão do modelo |
Claude 3.5 Sonnet da Anthropic | Idioma | O Claude 3.5 Sonnet supera o Claude 3 Opus da Anthropic numa vasta gama de avaliações da Anthropic com a velocidade e o custo do modelo de nível intermédio da Anthropic, o Claude 3 Sonnet. | Cartão do modelo |
Jamba 1.5 Large (pré-visualização) | Idioma | O Jamba 1.5 Large da AI21 Labs foi concebido para oferecer respostas de qualidade superior, elevado débito e preços competitivos em comparação com outros modelos da sua classe de tamanho. | Cartão do modelo |
Jamba 1.5 Mini (pré-visualização) | Idioma | O Jamba 1.5 Mini da AI21 Labs está bem equilibrado em termos de qualidade, taxa de transferência e baixo custo. | Cartão do modelo |
Mistral OCR (25.05) | Idioma, visão | O Mistral OCR (25.05) é uma API de reconhecimento ótico de carateres para a interpretação de documentos. O modelo compreende cada elemento dos documentos, como conteúdo multimédia, texto, tabelas e equações. | Cartão do modelo |
Mistral Small 3.1 (25/03) | Idioma | O Mistral Small 3.1 (25/03) é a versão mais recente do modelo Small da Mistral, com capacidades multimodais e extensão do contexto. | Cartão do modelo |
Mistral Large (24.11) | Idioma | O Mistral Large (24.11) é a versão seguinte do modelo Mistral Large (24.07), agora com capacidades de raciocínio e de chamadas de funções melhoradas. | Cartão do modelo |
Codestral (25.01) | Código | Um modelo de vanguarda concebido para a geração de código, incluindo o preenchimento de lacunas e a conclusão de código. | Cartão do modelo |
Preços dos modelos de parceiros da Vertex AI com garantia de capacidade
A Google oferece débito processado para alguns modelos de parceiros que reservam a capacidade de débito processado para os seus modelos por uma taxa fixa. Cabe-lhe a si decidir a capacidade de débito e em que regiões reservar essa capacidade. Uma vez que os pedidos de débito processado são prioritários em relação aos pedidos padrão de pagamento conforme o uso, o débito processado oferece uma maior disponibilidade. Quando o sistema está sobrecarregado, os seus pedidos podem continuar a ser concluídos, desde que o débito permaneça abaixo da capacidade de débito reservada. Para mais informações ou para subscrever o serviço, contacte a equipa de vendas.
Pontos finais regionais e globais
Para pontos finais regionais, os pedidos são processados a partir da região especificada. Nos casos em que tem requisitos de residência de dados ou se um modelo não suportar o ponto final global, use os pontos finais regionais.
Quando utiliza o ponto final global, a Google pode processar e responder aos seus pedidos a partir de qualquer região suportada pelo modelo que está a usar, o que pode resultar numa latência mais elevada em alguns casos. O ponto final global ajuda a melhorar a disponibilidade geral e a reduzir os erros.
Não existe diferença de preço com os pontos finais regionais quando usa o ponto final global. No entanto, as quotas de pontos finais globais e as capacidades do modelo suportadas podem diferir dos pontos finais regionais. Para mais informações, consulte a página do modelo de terceiros relacionado.
Especifique o ponto final global
Para usar o ponto final global, defina a região como global
.
Por exemplo, o URL de pedido de um comando curl usa o seguinte formato:
https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/PUBLISHER_NAME/models/MODEL_NAME
Para o SDK Vertex AI, um ponto final regional é a predefinição. Defina a região para GLOBAL
para usar o ponto final global.
Modelos suportados
O ponto final global está disponível para os seguintes modelos:
Restrinja a utilização do ponto final da API global
Para ajudar a aplicar a utilização de pontos finais regionais, use a restrição da política da organização constraints/gcp.restrictEndpointUsage
para bloquear pedidos ao ponto final da API global. Para mais informações, consulte o artigo
Restringir a utilização de pontos finais.
Conceda acesso de utilizador a modelos de parceiros
Para poder ativar modelos de parceiros e fazer um pedido de comando, um Google Cloud administrador tem de definir as autorizações necessárias e validar se a política da organização permite a utilização das APIs necessárias.
Defina as autorizações necessárias para usar modelos de parceiros
As seguintes funções e autorizações são necessárias para usar modelos de parceiros:
Tem de ter a função de gestão de identidade e de acesso (IAM) do gestor de autorizações de aprovisionamento de consumidor. Qualquer pessoa a quem tenha sido concedida esta função pode ativar modelos de parceiros no Model Garden.
Tem de ter a autorização
aiplatform.endpoints.predict
. Esta autorização está incluída na função IAM de utilizador do Vertex AI. Para mais informações, consulte os artigos Utilizador do Vertex AI e Controlo de acesso.
Consola
Para conceder as funções do IAM do gestor de autorizações de aprovisionamento do consumidor a um utilizador, aceda à página IAM.
Na coluna Principal, encontre o utilizador principal para o qual quer ativar o acesso a modelos de parceiros e, de seguida, clique em Editar principal nessa linha.
No painel Editar acesso, clique em
Adicionar outra função.Em Selecionar uma função, selecione Gestor de autorizações de aprovisionamento de consumidores.
No painel Editar acesso, clique em
Adicionar outra função.Em Selecionar uma função, selecione Utilizador da Vertex AI.
Clique em Guardar.
gcloud
-
In the Google Cloud console, activate Cloud Shell.
Conceda a função Consumer Procurement Entitlement Manager necessária para ativar os modelos de parceiros no Model Garden
gcloud projects add-iam-policy-binding PROJECT_ID \ --member=PRINCIPAL --role=roles/consumerprocurement.entitlementManager
Conceda a função de utilizador do Vertex AI que inclui a autorização
aiplatform.endpoints.predict
, necessária para fazer pedidos de comandos:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=PRINCIPAL --role=roles/aiplatform.user
Substitua
PRINCIPAL
pelo identificador do principal. O identificador assume a formauser|group|serviceAccount:email
oudomain:domain
. Por exemplo,user:cloudysanfrancisco@gmail.com
,group:admins@example.com
,serviceAccount:test123@example.domain.com
oudomain:example.domain.com
.A saída é uma lista de associações de políticas que inclui o seguinte:
- members: - user:PRINCIPAL role: roles/roles/consumerprocurement.entitlementManager
Para mais informações, consulte os artigos Conceda uma única função e
gcloud projects add-iam-policy-binding
.
Defina a política da organização para o acesso ao modelo de parceiros
Para ativar os modelos de parceiros, a política da sua organização tem de permitir a seguinte API: API Cloud Commerce Consumer Procurement – cloudcommerceconsumerprocurement.googleapis.com
Se a sua organização definir uma política da organização para restringir a utilização do serviço, um administrador da organização tem de verificar se o cloudcommerceconsumerprocurement.googleapis.com
é permitido definindo a política da organização.
Além disso, se tiver uma política da organização que restrinja a utilização de modelos no Model Garden, a política tem de permitir o acesso a modelos de parceiros. Para mais informações, consulte o artigo Controle o acesso ao modelo.
Conformidade regulamentar do modelo de parceiro
As certificações para a IA generativa no Vertex AI continuam a aplicar-se quando os modelos de parceiros são usados como uma API gerida através do Vertex AI. Se precisar de detalhes sobre os próprios modelos, pode encontrar informações adicionais no respetivo cartão de modelo ou contactar o publicador do modelo respetivo.
Os seus dados são armazenados em repouso na região ou multirregião selecionada para os modelos de parceiros na Vertex AI, mas a regionalização do tratamento de dados pode variar. Para uma lista detalhada dos compromissos de tratamento de dados dos modelos de parceiros, consulte o artigo Residência de dados para modelos de parceiros.
Os comandos do cliente e as respostas do modelo não são partilhados com terceiros quando usa a API Vertex AI, incluindo modelos de parceiros. A Google apenas processa os Dados do Cliente conforme instruído pelo Cliente, o que é descrito em detalhe na nossa Alteração ao Tratamento de Dados do Cloud.