Modelos de parceiros da Vertex AI para MaaS

O Vertex AI suporta uma lista organizada de modelos desenvolvidos por parceiros Google. Os modelos de parceiros podem ser usados com a Vertex AI como um modelo como serviço (MaaS) e são oferecidos como uma API gerida. Quando usa um modelo de parceiro, continua a enviar os seus pedidos para os pontos finais da Vertex AI. Os modelos de parceiros são sem servidor, pelo que não tem de aprovisionar nem gerir infraestruturas.

Pode descobrir modelos de parceiros através do Model Garden. Também pode implementar modelos através do Model Garden. Para mais informações, consulte o artigo Explore modelos de IA no Model Garden. Embora possa encontrar informações sobre cada modelo de parceiro disponível no respetivo cartão de modelo no Model Garden, apenas os modelos de terceiros que funcionam como um MaaS com a Vertex AI estão documentados neste guia.

Os modelos Claude da Anthropic e Mistral são exemplos de modelos geridos de terceiros que estão disponíveis para utilização no Vertex AI.

Modelos de parceiros

Os seguintes modelos de parceiros são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):

Nome do modelo Modalidade Descrição Início rápido
Claude Opus 4.1 Idioma, visão Um líder da indústria na programação. Oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço concentrado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. Ideal para potenciar produtos de agentes de vanguarda e funcionalidades. Cartão do modelo
Claude Opus 4 Idioma, visão O Claude Opus 4 oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço focado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. Cartão do modelo
Claude Sonnet 4 Idioma, visão Modelo de tamanho médio da Anthropic com inteligência superior para utilizações de grande volume, como programação, investigação detalhada e agentes. Cartão do modelo
Claude 3.7 Sonnet da Anthropic Idioma, visão Modelo líder da indústria para programação e tecnologia de agentes de IA, e o primeiro modelo Claude a oferecer um raciocínio alargado. Cartão do modelo
Claude 3.5 Sonnet v2 da Anthropic Idioma, visão O Claude 3.5 Sonnet atualizado é um modelo de vanguarda para tarefas de engenharia de software do mundo real e capacidades de agente. O Claude 3.5 Sonnet oferece estes avanços ao mesmo preço e velocidade que o seu antecessor. Cartão do modelo
Claude 3.5 Haiku da Anthropic Idioma, visão O Claude 3.5 Haiku, a próxima geração do modelo mais rápido e económico da Anthropic, é ideal para exemplos de utilização em que a velocidade e a acessibilidade são importantes. Cartão do modelo
Claude 3 Haiku da Anthropic Idioma O modelo de visão e texto mais rápido da Anthropic para respostas quase instantâneas a consultas básicas, destinado a experiências de IA perfeitas que imitam as interações humanas. Cartão do modelo
Claude 3.5 Sonnet da Anthropic Idioma O Claude 3.5 Sonnet supera o Claude 3 Opus da Anthropic numa vasta gama de avaliações da Anthropic com a velocidade e o custo do modelo de nível intermédio da Anthropic, o Claude 3 Sonnet. Cartão do modelo
Jamba 1.5 Large (pré-visualização) Idioma O Jamba 1.5 Large da AI21 Labs foi concebido para oferecer respostas de qualidade superior, elevado débito e preços competitivos em comparação com outros modelos da sua classe de tamanho. Cartão do modelo
Jamba 1.5 Mini (pré-visualização) Idioma O Jamba 1.5 Mini da AI21 Labs está bem equilibrado em termos de qualidade, taxa de transferência e baixo custo. Cartão do modelo
Mistral OCR (25.05) Idioma, visão O Mistral OCR (25.05) é uma API de reconhecimento ótico de carateres para a interpretação de documentos. O modelo compreende cada elemento dos documentos, como conteúdo multimédia, texto, tabelas e equações. Cartão do modelo
Mistral Small 3.1 (25/03) Idioma O Mistral Small 3.1 (25/03) é a versão mais recente do modelo Small da Mistral, com capacidades multimodais e extensão do contexto. Cartão do modelo
Mistral Large (24.11) Idioma O Mistral Large (24.11) é a versão seguinte do modelo Mistral Large (24.07), agora com capacidades de raciocínio e de chamadas de funções melhoradas. Cartão do modelo
Codestral (25.01) Código Um modelo de vanguarda concebido para a geração de código, incluindo o preenchimento de lacunas e a conclusão de código. Cartão do modelo

Preços dos modelos de parceiros da Vertex AI com garantia de capacidade

A Google oferece débito processado para alguns modelos de parceiros que reservam a capacidade de débito processado para os seus modelos por uma taxa fixa. Cabe-lhe a si decidir a capacidade de débito e em que regiões reservar essa capacidade. Uma vez que os pedidos de débito processado são prioritários em relação aos pedidos padrão de pagamento conforme o uso, o débito processado oferece uma maior disponibilidade. Quando o sistema está sobrecarregado, os seus pedidos podem continuar a ser concluídos, desde que o débito permaneça abaixo da capacidade de débito reservada. Para mais informações ou para subscrever o serviço, contacte a equipa de vendas.

Pontos finais regionais e globais

Para pontos finais regionais, os pedidos são processados a partir da região especificada. Nos casos em que tem requisitos de residência de dados ou se um modelo não suportar o ponto final global, use os pontos finais regionais.

Quando utiliza o ponto final global, a Google pode processar e responder aos seus pedidos a partir de qualquer região suportada pelo modelo que está a usar, o que pode resultar numa latência mais elevada em alguns casos. O ponto final global ajuda a melhorar a disponibilidade geral e a reduzir os erros.

Não existe diferença de preço com os pontos finais regionais quando usa o ponto final global. No entanto, as quotas de pontos finais globais e as capacidades do modelo suportadas podem diferir dos pontos finais regionais. Para mais informações, consulte a página do modelo de terceiros relacionado.

Especifique o ponto final global

Para usar o ponto final global, defina a região como global.

Por exemplo, o URL de pedido de um comando curl usa o seguinte formato: https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/PUBLISHER_NAME/models/MODEL_NAME

Para o SDK Vertex AI, um ponto final regional é a predefinição. Defina a região para GLOBAL para usar o ponto final global.

Modelos suportados

O ponto final global está disponível para os seguintes modelos:

Restrinja a utilização do ponto final da API global

Para ajudar a aplicar a utilização de pontos finais regionais, use a restrição da política da organização constraints/gcp.restrictEndpointUsage para bloquear pedidos ao ponto final da API global. Para mais informações, consulte o artigo Restringir a utilização de pontos finais.

Conceda acesso de utilizador a modelos de parceiros

Para poder ativar modelos de parceiros e fazer um pedido de comando, um Google Cloud administrador tem de definir as autorizações necessárias e validar se a política da organização permite a utilização das APIs necessárias.

Defina as autorizações necessárias para usar modelos de parceiros

As seguintes funções e autorizações são necessárias para usar modelos de parceiros:

  • Tem de ter a função de gestão de identidade e de acesso (IAM) do gestor de autorizações de aprovisionamento de consumidor. Qualquer pessoa a quem tenha sido concedida esta função pode ativar modelos de parceiros no Model Garden.

  • Tem de ter a autorização aiplatform.endpoints.predict. Esta autorização está incluída na função IAM de utilizador do Vertex AI. Para mais informações, consulte os artigos Utilizador do Vertex AI e Controlo de acesso.

Consola

  1. Para conceder as funções do IAM do gestor de autorizações de aprovisionamento do consumidor a um utilizador, aceda à página IAM.

    Aceda ao IAM

  2. Na coluna Principal, encontre o utilizador principal para o qual quer ativar o acesso a modelos de parceiros e, de seguida, clique em Editar principal nessa linha.

  3. No painel Editar acesso, clique em Adicionar outra função.

  4. Em Selecionar uma função, selecione Gestor de autorizações de aprovisionamento de consumidores.

  5. No painel Editar acesso, clique em Adicionar outra função.

  6. Em Selecionar uma função, selecione Utilizador da Vertex AI.

  7. Clique em Guardar.

gcloud

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

  2. Conceda a função Consumer Procurement Entitlement Manager necessária para ativar os modelos de parceiros no Model Garden

    gcloud projects add-iam-policy-binding  PROJECT_ID \
    --member=PRINCIPAL --role=roles/consumerprocurement.entitlementManager
    
  3. Conceda a função de utilizador do Vertex AI que inclui a autorização aiplatform.endpoints.predict, necessária para fazer pedidos de comandos:

    gcloud projects add-iam-policy-binding  PROJECT_ID \
    --member=PRINCIPAL --role=roles/aiplatform.user
    

    Substitua PRINCIPAL pelo identificador do principal. O identificador assume a forma user|group|serviceAccount:email ou domain:domain. Por exemplo, user:cloudysanfrancisco@gmail.com, group:admins@example.com, serviceAccount:test123@example.domain.com ou domain:example.domain.com.

    A saída é uma lista de associações de políticas que inclui o seguinte:

    -   members:
      -   user:PRINCIPAL
      role: roles/roles/consumerprocurement.entitlementManager
    

    Para mais informações, consulte os artigos Conceda uma única função e gcloud projects add-iam-policy-binding.

Defina a política da organização para o acesso ao modelo de parceiros

Para ativar os modelos de parceiros, a política da sua organização tem de permitir a seguinte API: API Cloud Commerce Consumer Procurement – cloudcommerceconsumerprocurement.googleapis.com

Se a sua organização definir uma política da organização para restringir a utilização do serviço, um administrador da organização tem de verificar se o cloudcommerceconsumerprocurement.googleapis.com é permitido definindo a política da organização.

Além disso, se tiver uma política da organização que restrinja a utilização de modelos no Model Garden, a política tem de permitir o acesso a modelos de parceiros. Para mais informações, consulte o artigo Controle o acesso ao modelo.

Conformidade regulamentar do modelo de parceiro

As certificações para a IA generativa no Vertex AI continuam a aplicar-se quando os modelos de parceiros são usados como uma API gerida através do Vertex AI. Se precisar de detalhes sobre os próprios modelos, pode encontrar informações adicionais no respetivo cartão de modelo ou contactar o publicador do modelo respetivo.

Os seus dados são armazenados em repouso na região ou multirregião selecionada para os modelos de parceiros na Vertex AI, mas a regionalização do tratamento de dados pode variar. Para uma lista detalhada dos compromissos de tratamento de dados dos modelos de parceiros, consulte o artigo Residência de dados para modelos de parceiros.

Os comandos do cliente e as respostas do modelo não são partilhados com terceiros quando usa a API Vertex AI, incluindo modelos de parceiros. A Google apenas processa os Dados do Cliente conforme instruído pelo Cliente, o que é descrito em detalhe na nossa Alteração ao Tratamento de Dados do Cloud.