Política de cotas

O AI Platform Training limita a alocação e o uso de recursos e aplica cotas apropriadas por projeto. As políticas específicas variam de acordo com a disponibilidade do recurso, o perfil do usuário, o histórico de uso do serviço e de outros fatores, e estão sujeitas a alterações sem prévio aviso.

Veja nas seções abaixo a descrição dos limites de cotas atuais do sistema.

Limites de solicitações de serviço

É possível fazer apenas um número limitado de solicitações de API individuais a cada intervalo de 60 segundos. Cada limite se aplica a uma determinada API ou a um grupo de APIs, conforme descrito nas seções a seguir.

Você pode ver as cotas de solicitação de seu projeto no API Manager para AI Platform Training no Console do Google Cloud. Para solicitar um aumento de cota, clique no ícone de edição ao lado do limite da cota e, em seguida, selecione Inscrever-se para uma cota maior.

Solicitações de jobs

Os limites a seguir se aplicam às solicitações projects.jobs.create (combinação de jobs de treinamento e de previsão em lotes):

Período Limite
60 segundos 60

Solicitações de previsão on-line

Os seguintes limites se aplicam às solicitações de projects.predict:

Período Limite
60 segundos 6.000

Solicitações de gerenciamento de recursos

Os seguintes limites se aplicam ao total combinado de todas as solicitações compatíveis nesta lista:

Período Limite
60 segundos 300

Além disso, todas as solicitações delete listadas acima e as solicitações create de versões são limitadas a um total de 10 solicitações combinadas simultâneas.

Cotas de recursos

Além dos limites de solicitações ao longo do tempo, há um limite no uso de recursos, mostrado na lista a seguir:

  • Número máximo de modelos: 100.
  • Número máximo de versões: 200. O limite de versões aplica-se ao número total de versões no seu projeto. Distribua-o como preferir entre seus modelos ativos.

Como solicitar aumento de cota

As cotas listadas nesta página são alocadas por projeto e podem aumentar com o uso ao longo do tempo. Se você precisa de mais capacidade de processamento, pode solicitar um aumento de cota.

  • Use o Console do Google Cloud para solicitar aumentos para cotas que são listadas no API Manager para AI Platform Training:

    1. Encontre a seção da cota que você quer aumentar.

    2. Clique no ícone do lápis ao lado do valor da cota, na parte inferior do gráfico de uso dessa cota.

    3. Insira o aumento solicitado:

      • Se o valor da cota desejado estiver dentro do intervalo exibido na caixa de diálogo de limite de cota, insira o novo valor e clique em Salvar.

      • Se você quiser aumentar a cota além do máximo exibido, clique em Inscrever-se para uma cota maior e siga as instruções para a segunda maneira de solicitar aumento.

  • Use o formulário de solicitação personalizado para cotas que não estão listadas no Console do Google Cloud. Se quiser uma cota maior do que as que estão listadas, ou se precisar implantar um modelo que exceda o limite padrão de 500 MB:

    1. Acesse o formulário de solicitação de cota do AI Platform Training. Ou siga o link Inscrever-se para uma cota maior em uma das caixas de diálogo de aumento de cota.

    2. Preencha os campos obrigatórios, inclusive a descrição da situação e do motivo da necessidade de cotas maiores.

    3. Clique em Enviar. Você receberá uma resposta por e-mail sobre a solicitação.

Limites do uso simultâneo de máquinas virtuais

O uso dos recursos de processamento do Google Cloud para seu projeto é calculado pelo número de máquinas virtuais usadas para treinamento e o número de nós usados para previsão em lote. Nesta seção, descrevemos os limites para o uso simultâneo desses recursos em todo o projeto.

Limites de nós simultâneos na previsão em lote

Um projeto típico, ao usar o AI Platform Traning pela primeira vez, é limitado no número de nós simultâneos usados para previsão em lote:

  • Número de nós de previsão simultâneos: 72

Uso de nós na previsão on-line

O AI Platform Training não aplica cotas ao uso de nós para previsão on-line. Veja mais sobre nós de previsão e alocação de recursos.

Limites do uso simultâneo de CPUs no treinamento

O número de CPUs virtuais simultâneas para um projeto típico é dimensionado com base no histórico de uso do seu projeto.

  • Número total de CPUs simultâneas: de 20 CPUs em diante, com escalonamento até o valor típico de 450 CPUs. Esses limites representam o número máximo combinado de CPUs em uso simultâneo, incluindo todos os tipos de máquinas.

As CPUs que você usa ao treinar um modelo não são contadas como CPUs para o Compute Engine, e a cota para o AI Platform Training não lhe dá acesso a nenhuma VM do Compute Engine para outros requisitos de computação. Para ativar uma VM do Compute Engine, solicite a cota correspondente conforme descrito na documentação do Compute Engine.

Limites do uso simultâneo de GPUs no treinamento

Um projeto típico, no primeiro uso do AI Platform Training, é limitado ao seguinte número de GPUs simultâneas usadas nos modelos de ML em treinamento:

  • Número total de GPUs simultâneas: esse é o número máximo de GPUs em uso simultâneo, dividido por tipo da seguinte maneira:

    • Número simultâneo de GPUs Tesla K80: 30
    • Número simultâneo de GPUs Tesla P4: 8
    • Número simultâneo de GPUs Tesla P100: 30
    • Número simultâneo de GPUs Tesla V100: 8
    • Número simultâneo de GPUs Tesla T4: 6

As GPUs que você usa ao treinar um modelo não são contadas como GPUs para o Compute Engine, e a cota para o AI Platform Training não lhe dá acesso a nenhuma VM do Compute Engine que utilize GPUs. Para ativar uma VM do Compute Engine que usa GPU, solicite a cota correspondente conforme descrito na documentação do Compute Engine.

Para mais informações sobre GPUs, consulte como usar GPUs para treinar modelos na nuvem.

Limites do uso simultâneo de GPUs na previsão on-line

Um projeto típico, no primeiro uso do AI Platform Prediction, é limitado ao seguinte número de GPUs simultâneas usadas nos modelos de ML em treinamento:

  • Número total de GPUs simultâneas: é o número máximo de GPUs em uso simultâneo, dividido por tipo da seguinte maneira:

    • Número simultâneo de GPUs Tesla K80: 30
    • Número simultâneo de GPUs Tesla P4: 2
    • Número simultâneo de GPUs Tesla P100: 30
    • Número simultâneo de GPUs Tesla V100: 2
    • Número simultâneo de GPUs Tesla T4: 6

Estas são as cotas padrão, mas é possível solicitar cotas maiores.

As GPUs que você usa para previsão não são contadas como GPUs para o Compute Engine, e a cota para o AI Platform Training não lhe dá acesso a nenhuma VM do Compute Engine que utilize GPUs. Para ativar uma VM do Compute Engine que usa GPU, solicite a cota correspondente conforme descrito na documentação do Compute Engine.

Para mais informações, veja como usar as GPUs para previsão on-line (Beta).

Limites do uso simultâneo de TPUs para treinamento

Por padrão, pelo menos uma Cloud TPU é alocada para todos os projetos do Google Cloud Platform.

Caso precise de mais cotas da Cloud TPU, preencha o formulário de solicitação de cota de TPU. A cota é alocada em unidades de 8 núcleos de TPU por Cloud TPU.

Você receberá uma notificação quando a cota for aprovada. A próxima etapa é configurar o projeto do Google Cloud para usar a TPU. Consulte o guia sobre como usar as TPUs.

Observe que, devido à alta procura, talvez não seja possível atender todas as solicitações de cota.

A seguir