O AI Platform Training limita a alocação e o uso de recursos e aplica cotas apropriadas por projeto. As políticas específicas variam de acordo com a disponibilidade do recurso, o perfil do usuário, o histórico de uso do serviço e de outros fatores, e estão sujeitas a alterações sem prévio aviso.
Veja nas seções abaixo a descrição dos limites de cota atuais do sistema.
Limites de solicitações de serviço
É possível fazer apenas um número limitado de solicitações de API individuais a cada intervalo de 60 segundos. Cada limite se aplica a uma determinada API ou a um grupo de APIs, conforme descrito nas seções a seguir.
Confira as cotas de solicitação do projeto na Gerenciador de API para AI Platform Training no console do Google Cloud. Para solicitar um aumento de cota, clique no ícone de edição ao lado do limite de cota e, em seguida, selecione Inscrever-se para uma cota maior.
Solicitações de job
Os limites a seguir se aplicam às solicitações projects.jobs.create (combinação de jobs de treinamento e de previsão em lotes):
Período | Limite |
---|---|
60 segundos | 60 |
Solicitações de previsão on-line
Os seguintes limites se aplicam às solicitações de projects.predict:
Período | Limite |
---|---|
60 segundos | 600.000 |
Solicitações de gerenciamento de recursos
Os seguintes limites se aplicam ao total combinado de todas as solicitações compatíveis nesta lista:
Solicitações list para projects.jobs, projects.models, projects.models.versions e projects.operations.
Solicitações get para projects.jobs, projects.models, projects.models.versions e projects.operations.
Solicitações delete para projects.models e projects.models.versions.
Solicitações create para projects.models e projects.models.versions
Solicitações cancel para projects.jobs e projects.operations
solicitações para projects.models.versions.setDefault.
Período | Limite |
---|---|
60 segundos | 300 |
Além disso, todas as solicitações delete listadas acima e as solicitações create de versões são limitadas a um total combinado de 10 solicitações simultâneas.
Limites do uso simultâneo de máquinas virtuais
O uso dos recursos de processamento do Google Cloud feito pelo seu projeto é calculado pelo número de máquinas virtuais que ele usa. Nesta seção, descrevemos os limites para o uso simultâneo desses recursos em todo o projeto.
Limites do uso simultâneo de CPU no treinamento
O número de CPUs virtuais simultâneas para um projeto típico é dimensionado com base no histórico de uso do seu projeto.
- Número total de CPUs simultâneas: a partir de 20 CPUs, com escalonamento até o valor típico de 450 CPUs. Esses limites representam o número máximo combinado de CPUs em uso simultâneo, incluindo todos os tipos de máquina.
Algumas regiões têm cotas padrão adicionais. Quando você usa CPUs nessas regiões, elas são contabilizadas na cota regional e na cota total:
asia-northeast2
: 20 CPUsasia-northeast3
: 20 CPUseurope-north1
: 20 CPUseurope-west3
: 20 CPUseurope-west6
: 20 CPUsus-east4
: 20 CPUsus-west2
: 20 CPUsus-west3
: 20 CPUs
As CPUs que você usa ao treinar um modelo não são contabilizadas como CPUs para o Compute Engine, e a cota para o AI Platform Training não concede acesso a nenhuma VM do Compute Engine para outros requisitos de computação. Para ativar uma VM do Compute Engine, solicite a cota do Compute Engine conforme descrito na documentação do Compute Engine.
Limites do uso simultâneo de GPUs no treinamento
Um projeto típico, no primeiro uso do AI Platform, é limitado ao seguinte número de GPUs simultâneas usadas nos modelos de ML em treinamento:
Número total de GPUs simultâneas: é o número máximo de GPUs em uso simultâneo, dividido por tipo da seguinte maneira:
- Número simultâneo de GPUs A100: 8
- Número simultâneo de GPUs P4: 8
- Número simultâneo de GPUs P100: 30
- Número simultâneo de GPUs V100: 8
- Número simultâneo de GPUs T4: 6
Algumas regiões têm cotas padrão adicionais. Quando você usa as seguintes GPUs nas regiões listadas, elas são contabilizadas nas cotas regionais, bem como na cota total:
- GPUs P4 em
asia-southeast1
: 4 - GPUs P4 em
us-east4
: 1 - GPUs P4 em
us-west2
: 1 - GPUs T4 em
asia-northeast3
: 1 - GPUs T4 em
asia-southeast1
: 4
Observe que as cotas de um projeto dependem de diversos fatores, então as cotas em um projeto específico podem ser menores que os números listados acima. As GPUs que você usa ao treinar um modelo não são contabilizadas como GPUs para o Compute Engine, e a cota para o AI Platform Training não concede acesso a nenhuma VM do Compute Engine que utilize GPUs. Para ativar uma VM do Compute Engine que usa GPU, solicite a cota de GPU do Compute Engine conforme descrito na documentação do Compute Engine.
Se você precisar de mais GPUs para o AI Platform Training, consulte a seção Como solicitar um aumento de cota deste guia.
Para mais informações sobre GPUs, consulte como usar GPUs para treinar modelos na nuvem.
Limites do uso simultâneo de TPUs para treinamento
Como com as GPUs, a cota de TPU para o AI Platform Training é separada da sua cota de Cloud TPU, que você poderá usar diretamente com as VMs do Compute Engine. As TPUs que você usa quando treina um modelo não são contabilizadas como as TPUs do Compute Engine, e a cota do AI Platform Training não dá acesso a nenhuma VM do Compute que use as TPUs.
O console do Google Cloud só exibe sua cota da Cloud TPU com o Compute Engine. Para solicitar a cota da Cloud TPU para uso com o Compute Engine, envie uma solicitação para a equipe da Cloud TPU.
Para todos os projetos do Google Cloud, é alocada uma cota padrão do AI Platform Training para ao menos uma Cloud TPU. A cota é alocada em unidades de oito núcleos de TPU por Cloud TPU. Essa cota não é exibida no console do Google Cloud.
Como solicitar aumento de cota
As cotas listadas nesta página são alocadas por projeto e podem aumentar com o uso ao longo do tempo. Se você precisa de mais capacidade de processamento, é possível solicitar um aumento de cota usando um destes métodos:
Use o Console do Google Cloud para solicitar aumentos de cotas listadas no Gerenciador de APIs para o AI Platform Training:
Encontre a seção da cota que você quer aumentar.
Clique no ícone de lápis ao lado do valor da cota, na parte inferior do gráfico de uso dela.
Insira o aumento solicitado:
Se o valor de cota desejado estiver dentro do intervalo exibido na caixa de diálogo de limite de cota, insira o novo valor e clique em Salvar.
Se você quiser aumentar a cota além do máximo exibido, clique em Inscrever-se para uma cota maior e siga as instruções para a segunda maneira de solicitar o aumento.
Se você quiser aumentar uma cota que não está listada no console do Google Cloud, como cotas de GPU, use o formulário de solicitação de cota do AI Platform para solicitar um aumento da cota. Essas solicitações são tratadas com base no melhor esforço, ou seja, não há contratos de nível de serviço (SLAs) ou objetivos de nível de serviço (SLOs) envolvidos na análise dessas solicitações.
Limites do uso simultâneo de disco para treinamento
O número de discos virtuais simultâneas para um projeto típico é dimensionado com base no histórico de uso do seu projeto.
- Número total de discos simultâneos: a partir de 4.000 GB para unidades de disco rígido padrão (HDD) e 500 GB para unidades de estado sólido (SSD, na siga em inglês), com escalonamento para um valor típico de 180.000 GB para HDD e 75.000 GB para SSD. Esses limites representam o número máximo combinado de discos em uso simultâneo, incluindo todos os tipos de máquina.
Os discos que você usa ao treinar um modelo não são contados como discos do Compute Engine, e a cota para o AI Platform Training não lhe dão acesso a nenhuma instância de virtual machine (VMs) do Compute Engine para outros requisitos de computação. Se você quiser criar uma VM do Compute Engine, solicite a cota do Compute Engine.
A seguir
- Conheça os conceitos básicos da AI Platform
- Saiba como o AI Platform Training se encaixa nas soluções de machine learning.