AI Platform Training limita l'allocazione e l'utilizzo delle risorse e applica quote appropriate in base al singolo progetto. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di utilizzo dei servizi e di altri fattori e sono soggetti a modifiche senza preavviso.
Le sezioni seguenti descrivono gli attuali limiti di quota del sistema.
Limiti relativi alle richieste di servizio
È possibile effettuare solo un numero limitato di richieste API individuali per ciascun intervallo di 60 secondi. Ogni limite si applica a una specifica API o a un gruppo di API come descritto nelle seguenti sezioni.
Puoi visualizzare le quote per le richieste del progetto Gestore API per AI Platform Training sulla console Google Cloud. Per richiedere un aumento della quota, fai clic sull'icona di modifica accanto al limite della quota, quindi fai clic su Richiedi una quota più alta.
Richieste di job
I seguenti limiti sono applicabili alle richieste projects.jobs.create (job di addestramento e di previsione batch combinati):
Periodo | Limite |
---|---|
60 secondi | 60 |
Richieste di previsione online
I seguenti limiti sono applicabili alle richieste projects.predict:
Periodo | Limite |
---|---|
60 secondi | 600.000 |
Richieste di gestione delle risorse
I seguenti limiti sono applicabili al totale combinato di tutte le richieste supportate in questo elenco:
Richieste list per projects.jobs, projects.models, projects.models.versions e projects.operations.
Richieste get per projects.jobs, projects.models, projects.models.versions e projects.operations.
Richieste delete per projects.models e projects.models.versions.
Richieste create per projects.models e projects.models.versions.
Richieste cancel per projects.jobs e projects.operations.
Richieste per projects.models.versions.setDefault.
Periodo | Limite |
---|---|
60 secondi | 300 |
Inoltre, tutte le richieste delete elencate sopra e tutte le richieste create per le versioni sono limitate a 10 richieste totali combinate simultanee.
Limiti all'uso simultaneo delle macchine virtuali
L'utilizzo delle risorse di elaborazione di Google Cloud da parte del tuo progetto viene misurato mediante il numero di macchine virtuali utilizzate. Questa sezione descrive i limiti previsti per l'uso simultaneo di queste risorse nel progetto.
Limiti all'uso simultaneo di CPU per l'addestramento
Il numero di CPU virtuali simultanee per un progetto tipico viene scalato in base alla cronologia di utilizzo del progetto.
- Numero totale di CPU simultanee: a partire da 20 CPU, con scalabilità a un valore tipico di 450 CPU. Questi limiti rappresentano il numero massimo combinato di CPU in uso simultaneo, inclusi tutti i tipi di macchine.
Alcune regioni hanno quote predefinite aggiuntive. Quando utilizzi le CPU in queste regioni, vengono conteggiate sia per la quota regionale sia per la quota totale:
asia-northeast2
: 20 CPUasia-northeast3
: 20 CPUeurope-north1
: 20 CPUeurope-west3
: 20 CPUeurope-west6
: 20 CPUus-east4
: 20 CPUus-west2
: 20 CPUus-west3
: 20 CPU
Le CPU utilizzate per l'addestramento di un modello non vengono conteggiate come CPU per Compute Engine e la quota per AI Platform Training non ti permette di accedere alle VM di Compute Engine per altri requisiti di calcolo. Se vuoi avviare una VM di Compute Engine, devi richiedere una quota di Compute Engine, come descritto nella documentazione di Compute Engine.
Limiti all'uso di GPU simultanee per l'addestramento
Al primo utilizzo di AI Platform Training, un progetto tipico è limitato al seguente numero di GPU simultanee utilizzate nei modelli ML di addestramento:
Numero totale di GPU simultanee: corrisponde al numero massimo di GPU in uso simultaneo, suddiviso per tipo secondo quanto segue:
- Numero di GPU A100 simultanee: 8
- Numero di GPU P4 simultanee: 8
- Numero di GPU P100 simultanee: 30
- Numero di GPU V100 simultanee: 8
- Numero di GPU T4 simultanee: 6
Alcune regioni hanno quote predefinite aggiuntive. Quando utilizzi le seguenti GPU nelle regioni elencate, queste vengono conteggiate ai fini delle quote regionali e della quota totale:
- GPU P4 in
asia-southeast1
: 4 - GPU P4 in
us-east4
: 1 - GPU P4 in
us-west2
: 1 - GPU T4 in
asia-northeast3
: 1 - GPU T4 in
asia-southeast1
: 4
Tieni presente che le quote di un progetto dipendono da più fattori, quindi le quote in un progetto specifico possono essere inferiori alle cifre riportate in precedenza. Le GPU utilizzate per l'addestramento di un modello non vengono conteggiate come GPU per Compute Engine e la quota per AI Platform Training non consente l'accesso ad alcuna VM di Compute Engine che utilizza le GPU. Se vuoi avviare una VM di Compute Engine che utilizza una GPU, devi richiedere una quota GPU di Compute Engine, come descritto nella documentazione di Compute Engine.
Se hai bisogno di più GPU per AI Platform Training, consulta Sezione Richiesta di aumento della quota di questo modulo guida.
Per ulteriori informazioni sulle GPU, consulta la pagina su come utilizzare le GPU per addestrare modelli nel cloud.
Limiti all'uso simultaneo di TPU per l'addestramento
Così come per le GPU, le quote TPU per AI Platform Training rimangono separate dalle quote Cloud TPU che puoi usare direttamente con le VM di Compute Engine. Le TPU utilizzate per l'addestramento di un modello non vengono conteggiate come TPU per Compute Engine e la quota per AI Platform Training non consente l'accesso a nessuna VM di Compute Engine che utilizza le TPU.
La console Google Cloud visualizza la quota di Cloud TPU solo con in Compute Engine. Per richiedere quote Cloud TPU per l'utilizzo con Compute Engine, invia una richiesta al team Cloud TPU.
A tutti i progetti di Google Cloud viene assegnata una quota predefinita di AI Platform Training per almeno una Cloud TPU. La quota è allocata in unità di 8 core TPU per ogni unità Cloud TPU. Questa quota non viene visualizzata nella console Google Cloud.
Richiesta di aumento della quota
Le quote elencate in questa pagina sono assegnate in base al singolo progetto e possono aumentare nel tempo in base all'utilizzo. Se hai bisogno di maggiore capacità di elaborazione, puoi richiedere un aumento della quota in uno dei seguenti modi:
Utilizza la console Google Cloud per richiedere l'aumento delle quote elencate nel gestore API per AI Platform Training:
Individua la sezione della quota che vuoi aumentare.
Fai clic sull'icona a forma di matita accanto al valore della quota nella parte inferiore del grafico di utilizzo per quella quota.
Inserisci l'aumento richiesto:
Se il valore che vuoi richiedere è compreso nell'intervallo visualizzato nella finestra di dialogo del limite di quota, immetti il nuovo valore e fai clic su Salva.
Se vuoi aumentare la quota oltre il massimo visualizzato, fai clic su Richiedi una quota più alta e segui le istruzioni relative al secondo metodo per richiedere un aumento.
Se vuoi aumentare una quota non elencata nella console Google Cloud, ad esempio le quote GPU, utilizza Richiesta di quota per AI Platform modulo per richiedere un aumento della quota. Queste richieste vengono gestite secondo il criterio del "best effort" il che significa che nella revisione di queste richieste non sono coinvolti accordi sul livello del servizio (SLA) o obiettivi del livello del servizio (SLO).
Limiti all'uso simultaneo di dischi per l'addestramento
Il numero di dischi virtuali simultanei per un progetto tipico viene scalato in base alla cronologia di utilizzo del progetto:
- Numero totale di dischi in contemporanea: a partire da 4000 GB per i dischi standard hard disk (HDD) e 500 GB per le unità a stato solido (SSD), con scalabilità a tipico di 180.000 GB per HDD e 75.000 GB per SSD. Questi limiti rappresentano il numero massimo combinato di dischi in uso simultaneo, inclusi tutti i tipi di macchine.
I dischi utilizzati per l'addestramento di un modello non vengono conteggiati come dischi per Compute Engine e la quota per AI Platform Training non consente l'accesso a nessuna istanza di macchina virtuale (VM) di Compute Engine per altre esigenze di calcolo. Se vuoi creare una VM di Compute Engine, devi richiedere quota di Compute Engine
Passaggi successivi
- Ulteriori informazioni sulle basi di AI Platform.
- Informazioni sul ruolo svolto da AI Platform Training nelle soluzioni di machine learning.