Questa guida fornisce le best practice per progettare, implementare, testare ed eseguire il deployment di un servizio Cloud Run. Per ulteriori suggerimenti, consulta la pagina Eseguire la migrazione di un servizio esistente.
Scrivere servizi efficaci
Questa sezione descrive le best practice generali per la progettazione e l'implementazione di un servizio Cloud Run.
Attività in background
L'attività in background è tutto ciò che accade dopo che la risposta HTTP è stata comunicata. Per determinare se nel servizio è presente un'attività in background non immediatamente evidente, controlla i log per verificare se sono presenti elementi registrati dopo la voce relativa alla richiesta HTTP.
Configura la CPU in modo che sia sempre allocata per utilizzare le attività in background
Se vuoi supportare le attività in background nel tuo servizio Cloud Run, imposta la CPU del servizio Cloud Run in modo che sia sempre allocata in modo da poter eseguire attività in background al di fuori delle richieste e avere comunque accesso alla CPU.
Evita le attività in background se la CPU viene allocata solo durante l'elaborazione delle richieste
Se devi impostare il servizio in modo da allocare la CPU solo durante l'elaborazione delle richieste, quando il servizio Cloud Run termina l'elaborazione di una richiesta, l'accesso dell'istanza alla CPU verrà disattivato o limitato notevolmente. Se utilizzi questo tipo di allocazione della CPU, non devi avviare thread o routine in background che vengono eseguiti al di fuori dell'ambito dei gestori delle richieste.
Esamina il codice per assicurarti che tutte le operazioni asincrone vengano completate prima di inviare la risposta.
L'esecuzione di thread in background con questo tipo di allocazione della CPU può comportare un comportamento imprevisto perché qualsiasi richiesta successiva alla stessa istanza del contenitore riprende qualsiasi attività in background sospesa.
Eliminare i file temporanei
Nell'ambiente Cloud Run, lo spazio di archiviazione su disco è un file system in memoria. I file scritti su disco consumano memoria altrimenti disponibile per il servizio e possono persistere tra le invocazioni. La mancata eliminazione di questi file può eventualmente portare a un errore di esaurimento della memoria e a un successivo avvio a freddo.
Segnalare errori
Gestisci tutte le eccezioni e non consentire al servizio di arrestarsi in caso di errori. Un arresto anomalo provoca un avvio a freddo mentre il traffico è in coda per un'istanza sostitutiva.
Per informazioni su come segnalare correttamente gli errori, consulta la guida alla segnalazione degli errori.
Ottimizzazione del rendimento
Questa sezione descrive le best practice per ottimizzare il rendimento.
Avvia rapidamente i container
Poiché le istanze vengono scalate in base alle esigenze, il loro tempo di avvio influisce sulla latenza del servizio. Sebbene Cloud Run sconnetta l'avvio delle istanze dall'elaborazione delle richieste, può accadere che una richiesta debba attendere l'avvio di una nuova istanza per essere elaborata. Questo accade in particolare quando si esegue lo scale up da zero. Questo si chiama "avvio a freddo".
La routine di avvio è composta da:
- Download dell'immagine container (utilizzando la tecnologia di streaming delle immagini container di Cloud Run)
- Avvia il contenitore eseguendo il comando entrypoint.
- In attesa che il contenitore inizi a rimanere in ascolto sulla porta configurata.
L'ottimizzazione per la velocità di avvio del contenitore riduce al minimo la latenza di elaborazione delle richieste.
Utilizza il boosting della CPU all'avvio per ridurre la latenza di avvio
Puoi attivare il boosting della CPU all'avvio per aumentare temporaneamente l'allocazione della CPU durante l'avvio dell'istanza in modo da ridurre la latenza di avvio.
Utilizza il numero minimo di istanze per ridurre gli avvii a freddo
Puoi configurare il numero minimo di istanze e la concorrenza per ridurre al minimo gli avvii a freddo. Ad esempio, l'utilizzo di un numero minimo di istanze pari a 1 indica che il servizio è pronto a ricevere fino al numero di richieste simultanee configurate per il servizio senza dover avviare una nuova istanza.
Tieni presente che una richiesta in attesa dell'avvio di un'istanza verrà mantenuta in attesa in una coda come segue:
- Se vengono avviate nuove istanze, ad esempio durante uno scaling out, le richieste rimarranno in attesa per almeno il tempo di avvio medio delle istanze di container di questo servizio. Ciò include quando la richiesta avvia uno scale-out, ad esempio quando si esegue lo scale up da zero.
- Se il tempo di avvio è inferiore a 10 secondi, le richieste rimarranno in attesa per un massimo di 10 secondi.
- Se non sono in corso l'avvio di istanze e la richiesta non avvia un'operazione di scalabilità, le richieste rimarranno in attesa per un massimo di 10 secondi.
Utilizzare le dipendenze in modo oculato
Se utilizzi un linguaggio dinamico con librerie dipendenti, ad esempio i moduli di importazione in Node.js, il tempo di caricamento di questi moduli si aggiunge alla latenza di avvio.
Riduci la latenza di avvio nei seguenti modi:
- Riduci al minimo il numero e le dimensioni delle dipendenze per creare un servizio snello.
- Carica in modo lento il codice che non viene utilizzato di frequente, se la tua lingua lo supporta.
- Utilizza ottimizzazioni di caricamento del codice come l'ottimizzazione dell'autoloader di Composer di PHP.
Utilizzare le variabili globali
In Cloud Run, non puoi assumere che lo stato del servizio venga mantenuto tra le richieste. Tuttavia, Cloud Run riutilizza le singole istanze per gestire il traffico in corso, quindi puoi dichiarare una variabile a livello globale per consentire il riutilizzo del relativo valore nelle chiamate successive. Non è possibile sapere in anticipo se una singola richiesta beneficia di questo riutilizzo.
Puoi anche memorizzare nella cache gli oggetti in memoria se sono costosi da ricreare a ogni richiesta di servizio. Se lo sposti dalla logica di richiesta all'ambito globale, il rendimento migliorerà.
Node.js
Python
Vai
Java
Esegui l'inizializzazione lazy delle variabili globali
L'inizializzazione delle variabili globali avviene sempre durante l'avvio, il che aumenta il tempo di avvio a freddo. Utilizza l'inizializzazione lazy per gli oggetti usati di rado per posticipare il costo in termini di tempo e ridurre i tempi di avvio a freddo.
Uno svantaggio dell'inizializzazione lazy è un aumento della latenza per le prime richieste alle nuove istanze. Ciò può causare un sovradimensionamento e la perdita di richieste quando esegui il deployment di una nuova revisione di un servizio che gestisce attivamente molte richieste.
Node.js
Python
Vai
Java
Utilizzare un ambiente di esecuzione diverso
Potresti notare tempi di avvio più rapidi utilizzando un ambiente di esecuzione diverso.
Ottimizza la concorrenza
Le istanze Cloud Run possono gestire più richieste contemporaneamente,
"in parallelo", fino a una contemporaneità massima configurabile.
È diverso dalle funzioni Cloud Run, che utilizzano concurrency = 1
.
Cloud Run regola automaticamente la concorrenza fino al valore massimo configurato.
La concorrenza massima predefinita di 80 è adatta per molte immagini contenitore. Tuttavia, devi:
- Riducilo se il contenitore non è in grado di elaborare molte richieste in parallelo.
- Aumentalo se il contenitore è in grado di gestire un volume elevato di richieste.
Ottimizza la concorrenza per il tuo servizio
Il numero di richieste in parallelo che ogni istanza può gestire può essere limitato dall'architettura tecnologica e dall'utilizzo di risorse condivise come variabili e connessioni al database.
Per ottimizzare il servizio per una contemporaneità massima stabile:
- Ottimizza il rendimento del servizio.
- Imposta il livello di supporto della concorrenza previsto in qualsiasi configurazione della concorrenza a livello di codice. Non tutti gli stack tecnologici richiedono un'impostazione di questo tipo.
- Esegui il deployment del servizio.
- Imposta la concorrenza Cloud Run per il tuo servizio uguale o inferiore a qualsiasi configurazione a livello di codice. Se non è presente alcuna configurazione a livello di codice, utilizza la concorrenza prevista.
- Utilizza strumenti di test di carico che supportano una concorrenza configurabile. Devi verificare che il servizio rimanga stabile con il carico e la concorrenza previsti.
- Se il servizio non funziona correttamente, vai al passaggio 1 per migliorarlo o al passaggio 2 per ridurre la concorrenza. Se il servizio funziona correttamente, torna al passaggio 2 e aumenta la concorrenza.
Continua a eseguire l'iterazione finché non trovi la concorrenza stabile massima.
Adatta la memoria alla concorrenza
Ogni richiesta gestita dal servizio richiede una certa quantità di memoria aggiuntiva. Pertanto, quando aumenti o diminuisci la concorrenza, assicurati di regolare anche il limite di memoria.
Evitare lo stato globale mutabile
Se vuoi sfruttare lo stato globale mutabile in un contesto concorrente, esegui passaggi aggiuntivi nel codice per assicurarti che venga eseguito in sicurezza. Riduci al minimo le contese limitando le variabili globali all'inizializzazione una tantum e al riutilizzo, come descritto sopra nella sezione Rendimento.
Se utilizzi variabili globali mutabili in un servizio che gestisce più richieste contemporaneamente, assicurati di utilizzare lock o mutex per evitare condizioni di gara.
Compromessi tra velocità effettiva, latenza e costi
La regolazione dell'impostazione delle richieste simultanee massime può aiutarti a bilanciare il compromesso tra throughput, latenza e costo per il tuo servizio.
In generale, un numero inferiore di richieste in parallelo massime comporta una latenza inferiore e un throughput inferiore per istanza. Con un numero inferiore di richieste in parallelo massime, meno richieste competono per le risorse all'interno di ogni istanza e ogni richiesta ottiene un rendimento migliore. Tuttavia, poiché ogni istanza può gestire meno richieste contemporaneamente, il throughput per istanza è inferiore e il servizio ha bisogno di più istanze per gestire lo stesso traffico.
Al contrario, un numero maggiore di richieste simultanee massime solitamente comporta una latenza e un throughput più elevati per istanza. Le richieste potrebbero dover attendere l'accesso a risorse come CPU, GPU e larghezza di banda della memoria all'interno dell'istanza, il che comporta un aumento della latenza. Tuttavia, ogni istanza può elaborare più richieste contemporaneamente, in modo che il servizio abbia bisogno di meno istanze in totale per elaborare lo stesso traffico.
Considerazioni sui costi
La fatturazione di Cloud Run avviene in base al tempo di istanza. Se la CPU è sempre allocata, la data e l'ora dell'istanza corrispondono alla durata totale di ciascuna istanza. Se la CPU non è sempre allocata, il tempo dell'istanza è il tempo impiegato da ogni istanza per elaborare almeno una richiesta.
L'impatto delle richieste in parallelo massime sulla fatturazione dipende dal tuo andamento del traffico. La riduzione del numero massimo di richieste in parallelo può comportare una fattura più bassa se l'impostazione più bassa porta a
- Latenza ridotta
- Istanze che completano il lavoro più velocemente
- Interruzione del servizio delle istanze più rapida anche se sono necessarie più istanze totali
È possibile anche il contrario: la riduzione delle richieste in parallelo massime può aumentare la fatturazione se l'aumento del numero di istanze non è compensato dalla riduzione del tempo di esecuzione di ciascuna istanza, a causa della latenza migliorata.
Il modo migliore per ottimizzare la fatturazione è tramite i test di carico utilizzando diverse impostazioni di richieste simultanee massime per identificare l'impostazione che genera il tempo di istanza fatturabile più basso, come indicato nella metrica di monitoraggio container/billable_instance_time.
Sicurezza dei container
Molte pratiche di sicurezza del software per uso generico si applicano alle applicazioni containerizzate. Esistono alcune pratiche specifiche per i container o che si allineano alla filosofia e all'architettura dei container.
Per migliorare la sicurezza del contenitore:
Utilizza immagini di base sicure e sottoposte a manutenzione attiva, come le immagini di base di Google o le immagini ufficiali di Docker Hub.
Applica gli aggiornamenti della sicurezza ai tuoi servizi ricostruendo regolarmente le immagini dei contenitori e reimplementando i servizi.
Includi nel contenitore solo ciò che è necessario per eseguire il servizio. Il codice, i pacchetti e gli strumenti aggiuntivi sono potenziali vulnerabilità di sicurezza. Consulta la sezione precedente per informazioni sull'impatto sul rendimento.
Implementa un processo di compilazione deterministico che includa versioni specifiche di software e librerie. In questo modo, il codice non verificato non verrà incluso nel contenitore.
Imposta il container in modo che venga eseguito come utente diverso da
root
con l'istruzioneUSER
del Dockerfile. Per alcune immagini contenitore potrebbe essere già configurato un utente specifico.Impedisci l'utilizzo delle funzionalità di anteprima utilizzando i criteri dell'organizzazione personalizzati.
Automatizzare la scansione di sicurezza
Abilita l'analisi delle vulnerabilità per la scansione di sicurezza delle immagini container archiviate in Artifact Registry.
Crea immagini container minime
Le immagini container di grandi dimensioni probabilmente aumentano le vulnerabilità di sicurezza perché contengono più di quanto necessario per il codice.
Grazie alla tecnologia di streaming delle immagini container di Cloud Run, le dimensioni dell'immagine container non influiscono sul tempo di avvio a freddo o di elaborazione delle richieste. Inoltre, le dimensioni dell'immagine del contenitore non vengono conteggiate nella memoria disponibile del contenitore.
Per creare un container minimo, ti consigliamo di utilizzare un'immagine di base snella, ad esempio:
Ubuntu è di dimensioni maggiori, ma è un'immagine di base di uso comune con un ambiente server out-of-box più completo.
Se il tuo servizio ha un processo di compilazione che richiede molti strumenti, ti consigliamo di utilizzare le costruzioni a più fasi per mantenere il contenitore leggero in fase di esecuzione.
Queste risorse forniscono ulteriori informazioni sulla creazione di immagini contenitore snelle:
- Best practice di Kubernetes: come e perché creare immagini di container di piccole dimensioni
- 7 best practice per la creazione di container