Ottimizzare un'app Go
In questo tutorial esegui il deployment di un'applicazione Go intenzionalmente inefficiente configurata per raccogliere i dati del profilo. Utilizzi il profiler per visualizzare i dati del profilo e identificare potenziali ottimizzazioni. Poi potrai modificare l'applicazione, eseguirne il deployment e valutare l'effetto o una modifica generale.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Enable the required API.
- Per aprire Cloud Shell, nella barra degli strumenti della console Google Cloud, fai clic su
Attiva Cloud Shell:
Dopo qualche istante, si apre una sessione di Cloud Shell all'interno Console Google Cloud:
Applicazione di esempio
L'obiettivo principale è massimizzare il numero di query al secondo che il server può elaborare. Un obiettivo secondario è ridurre l'utilizzo della memoria eliminando le allocazioni di memoria non necessarie.
Il server, utilizzando un framework gRPC, riceve una parola o una frase e restituisce il numero di volte in cui la parola o la frase compare nelle opere di Shakespeare.
Il numero medio di query al secondo che il server può gestire viene determinato mediante test di carico del server. Per ogni serie di test, un client viene chiamato e gli viene chiesto di inviare 20 query sequenziali. Al termine di una sessione, il numero di query inviate dal client simulatore, il tempo trascorso e il numero medio di query al secondo vengono visualizzati.
Il codice del server è intenzionalmente inefficiente.
Esecuzione dell'applicazione di esempio
Scarica ed esegui l'applicazione di esempio:
In Cloud Shell, esegui questi comandi:
git clone https://github.com/GoogleCloudPlatform/golang-samples.git cd golang-samples/profiler/shakesapp
Esegui l'applicazione con la versione impostata su
1
e il numero di giri impostato su 15:go run . -version 1 -num_rounds 15
Dopo uno o due minuti, vengono visualizzati i dati del profilo. I dati del profilo vengono visualizzati simile all'esempio seguente:
Nello screenshot, noterai che Tipo di profilo è impostato su
CPU time
. Ciò indica che i dati sull'utilizzo della CPU vengono visualizzati nel grafico a forma di fiamma.Di seguito è riportato l'output di esempio stampato in Cloud Shell:
$ go run . -version 1 -num_rounds 15 2020/08/27 17:27:34 Simulating client requests, round 1 2020/08/27 17:27:34 Stackdriver Profiler Go Agent version: 20200618 2020/08/27 17:27:34 profiler has started 2020/08/27 17:27:34 creating a new profile via profiler service 2020/08/27 17:27:51 Simulated 20 requests in 17.3s, rate of 1.156069 reqs / sec 2020/08/27 17:27:51 Simulating client requests, round 2 2020/08/27 17:28:10 Simulated 20 requests in 19.02s, rate of 1.051525 reqs / sec 2020/08/27 17:28:10 Simulating client requests, round 3 2020/08/27 17:28:29 Simulated 20 requests in 18.71s, rate of 1.068947 reqs / sec ... 2020/08/27 17:44:32 Simulating client requests, round 14 2020/08/27 17:46:04 Simulated 20 requests in 1m32.23s, rate of 0.216849 reqs / sec 2020/08/27 17:46:04 Simulating client requests, round 15 2020/08/27 17:47:52 Simulated 20 requests in 1m48.03s, rate of 0.185134 reqs / sec
L'output di Cloud Shell mostra il tempo trascorso per ogni iterazione e la frequenza media delle richieste. Quando l'applicazione viene avviata, la voce "20 richieste simulate in 17,3 secondi, frequenza di 1,156069 richieste/sec" indica che il server sta eseguendo circa 1 richiesta al secondo. Nell'ultimo round, la voce "20 richieste simulate in 1 minuto e 48,03 secondi, frequenza di 0,185134 richieste/sec" indica che il server sta eseguendo circa una richiesta ogni 5 secondi.
Utilizzo dei profili di tempo CPU per massimizzare le query al secondo
Un approccio per massimizzare il numero di query al secondo è identificare i metodi che richiedono un utilizzo intensivo della CPU e ottimizzarne le implementazioni. In questa sezione, puoi utilizzare i profili di tempo CPU per identificare un metodo che richiede molta CPU nel server.
Identificazione dell'utilizzo del tempo di CPU
Il frame principale del grafico a forma di fiamma elenca il tempo totale di CPU utilizzato dall'applicazione nell'intervallo di raccolta di 10 secondi:
In questo esempio, il servizio ha utilizzato 2.37 s
. Quando il sistema viene eseguito su una singola
core, un utilizzo del tempo di CPU di 2,37 secondi corrisponde al 23,7% di utilizzo di quello
principale. Per ulteriori informazioni, vedi
Tipi di profilazione disponibili.
Modificare l'applicazione
Valutare la modifica
Per valutare la modifica:
Esegui l'applicazione con la versione dell'applicazione impostata su
2
:go run . -version 2 -num_rounds 40
Una sezione successiva mostra che, con l'ottimizzazione, il tempo necessario un singolo round è molto inferiore a quello dell'applicazione non modificata. Per garantire che l'applicazione venga eseguita abbastanza a lungo da raccogliere di caricamento dei profili, il numero di cicli aumenta.
Attendi il completamento dell'applicazione, quindi visualizza i dati del profilo per questa versione dell'applicazione:
- Fai clic su ORA per caricare i dati del profilo più recenti. Per ulteriori informazioni, consulta Intervallo di tempo.
- Nel menu Versione, seleziona 2.
Ad esempio, il grafico a forma di fiamma è il seguente:
In questa figura, il frame principale mostra il valore 7.8 s
. A seguito della
modifica della funzione di corrispondenza delle stringhe, il tempo della CPU utilizzato dall'applicazione
è aumentato da 2,37 secondi a 7,8 secondi oppure l'applicazione è passata dall'utilizzo del
23,7% di un core della CPU all'utilizzo del 78% di un core della CPU.
La larghezza del frame è una misura proporzionale dell'utilizzo del tempo della CPU. In questo
ad esempio, la larghezza del frame per GetMatchCount
indica che questa funzione
utilizza circa il 49% di tutto il tempo di CPU impiegato dall'applicazione.
Nel grafico a forma di fiamma originale,
lo stesso frame corrispondeva a circa il 72% della larghezza del grafico.
Per visualizzare l'utilizzo esatto del tempo di CPU, puoi usare la descrizione comando del frame
Elenco delle funzioni in primo piano:
L'output in Cloud Shell mostra che versione modificata completa circa 5,8 richieste al secondo:
$ go run . -version 2 -num_rounds 40 2020/08/27 18:21:40 Simulating client requests, round 1 2020/08/27 18:21:40 Stackdriver Profiler Go Agent version: 20200618 2020/08/27 18:21:40 profiler has started 2020/08/27 18:21:40 creating a new profile via profiler service 2020/08/27 18:21:44 Simulated 20 requests in 3.67s, rate of 5.449591 reqs / sec 2020/08/27 18:21:44 Simulating client requests, round 2 2020/08/27 18:21:47 Simulated 20 requests in 3.72s, rate of 5.376344 reqs / sec 2020/08/27 18:21:47 Simulating client requests, round 3 2020/08/27 18:21:51 Simulated 20 requests in 3.58s, rate of 5.586592 reqs / sec ... 2020/08/27 18:23:51 Simulating client requests, round 39 2020/08/27 18:23:54 Simulated 20 requests in 3.46s, rate of 5.780347 reqs / sec 2020/08/27 18:23:54 Simulating client requests, round 40 2020/08/27 18:23:58 Simulated 20 requests in 3.4s, rate of 5.882353 reqs / sec
La piccola modifica all'applicazione ha avuto due effetti diversi:
Il numero di richieste al secondo è aumentato da meno di 1 al secondo a 5,8 al secondo.
Il tempo di CPU per richiesta, calcolato dividendo l'utilizzo della CPU per il il numero di richieste al secondo è sceso al 13,4% dal 23,7%.
Tieni presente che il tempo di CPU per richiesta è diminuito anche se l'utilizzo del tempo di CPU aumentato da 2,37 secondi, che corrisponde al 23,7% di utilizzo di un un singolo core della CPU, fino a 7,8 secondi, o il 78% di un core della CPU.
Utilizzo dei profili dell'heap allocato per migliorare l'utilizzo delle risorse
Questa sezione illustra come utilizzare i profili dell'heap e dell'heap allocato per identificare un metodo che richiede un'allocazione intensiva nell'applicazione:
I profili dell'heap mostrano la quantità di memoria allocata nell'heap del programma nell'istante in cui viene raccolto il profilo.
I profili heap allocati mostrano la quantità totale di memoria allocata nell'heap del programma durante l'intervallo in cui il profilo raccolte. Dividendo questi valori per 10 secondi, ovvero l'intervallo di raccolta dei profili, puoi interpretarli come tassi di allocazione.
Abilitazione della raccolta di profili heap in corso...
Esegui l'applicazione con la versione dell'applicazione impostata su
3
e attiva la raccolta dei profili dell'heap e dell'heap allocato.go run . -version 3 -num_rounds 40 -heap -heap_alloc
Attendi il completamento dell'applicazione, quindi visualizza i dati del profilo per questa versione dell'applicazione:
- Fai clic su ORA per caricare i dati del profilo più recenti.
- Nel menu Versione, seleziona 3.
- Nel menu Tipo di profiler, seleziona heap allocato.
Ad esempio, il grafico a fiamme è il seguente:
Identificazione del tasso di allocazione heap
Il frame principale visualizza la quantità totale di heap allocata durante 10 secondi durante la raccolta di un profilo, la media di tutti i profili. In questo esempio, il frame radice mostra che, in media, 1,535 GiB di è stata allocata.
Modifica dell'applicazione
Valutazione della modifica
Per valutare la modifica:
Esegui l'applicazione con la versione impostata su
4
:go run . -version 4 -num_rounds 60 -heap -heap_alloc
Attendi il completamento dell'applicazione, quindi visualizza i dati del profilo per questa versione dell'applicazione:
- Fai clic su ORA per caricare i dati del profilo più recenti.
- Nel menu Versione, seleziona 4.
- Nel menu Tipo di profiler, seleziona Heap allocato.
Per quantificare l'effetto della modifica di
readFiles
sul tasso di allocazione heap: confronta i profili heap allocati per la versione 4 con quelli raccolti per la versione 3:La descrizione comando del frame principale mostra che con la versione 4 la quantità media di memoria allocata durante la raccolta dei profili è diminuita di 1.301 GiB rispetto alla versione 3. La descrizione comando per
readFiles.func1
mostra una diminuzione di 1045 GiB:Per quantificare l'effetto sulla raccolta dei rifiuti, configura un confronto dei profili di tempo della CPU. Nello screenshot seguente viene applicato un filtro per mostrare gli stack per il garbage collector di Go
runtime.gcBgMarkWorker.*
. Lo screenshot mostra che L'utilizzo della CPU per la garbage collection si riduce dal 16,8% al 4,97%.Per determinare se esiste un impatto della modifica sul numero di richieste al secondo gestito dall'applicazione, visualizza l'output in Cloud Shell. In questo esempio, la versione 4 completa fino a 15 richieste per , che è notevolmente superiore alle 5,8 richieste al secondo di Versione 3:
$ go run . -version 4 -num_rounds 60 -heap -heap_alloc 2020/08/27 21:51:42 Simulating client requests, round 1 2020/08/27 21:51:42 Stackdriver Profiler Go Agent version: 20200618 2020/08/27 21:51:42 profiler has started 2020/08/27 21:51:42 creating a new profile via profiler service 2020/08/27 21:51:44 Simulated 20 requests in 1.47s, rate of 13.605442 reqs / sec 2020/08/27 21:51:44 Simulating client requests, round 2 2020/08/27 21:51:45 Simulated 20 requests in 1.3s, rate of 15.384615 reqs / sec 2020/08/27 21:51:45 Simulating client requests, round 3 2020/08/27 21:51:46 Simulated 20 requests in 1.31s, rate of 15.267176 reqs / sec ...
L'aumento delle query al secondo gestite dall'applicazione potrebbe essere dovuto a di tempo per la garbage collection.
È possibile ottenere una comprensione più completa dell'effetto della modifica a
readFiles
visualizzando i profili heap. Un confronto dei profili dell'heap per la versione 4 e per la versione 3 mostra che l'utilizzo dell'heap è diminuito da 70,95 MiB a 18,47 MiB:
Riepilogo
In questa guida rapida sono stati utilizzati il tempo di CPU e i profili heap allocati per identificare potenziali ottimizzazioni di un'applicazione. L'obiettivo era massimizzare il numero di richieste al secondo ed eliminare allocazioni.
Utilizzando i profili di tempo della CPU, è stata identificata una funzione che utilizza molta CPU. Dopo aver applicato una semplice modifica, il tasso di richieste del server è aumentato a 5,8 al secondo, da circa 1 al secondo.
Utilizzando i profili dell'heap allocato, è stato rilevato che la
shakesapp/server.go
funzionereadFiles
ha un tasso di allocazione elevato. Dopo aver ottimizzatoreadFiles
, la frequenza di richiesta del server è aumentata a 15 richieste al secondo e la quantità media di memoria allocata durante la raccolta del profilo di 10 secondi è diminuita di 1,301 GiB.
Passaggi successivi
Per informazioni su come i profili vengono raccolti e inviati al tuo progetto Google Cloud, consulta Raccolta profilo.
Leggi le nostre risorse su DevOps ed esplora il nostro programma di ricerca.
- Profilazione delle applicazioni Go
- Profilazione delle applicazioni Java
- Profilazione delle applicazioni Node.js
- Profilazione delle applicazioni Python
- Profiling delle applicazioni in esecuzione al di fuori di Google Cloud