Questa pagina fornisce una panoramica del servizio memcache di App Engine. Elevata le applicazioni web scalabili per le prestazioni spesso utilizzano un insieme di dati in memoria distribuiti Cache di fronte o al posto di una solida archiviazione permanente per alcune attività. Per app Engine include un servizio di cache di memoria per questo scopo. Per scoprire come configurare, monitorare e utilizzare il servizio memcache, consulta Utilizzare Memcache.
Quando utilizzare una cache in memoria
Un utilizzo di una cache di memoria è quello di velocizzare le query più comuni sul datastore. Se molti effettuano la stessa query con gli stessi parametri e le modifiche non devono apparire subito sul sito web, l'applicazione può memorizzare nella cache i risultati in memcache. Le richieste successive possono controllare la memcache e eseguire la query di Datastore solo se i risultati sono assenti o scaduti. Dati di sessione, preferenze utente e altri dati restituiti dalle query per le pagine web sono buoni candidati per la memorizzazione nella cache.
Memcache può essere utile per altri valori temporanei. Tuttavia, quando valuti se memorizzare un valore solo in memcache e non in un altro spazio di archiviazione permanente, assicurati che l'applicazione si comporti in modo accettabile quando il valore non è improvvisamente disponibile. I valori possono scadere dalla cache in qualsiasi momento e può essere scaduta prima della scadenza impostata per il valore. Ad esempio, se l'improvvisa assenza dei dati di sessione di un utente causa il malfunzionamento della sessione, questi dati dovrebbero probabilmente essere archiviati nel datastore oltre che nella memcache.
Livelli di servizio
App Engine supporta due livelli del servizio memcache:
Memcache condivisa è l'opzione predefinita gratuita per le applicazioni App Engine. Fornisce la capacità della cache secondo il criterio del massimo impegno ed è soggetta alla domanda complessiva di tutte le applicazioni App Engine che utilizzano il servizio memcache condiviso.
Memcache dedicata fornisce una capacità della cache fissa assegnata in modo esclusivo alla tua applicazione. È fatturato in base alle dimensioni della cache in GB/ora e richiede l'attivazione della fatturazione. Avere il controllo sulle dimensioni della cache consente all'app di funziona in modo più prevedibile e con meno letture da più costosi durevoli archiviazione.
Entrambi i livelli di servizio memcache utilizzano la stessa API. Per configurare il servizio memcache per la tua applicazione, consulta Utilizzare memcache.
La tabella seguente riassume le differenze tra le due classi del servizio memcache:
Funzionalità | Memcache dedicata | Memcache condivisa |
---|---|---|
Prezzo | 0,06 $ per GB all'ora | Gratis |
Capacità |
|
Nessuna capacità garantita |
Prestazioni | Fino a 10.000 letture o 5000 scritture (escluse) al secondo per GB (elementi < 1 KB). Per maggiori dettagli, consulta Statistiche della cache. | Non garantito |
Negozio durevole | No | No |
SLA | Nessuno | Nessuno |
La fatturazione con memcache dedicata viene addebitata per incrementi di 15 minuti. Se la valuta utilizzata per il pagamento è diversa da USD, si applicano i prezzi elencati nella tua valuta negli SKU di Cloud Platform.
Se la tua app ha bisogno di una maggiore capacità di memcache, contatta il nostro team di vendita.
Limiti
All'utilizzo del servizio memcache si applicano i seguenti limiti:
- La dimensione massima di un valore dei dati memorizzati nella cache è 1 MiB (2^20 byte) meno la dimensione della chiave meno una l'overhead dipendente dall'implementazione, che è di circa 73 byte.
- Una chiave non può avere dimensioni superiori a 250 byte. In fase di runtime di PHP, se provi a impostare memcache con una chiave più grande, la chiamata genererà un'eccezione. (Gli altri ambienti di runtime si comportano diversamente).
- Il "multi" le operazioni batch possono avere un numero qualsiasi di elementi. La dimensione totale della chiamata e la dimensione totale dei dati recuperati non deve superare i 32 megabyte.
- Una chiave memcache non può contenere un byte nullo.
Consigli e best practice
Quando utilizzi Memcache, ti consigliamo di progettare le tue applicazioni per:
Gestisci il caso in cui un valore memorizzato nella cache non sia sempre disponibile.
- Memcache non è uno spazio di archiviazione durevole. In base al criterio di espulsione, le chiavi vengono espulse quando la cache si riempie. Anche le modifiche alla configurazione della cache o agli eventi di manutenzione del datacenter possono svuotare la cache in parte o del tutto.
- Memcache potrebbe non essere temporaneamente disponibile. Le operazioni Memcache possono non riuscire per vari motivi, tra cui modifiche alla configurazione della cache o eventi di manutenzione del data center. Le applicazioni devono essere progettate per rilevare le operazioni non riuscite senza esporre questi errori agli utenti finali. Queste indicazioni si applicano in particolare alle operazioni con gli insiemi.
Se possibile, utilizza la funzionalità di raggruppamento in batch dell'API.
- In questo modo, aumenterai le prestazioni e l'efficienza della tua app, soprattutto per gli elementi di piccole dimensioni.
Distribuisci il carico nello spazio chiavi di memcache.
Avere un singolo o un piccolo insieme di elementi memcache rappresenta un Una quantità sproporzionata di traffico ostacolerà la scalabilità della tua app. Queste linee guida si applicano sia alle operazioni al secondo sia alla larghezza di banda. Spesso puoi attenuare questo problema eseguendo lo sharding esplicito dei dati.
Ad esempio, puoi suddividere un contatore aggiornato di frequente tra più i tasti, rileggendoli e poi sommando solo quando serve un totale. Allo stesso modo, puoi suddividere un dato di 500.000 che deve essere letto su richiesta HTTP su più chiavi e rileggerele utilizzando un'unica chiamata API batch. Ancora meglio sarebbe memorizzare nella cache il valore dell'istanza memory.) Per memcache dedicata, la frequenza di accesso di picco su una singola chiave Deve essere di 1-2 ordini di grandezza inferiori alla classificazione per GB.
Mantieni le tue chiavi per recuperare i valori dalla cache.
- Memcache non fornisce un metodo per elencare le chiavi. A causa della natura della cache, non è possibile elencare le chiavi senza interrompere la cache. Inoltre, alcuni linguaggi come Python, chiavi hash lunghe e sono note solo all'applicazione.
Implementazione di memcache PHP
App Engine include implementazioni dello standard Memcache e API Memcached, che richiamano Servizio memcache di App Engine "in background". Alcune funzioni sono richiamabili ("stubbed", ma non fanno nulla, in quanto non sono necessari nel contesto di un'app dell'app Engine. Di conseguenza, le chiamate alle seguenti funzioni vengono ignorate:
Funzioni stub nell'API Memcache
memcache_add_server()
memcache_close()
memcache_connect()
memcache_pconnect()
memcache_set_compress_threshold()
addServer()
close()
connect()
pconnect()
setCompressThreshold()
Funzioni parziali nell'API Memcached
addServer()
addServers()
getAllKeys()
getServerByKey()
getServerList()
getStats()
getVersion()
isPersistent()
isPristine()
quit()
resetServerList()
setSaslAuthData()
Esempio di utilizzo dell'API Memcache PHP in App Engine:
Un esempio di utilizzo dell'API PHP Memcached in App Engine:
Modalità di scadenza dei dati memorizzati nella cache
Memcache contiene coppie chiave/valore. Le coppie in memoria cambiano in qualsiasi momento vengono scritti e recuperati dalla cache.
Per impostazione predefinita, i valori archiviati in memcache vengono conservati il più a lungo possibile. I valori possono essere espulsi dalla cache quando viene aggiunto un nuovo valore e la cache è in esaurimento di memoria. Quando i valori vengono espulsi a causa della pressione sulla memoria, vengono espulsi prima i valori meno di recente utilizzati.
L'app può fornire una scadenza quando un valore viene archiviato, come numero di secondi in relazione a quando viene aggiunto il valore o come valore Unix assoluto dell'epoca nel futuro (numero di secondi a partire dalla mezzanotte del 1° gennaio, 1970). Il valore viene rimosso non più tardi di questo momento, anche se può essere rimosso in precedenza per altri motivi. L'incremento del valore memorizzato per una chiave esistente non aggiorna la relativa data e ora di scadenza.
In rari casi, i valori possono scomparire dalla cache anche prima del per motivi diversi dalla pressione della memoria. Sebbene memcache sia resiliente ai guasti del server, i valori di memcache non vengono salvati su disco, pertanto un guasto del servizio può causare la mancata disponibilità dei valori.
In generale, un'applicazione non dovrebbe aspettarsi che un valore memorizzato nella cache sia sempre disponibili.
Puoi cancellare l'intera cache di un'applicazione tramite l'API o nella sezione Memcache della console Google Cloud.
Statistiche cache
Operazioni al secondo per dimensione articolo
La memcache dedicata è valutata in operazioni al secondo per GB, dove un'operazione è definita come accesso a un singolo elemento della cache, ad esempio get
,set
o delete
. La frequenza operativa varia in base alle dimensioni dell'articolo
in base alla tabella seguente. Il superamento di queste classificazioni potrebbe comportare un aumento della latenza o degli errori dell'API.
Le tabelle seguenti forniscono il numero massimo di eventi
esclusivi supportati
get-hit
o set
operazioni per GB di cache. Tieni presente che un'operazione get-hit
è una chiamata get
che rileva un valore archiviato con la chiave specificata,
e restituisce quel valore.
Dimensioni elemento (KB) | Massimo get-hit op/s |
Massimo set op/s |
---|---|---|
≤1 | 10.000 | 5000 |
100 | 2000 | 1000 |
512 | 500 | 250 |
In teoria, un'app configurata per più GB di cache può ottenere un'aggregazione calcolata come il numero di GB moltiplicato per la tariffa per GB. Ad esempio, un'app configurata per 5 GB di cache potrebbe raggiungere 50.000 memcache operazioni/sec su elementi da 1 kB. Per raggiungere questo livello è necessaria una buona distribuzione del carico nello spazio chiavi di Memcache.
Per ogni pattern IO, i limiti elencati sopra si riferiscono alle letture o scrive. Per le letture e le scritture simultanee, i limiti sono su una scala scorrevole. Maggiore è il numero di letture eseguite, minore è il numero di scritture eseguito e viceversa. Di seguito sono riportati alcuni esempi di limiti di IOP per letture e scritture simultanee di valori di 1 KB per 1 GB di cache:
IOPS di lettura | IOPS di scrittura |
---|---|
10000 | 0 |
8000 | 1000 |
5000 | 2500 |
1000 | 4500 |
0 | 5000 |
Unità di calcolo memcache (MCU)
Il throughput di Memcache può variare a seconda delle dimensioni dell'elemento a cui accedi e dell'operazione che vuoi eseguire sull'elemento. Puoi associare approssimativamente un costo alle operazioni e stimare la capacità di traffico che puoi aspettarti da memcache dedicato utilizzando un'unità chiamata unità di calcolo Memcache (MCU). MCU è definita tale che puoi aspettarti 10.000 MCU al secondo per GB di memcache. La console Google Cloud mostra quanta MCU è attualmente in uso dalla tua app.
Tieni presente che l'MCU è una stima statistica approssimativa e non è lineare.
unità. Ogni operazione di cache che legge o scrive un valore ha una MCU corrispondente
a un costo che dipende dalla dimensione del valore. L'MCU di un set
dipende da
dimensione del valore: il doppio del costo di un'operazione get-hit
riuscita.
Dimensioni dell'elemento del valore (KB) | Costo di MCU per get-hit |
Costo di MCU per set |
---|---|---|
≤1 | 1,0 | 2.0 |
2 | 1.3 | 2,6 |
10 | 1,7 | 3.4 |
100 | 5,0 | 10,0 |
512 | 20,0 | 40,0 |
1024 | 50,0 | 100,0 |
Le operazioni che non leggono o scrivono un valore hanno un costo di MCU fisso:
Operazione | MCU |
---|---|
get-miss |
1,0 |
delete |
2.0 |
increment |
2.0 |
flush |
100,0 |
stats |
100,0 |
Tieni presente che un'operazione get-miss
è un get
che rileva che non è presente alcun valore
con la chiave specificata.
Passaggi successivi
- Scopri come configurare, monitorare e utilizzare memcache in Utilizzare Memcache.