Questa guida fornisce una panoramica delle risorse necessarie per eseguire SAP HANA su Google Cloud e dettagli che puoi utilizzare quando pianifichi l'implementazione di un nuovo sistema SAP HANA.
Per informazioni dettagliate su come eseguire il deployment di SAP HANA su Google Cloud, consulta:
- Per i deployment di scalabilità verso l'alto con un solo host e di scalabilità verso l'esterno con più host, consulta:
- Per i sistemi scalabili orizzontalmente con deployment di failover automatico dell'host, consulta:
- Per le configurazioni dei cluster ad alta disponibilità con scalabilità verso l'alto, consulta:
- Terraform: guida alla configurazione del cluster SAP HANA scalabile verticale ad alta disponibilità
- Deployment Manager: guida alla configurazione del cluster SAP HANA ad alta disponibilità
- Configurazione manuale del cluster ad alta disponibilità scalabile verticalmente su RHEL
- Configurazione manuale del cluster ad alta disponibilità scalabile verticalmente su SLES
- Per le configurazioni di cluster ad alta disponibilità scalabili, consulta:
Informazioni su SAP HANA su Google Cloud
SAP HANA è un database relazionale in memoria e orientato a colonne che fornisce analisi ad alte prestazioni ed elaborazione dei dati in tempo reale. I clienti possono sfruttare la semplicità di provisioning, le funzionalità di infrastruttura di Google Cloud altamente scalabili e ridondanti per eseguire i carichi di lavoro aziendali critici. Google Cloud fornisce un insieme di asset fisici, come computer e dischi rigidi, e risorse virtuali, come le macchine virtuali (VM) di Compute Engine, situate nei data center di Google in tutto il mondo.
Quando esegui il deployment di SAP HANA su Google Cloud, lo esegui su macchine virtuali in esecuzione su Compute Engine. Le VM Compute Engine forniscono dischi permanenti, che funzionano in modo simile ai dischi fisici di un computer o di un server, ma vengono gestiti automaticamente da Compute Engine per garantire la ridondanza dei dati e prestazioni ottimizzate.
Nozioni di base su Google Cloud
Google Cloud è costituito da molti prodotti e servizi basati su cloud. Quando esegui i prodotti SAP su Google Cloud, utilizzi principalmente i servizi basati su IaaS offerti tramite Compute Engine e Cloud Storage, nonché alcune funzionalità a livello di piattaforma, come gli strumenti.
Consulta la panoramica della piattaforma Google Cloud per concetti e terminologia importanti. Questa guida duplica alcune informazioni della panoramica per praticità e contesto.
Per una panoramica delle considerazioni che le organizzazioni di grandi dimensioni devono tenere conto quando eseguono su Google Cloud, consulta il Framework dell'architettura Google Cloud.
Interazione con Google Cloud
Google Cloud offre tre modi principali per interagire con la piattaforma e le tue risorse nel cloud:
- La console Google Cloud, che è un'interfaccia utente basata sul web.
- Lo strumento a riga di comando
gcloud
, che fornisce un superset delle funzionalità offerte dalla console Google Cloud. - Librerie client, che forniscono API per accedere ai servizi e gestire le risorse. Le librerie client sono utili per creare i tuoi strumenti.
Servizi Google Cloud
I deployment SAP in genere utilizzano alcuni o tutti i seguenti servizi Google Cloud:
Servizio | Descrizione |
---|---|
Networking VPC |
Connette le istanze VM tra loro e a internet. Ogni istanza VM fa parte di una rete precedente con un singolo intervallo IP globale o di una rete di subnet consigliata, in cui l'istanza VM fa parte di una singola subnet che fa parte di una rete più grande. Tieni presente che una rete Virtual Private Cloud (VPC) non può essere distribuita su più progetti Google Cloud, ma un progetto Google Cloud può avere più reti VPC. Per connettere risorse di più progetti a una rete VPC comune, puoi utilizzare la VPC condivisa, in modo che le risorse possano comunicare tra loro in modo sicuro ed efficiente utilizzando gli indirizzi IP interni di quella rete. Per informazioni su come eseguire il provisioning di un VPC condiviso, inclusi requisiti, passaggi di configurazione e utilizzo, consulta Eseguire il provisioning di un VPC condiviso. |
Compute Engine | Crea e gestisce le VM con il sistema operativo e lo stack di software che preferisci. |
Persistent Disk e Hyperdisk |
Puoi utilizzare Persistent Disk e Google Cloud Hyperdisk:
|
Console Google Cloud |
Uno strumento basato su browser per la gestione delle risorse Compute Engine. Utilizza un modello per descrivere tutte le risorse e le istanze Compute Engine di cui hai bisogno. Non devi creare e configurare singolarmente le risorse o capire le dipendenze perché la console Google Cloud lo fa per te. |
Cloud Storage | Puoi archiviare i backup del database SAP in Cloud Storage per una maggiore durabilità e affidabilità, con la replica. |
Cloud Monitoring |
Offre visibilità sul deployment, sulle prestazioni, sull'uptime e sull'integrità dei dischi di Compute Engine, di rete e di archiviazione permanente. Monitoring raccoglie metriche, eventi e metadati da Google Cloud e li utilizza per generare approfondimenti tramite dashboard, grafici e avvisi. Puoi monitorare le metriche di calcolo senza costi tramite monitoring. |
IAM |
Fornisce un controllo unificato delle autorizzazioni per le risorse Google Cloud. IAM ti consente di controllare chi può eseguire operazioni del piano di controllo sulle tue VM, tra cui creazione, modifica ed eliminazione di VM e dischi di archiviazione permanente, nonché creazione e modifica di reti. |
Prezzi e quote
Puoi utilizzare il Calcolatore prezzi per stimare i costi di utilizzo. Per ulteriori informazioni sui prezzi, consulta Prezzi di Compute Engine, Prezzi di Cloud Storage e Prezzi di Google Cloud Observability.
Le risorse Google Cloud sono soggette a quote. Se prevedi di utilizzare macchine con più CPU o con molta memoria, potresti dover richiedere una quota aggiuntiva. Per ulteriori informazioni, consulta Quote delle risorse di Compute Engine.
Conformità e controlli di sovranità
Se vuoi che il tuo carico di lavoro SAP venga eseguito in conformità con i requisiti di residenza dei dati, controllo dell'accesso, personale di assistenza o normativi, devi pianificare l'utilizzo di Assured Workloads, un servizio che ti aiuta a eseguire carichi di lavoro sicuri e conformi su Google Cloud senza compromettere la qualità della tua esperienza cloud. Per ulteriori informazioni, consulta Controlli di conformità e sovranità per SAP su Google Cloud.
Requisiti delle risorse
Tipi di macchine certificate per SAP HANA
Per SAP HANA, SAP certifica solo un sottoinsieme dei tipi di macchine disponibili su Google Cloud.
I tipi di macchine certificate da SAP per SAP HANA includono macchine virtuali (VM) Compute Engine e macchine bare metal Bare Metal Solution.
Anche le configurazioni personalizzate dei tipi di VM per uso generico n1-highmem e n2-highmem sono certificate da SAP. Per ulteriori informazioni, consulta Tipi di VM personalizzate certificate per SAP HANA.
Per i sistemi operativi certificati per l'utilizzo con HANA su ogni tipo di macchina, consulta Sistemi operativi certificati per SAP HANA.
Alcuni tipi di macchine non sono disponibili in tutte le regioni di Google Cloud. Per verificare la disponibilità regionale di una macchina virtuale Compute Engine, consulta Regioni e zone disponibili. Per le macchine Bare Metal Solution certificate per SAP HANA, consulta Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.
SAP elenca i tipi di macchine certificate per SAP HANA nella directory dell'hardware SAP HANA certificato e supportato.
Per ulteriori informazioni sui diversi tipi di VM Compute Engine e sui relativi casi d'uso, consulta la sezione Tipi di macchine.
VM Compute Engine certificate per SAP HANA
La tabella seguente mostra le VM Compute Engine certificate da SAP per SAP HANA:
La tabella seguente mostra tutti i tipi di macchine Google Cloud che sono certificati da SAP per l'utilizzo di produzione di SAP HANA.
La tabella non include i tipi di macchine certificate da SAP per SAP Business One su SAP HANA. Per i tipi di macchine certificate da SAP per SAP HANA con SAP Business One, consulta Applicazioni SAP certificate su Google Cloud.
Tipi di macchina | vCPU | Memoria | Sistema operativo | Piattaforma CPU | Tipo di applicazione | Note |
---|---|---|---|---|---|---|
Tipi di VM N1 per uso generico con memoria elevata | ||||||
n1-highmem-32 |
32 | 208 GB | RHEL, SUSE |
Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per il ridimensionamento in aumento, NetApp CVS-Performance. |
n1-highmem-64 |
64 | 416 GB | RHEL, SUSE | Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per il ridimensionamento in aumento, NetApp CVS-Performance. |
n1-highmem-96 |
96 | 624 GB | RHEL, SUSE | Intel Skylake | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per l'aumento di scala, NetApp CVS-Performance. |
Tipi di VM generiche con memoria elevata N2 | ||||||
n2-highmem-32 |
32 | 256 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o NetApp CVS-Performance. |
n2-highmem-48 |
48 | 384 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o NetApp CVS-Performance. |
n2-highmem-64 |
64 | 512 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o NetApp CVS-Performance. |
n2-highmem-80 |
80 | 640 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance. |
n2-highmem-96 |
96 | 768 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance. |
n2-highmem-128 |
128 | 864 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance. |
Tipi di VM C3 per uso generico | ||||||
c3-standard-44 |
44 | 176 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance. |
c3-highmem-44 |
44 | 352 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance. |
c3-highmem-88 |
88 | 704 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
c3-highmem-176 |
176 | 1.408 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
Tipi di macchine bare metal C3 per uso generico | ||||||
c3-highmem-192-metal |
192 | 1536 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced. |
Tipi di VM C4 per uso generico | ||||||
c4-highmem-32 |
32 | 248 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verso l'alto. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
c4-highmem-48 |
48 | 372 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verso l'alto. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
c4-highmem-96 |
96 | 744 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verso l'alto. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
c4-highmem-192 |
192 | 1488 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verso l'alto. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
Tipi di VM M1 ottimizzate per la memoria | ||||||
m1-megamem-96 |
96 | 1433 GB | RHEL, SUSE | Intel Skylake | OLAP o OLTP | OLAP: esegui lo scale up o lo scale out fino a 16 nodi. OLTP: solo scalabilità verticale. Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per l'escaling OLTP, NetApp CVS-Performance. |
m1-ultramem-40 |
40 | 961 GB | RHEL, SUSE | Intel Broadwell | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance. |
m1-ultramem-80 |
80 | 1922 GB | RHEL, SUSE | Intel Broadwell | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
m1-ultramem-160 |
160 | 3844 GB | RHEL, SUSE | Intel Broadwell | OLAP o OLTP | Carichi di lavoro OLAP da 2 TB certificati per lo scaling up e lo scaling out fino a 16 nodi. Carichi di lavoro OLAP fino a 4 TB supportati con dimensionamento basato sul carico di lavoro. Carichi di lavoro OLTP certificati solo per lo scale up. Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per l'escaling OLTP, NetApp CVS-Performance. |
Tipi di VM M2 ottimizzate per la memoria | ||||||
m2-megamem-416 |
416 | 5888 GB | RHEL, SUSE | Intel Cascade Lake | OLAP o OLTP | Carichi di lavoro OLAP certificati per lo scaling up e lo scaling out fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scaling up o lo scaling out fino a 4 nodi. La certificazione per l'escaling OLTP include SAP S/4HANA. Per l'escaling con S/4HANA, consulta la nota SAP 2408419. Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per il ridimensionamento, NetApp CVS-Performance. |
m2-ultramem-208 |
208 | 5888 GB | RHEL, SUSE | Intel Cascade Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
m2-ultramem-416 |
416 | 11.776 GB | RHEL, SUSE | Intel Cascade Lake-SP | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con le dimensioni basate sul carico di lavoro per lo scale up o lo scale out fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scaling up o lo scaling out fino a 4 nodi. La certificazione per l'escaling OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per lo scale up, NetApp CVS-Performance. Per l'escaling con S/4HANA, consulta la nota SAP 2408419. |
m2-hypermem-416 |
416 | 8832 GB | RHEL, SUSE | Intel Cascade Lake | Solo OLTP | I carichi di lavoro OLTP sono certificati per lo scaling up o lo scaling out fino a 4 nodi.
La certificazione per l'escaling OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per lo scale up, NetApp CVS-Performance. Per l'escaling con S/4HANA, consulta la nota SAP 2408419. |
Tipi di VM M3 ottimizzate per la memoria | ||||||
m3-ultramem-32 |
32 | 976 GB | RHEL, SUSE | Intel Ice Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance. |
m3-ultramem-64 |
64 | 1952 GB | RHEL, SUSE | Intel Ice Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
m3-ultramem-128 |
128 | 3904 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con il dimensionamento in base al carico di lavoro per l'aumento di scala. I carichi di lavoro OLTP sono certificati per lo scale up. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
m3-megamem-64 |
64 | 976 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance. |
m3-megamem-128 |
128 | 1952 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Esegui lo scale up o lo scale out fino a 16 nodi. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance (solo scale-up). |
Tipi di macchine bare metal ottimizzate per la memoria X4 | ||||||
x4-megamem-960-metal |
960 | 16.384 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I carichi di lavoro OLAP e OLTP sono certificati per lo scale out fino a 4 nodi e per lo scale up. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
x4-megamem-1440-metal |
1440 | 24.576 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I carichi di lavoro OLTP sono certificati per lo scaling out fino a 4 nodi. I carichi di lavoro OLAP sono certificati solo per l'aumento di scala. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
x4-megamem-1920-metal |
1920 | 32.768 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I carichi di lavoro OLTP sono certificati per lo scaling out fino a 4 nodi. I carichi di lavoro OLAP sono certificati solo per l'aumento di scala. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
Macchine Bare Metal Solution certificate per SAP HANA
La tabella seguente mostra le macchine Bare Metal Solution certificate da SAP per SAP HANA esclusivamente in un'architettura a tre livelli.
Per sapere in quali regioni sono disponibili questi tipi di macchine certificate, consulta la pagina Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.
Tipo di macchina Bare Metal Solution | Core della CPU | vCPU | Socket | Memoria | Piattaforma CPU | Sistema operativo | Tipo di applicazione | Note |
---|---|---|---|---|---|---|---|---|
Tipi di macchine Bare Metal Solution con memoria ottimizzata O2 | ||||||||
o2-ultramem-672-metal |
336 | 672 | 12 | 18 TB | Intel Cascade Lake | RHEL, SUSE | Solo OLTP | Esegui lo scale up solo in un'architettura a tre livelli. Taglie standard. |
o2-ultramem-896-metal |
448 | 896 | 16 | 24 TB | Intel Cascade Lake | RHEL, SUSE | Solo OLTP | Esegui lo scale up solo in un'architettura a tre livelli. Taglie standard. |
Tipi di macchine personalizzate certificate per SAP HANA
La tabella seguente mostra i tipi di macchine personalizzate Compute Engine certificati da SAP per l'utilizzo in produzione di SAP HANA su Google Cloud.
SAP certifica solo un sottoinsieme dei tipi di macchine personalizzate disponibili su Compute Engine.
I tipi di macchine personalizzate sono soggetti a regole di personalizzazione definite da Compute Engine. Le regole variano a seconda del tipo di macchina che stai personalizzando. Per regole di personalizzazione complete, consulta Creare un'istanza VM personalizzata.
Tipo di macchina di base | vCPU | Memoria (GB) | Sistema operativo | Piattaforme CPU |
---|---|---|---|---|
N1-highmem | Un numero di vCPU compreso tra 32 e 64 che sia divisibile per 2. | 6,5 GB per ogni vCPU | RHEL, SUSE | Intel Broadwell |
N2-highmem (solo scalabilità verticale) | Su Intel Ice Lake, un numero di vCPU da 32 a 80 uniformemente divisibile per 4. Su Intel Cascade Lake, un numero di vCPU da 32 a 80 che sia uniformemente divisibile per 4. |
Fino a 8 GB per vCPU | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA
La tabella seguente mostra le regioni Google Cloud attuali che supportano SAP HANA su Bare Metal Solution.
Regione | Località |
---|---|
europe-west3 |
Francoforte, Germania, Europa |
europe-west4 |
Eemshaven, Paesi Bassi, Europa |
us-central1 |
Council Bluffs, Iowa, USA, Nord America |
us-east4 |
Ashburn, Virginia, Stati Uniti, Nord America |
Se non visualizzi la regione di cui hai bisogno nella tabella precedente, contatta il team di vendita di Google Cloud.
Configurazione della memoria
Le opzioni di configurazione della memoria sono determinate dal tipo di istanza VM di Compute Engine scelto. Per saperne di più, consulta la tabella Tipi di macchine certificate per SAP HANA.
Configurazione di rete
Le funzionalità di rete della VM Compute Engine sono determinate dalla famiglia di macchine e non dall'interfaccia di rete (NIC) o dall'indirizzo IP.
In base al tipo di macchina, l'istanza VM è in grado di supportare un throughput di rete di 2-32 Gbps. Alcuni tipi di macchine supportano anche throughput fino a 100 Gbps, che richiedono l'utilizzo del tipo di interfaccia gVNIC (Google Virtual NIC) con una configurazione di rete Tier_1. La possibilità di raggiungere queste velocità in termini di throughput dipende inoltre dalla direzione del traffico e dal tipo di indirizzo IP di destinazione.
Le interfacce di rete delle VM Compute Engine sono supportate da un'infrastruttura di rete ridondante e resiliente che utilizza componenti di rete fisici e software-defined. Queste interfacce ereditano la ridondanza e la resilienza della piattaforma di base. È possibile utilizzare più NIC virtuali per la separazione del traffico, ma questo non offre alcun vantaggio aggiuntivo in termini di resilienza o prestazioni.
Una singola NIC fornisce le prestazioni necessarie per i deployment di SAP HANA su Compute Engine. Il tuo caso d'uso specifico, i requisiti di sicurezza o le tue preferenze potrebbero richiedere anche interfacce aggiuntive per separare il traffico, ad esempio il traffico internet, il traffico interno di SAP HANA System Replication o altri flussi che potrebbero trarre vantaggio da regole specifiche dei criteri di rete. Ti consigliamo di utilizzare la crittografia del traffico offerta dall'applicazione e di proteggere l'accesso alla rete seguendo un criterio di firewall del privilegio minimo per limitare l'accesso.
A seconda dei requisiti, puoi migliorare la sicurezza in diversi modi, come descritto nella Guida alla sicurezza di SAP HANA per la piattaforma SAP HANA. Ad esempio, puoi implementare l'isolamento di rete, ma la sicurezza è inferiore senza crittografia e senza liste consentite specifiche per porte e IP.
Valuta la necessità di separare il traffico all'inizio della progettazione della rete e alloca NIC aggiuntive quando esegui il deployment delle VM. Devi collegare ogni interfaccia di rete a una rete Virtual Private Cloud diversa. La scelta del numero di interfacce di rete dipende dal livello di isolamento richiesto, con un massimo di 8 interfacce consentite per le VM con almeno 8 vCPU.
Ad esempio, puoi definire una rete Virtual Private Cloud per i client delle applicazioni SAP HANA SQL (server delle applicazioni SAP NetWeaver, applicazioni personalizzate e così via) e una rete separata per il traffico tra server, come la replica di sistema SAP HANA. Tieni presente che troppi segmenti potrebbero complicare la gestione e la risoluzione dei problemi di rete. Se cambi idea in un secondo momento, puoi utilizzare le immagini macchina Compute Engine per rieseguire la creazione dell'istanza VM mantenendo tutti i dati, i metadati e la configurazione associati.
Per ulteriori informazioni, consulta la panoramica della rete per le VM, le più interfacce di rete e la larghezza di banda di rete della VM.
Sistemi operativi certificati per SAP HANA
La tabella seguente mostra i sistemi operativi Red Hat Enterprise Linux (RHEL) e SUSE Linux Enterprise Server (SLES) certificati da SAP per l'utilizzo in produzione con SAP HANA su Google Cloud.
Salvo dove indicato nella tabella, ogni sistema operativo è supportato con SAP HANA su tutti i tipi di VM Compute Engine certificati.
Per informazioni sullo stato attuale del supporto di ciascun sistema operativo e su quali sistemi operativi sono disponibili su Google Cloud, consulta Supporto dei sistemi operativi per SAP HANA su Google Cloud.
Per informazioni di SAP sui sistemi operativi supportati da SAP con SAP HANA su Google Cloud, vai alla directory dell'hardware SAP HANA certificato e supportato, fai clic sul tipo di macchina richiesto e poi su Sistema operativo.
La tabella seguente non include:
- Versioni del sistema operativo certificate che non sono più supportate in modo mainstream.
- Versioni del sistema operativo non specifiche per SAP.
Sistema operativo | Versione | Tipi di macchine non supportati |
---|---|---|
RHEL for SAP | 9.4 Nota |
x4-megamem
|
9.2 Nota |
x4-megamem C3-metal |
|
9.0 Nota |
x4-megamem C3-metal |
|
8.10 |
x4-megamem
|
|
8,8 |
x4-megamem C3-metal |
|
8,6 |
x4-megamem C3-metal |
|
8,4 |
x4-megamem C3-metal |
|
8,2 |
x4-megamem C3-metal |
|
8.1 |
x4-megamem C3-metal c3-standard c3-highmem m3-ultramem m3-megamem
|
|
7,9 |
c4-highmem x4-megamem C3-metal |
|
7,7 |
c4-highmem x4-megamem C3-metal c3-standard c3-highmem m3-ultramem m3-megamem
|
|
SLES for SAP | 15 SP6 | |
15 SP5 | ||
15 SP4 | ||
15 SP3 |
x4-megamem C3-metal |
|
15 SP2 |
x4-megamem C3-metal |
|
15 SP1 |
c4-highmem x4-megamem C3-metal c3-standard c3-highmem m3-ultramem m3-megamem
|
|
12 SP5 |
x4-megamem C3-metal |
Immagini del sistema operativo personalizzate
Puoi utilizzare un'immagine Linux fornita e gestita da Google Cloud (un'immagine pubblica) oppure fornire e gestire la tua immagine Linux (un'immagine personalizzata).
Utilizza un'immagine personalizzata se la versione del sistema operativo certificato SAP di cui hai bisogno non è disponibile su Google Cloud come immagine pubblica. I seguenti passaggi, descritti in dettaglio in Importazione delle immagini del disco di avvio in Compute Engine, riepilogano la procedura per l'utilizzo di un'immagine personalizzata:
- Prepara il disco di avvio in modo che possa avviarsi nell'ambiente Google Cloud Compute Engine e che tu possa accedervi dopo l'avvio.
- Crea e comprime il file immagine del disco di avvio.
- Carica il file immagine su Cloud Storage e importa l'immagine in Compute Engine come nuova immagine personalizzata.
- Utilizza l'immagine importata per creare un'istanza di macchina virtuale e assicurati che sia avviata correttamente.
- Ottimizza l'immagine e installa l'ambiente guest Linux in modo che l'immagine del sistema operativo importato possa comunicare con il server di metadati e utilizzare funzionalità aggiuntive di Compute Engine.
Una volta pronta, puoi utilizzare l'immagine personalizzata per creare VM per il tuo sistema SAP HANA.
Se stai spostando un sistema operativo RHEL da un'installazione on-premise a Google Cloud, devi aggiungere Red Hat Cloud Access al tuo abbonamento Red Hat. Per ulteriori informazioni, consulta Red Hat Cloud Access.
Per ulteriori informazioni sulle immagini del sistema operativo fornite da Google Cloud, consulta Immagini.
Per ulteriori informazioni sull'importazione di un sistema operativo in Google Cloud come immagine personalizzata, consulta Importazione delle immagini del disco di avvio in Compute Engine.
Per ulteriori informazioni sui sistemi operativi supportati da SAP HANA, consulta:
- Directory dell'hardware SAP HANA certificato e supportato
- Nota SAP 2235581 - SAP HANA: sistemi operativi supportati
Sorgente dell'orologio del sistema operativo nelle VM di Compute Engine
L'origine dell'orologio predefinita del sistema operativo è kvm-clock per le immagini SLES e TSC per le immagini RHEL.
La modifica della sorgente dell'orologio del sistema operativo non è necessaria quando SAP HANA è in esecuzione su una VM Compute Engine. Non c'è alcuna differenza di prestazioni quando si utilizza kvm-clock o TSC come clocksource per le VM Compute Engine con SAP HANA.
Se devi modificare la sorgente dell'orologio del sistema operativo in TSC, connettiti alla VM tramite SSH e dai i seguenti comandi:
echo "tsc" | sudo tee /sys/devices/system/clocksource/*/current_clocksource sudo cp /etc/default/grub /etc/default/grub.backup sudo sed -i '/GRUB_CMDLINE_LINUX/ s|"| clocksource=tsc"|2' /etc/default/grub sudo grub2-mkconfig -o /boot/grub2/grub.cfg
Archiviazione su disco permanente
Per l'archiviazione a blocchi permanente, puoi collegare i dischi permanenti o Hyperdisk di Compute Engine quando crei le VM o aggiungerli in un secondo momento.Tipi di dischi supportati
Compute Engine offre diversi tipi di Persistent Disk e Hyperdisk in base alla tecnologia delle unità a stato solido (SSD) o delle unità disco rigido (HDD) standard. Ogni tipo ha caratteristiche di rendimento diverse. Google Cloud gestisce l'hardware sottostante dei dischi per garantire la ridondanza dei dati e ottimizzare le prestazioni.
Per motivi di prestazioni, i volumi SAP HANA /hana/data
e /hana/log
richiedono dischi di archiviazione permanente basati su SSD.
I tipi di Persistent Disk e Hyperdisk basati su SSD certificati da SAP per l'utilizzo con SAP HANA includono quanto segue:
Tipi di Persistent Disk basati su SSD: bilanciato (
pd-balanced
), prestazionale o SSD (pd-ssd
) ed estremo (pd-extreme
)- Questi tipi di dischi offrono un'archiviazione a blocchi affidabile e conveniente.
- Persistent Disk (SSD) ad alte prestazioni (
pd-ssd
) offre un rendimento superiore rispetto al disco permanente bilanciato (pd-balanced
). - Utilizza il disco permanente con carico bilanciato come disco consigliato per ospitare quanto segue per le istanze VM:
- Volume di avvio della VM.
- Il volume
/usr/sap
. - Il volume
/hana/shared
, se lo ospiti su un disco dedicato. - Il volume
/hanabackup
, se salvi i backup su un disco. Se vuoi ridurre i costi di backup, puoi utilizzare un Persistent Disk HDD standard (pd-standard
). Il disco permanente bilanciato consente di eseguire backup più rapidi rispetto al disco permanente HDD standard. Durante la selezione del disco, assicurati che il tipo di VM supporti il tipo di disco.
- Supporto Persistent Disk bilanciati e prestazionali (SSD) per la replica asincrona dei dati protetti. Puoi utilizzare questa funzionalità per il ripristino di emergenza attivo-passivo tra regioni. Per ulteriori informazioni, consulta Disaster recovery mediante la replica asincrona di PD.
- Anche se il disco permanente Extreme (
pd-extreme
) è certificato per l'utilizzo con SAP HANA, ti consigliamo di utilizzare Hyperdisk Extreme (hyperdisk-extreme
), che offre prestazioni superiori. Se vuoi utilizzare i dischi permanenti Extreme, assicurati di eseguirne il provisioning in base alle informazioni riportate in Dimensioni minime per i volumi di Persistent Disk e Hyperdisk basati su SSD.
Tipi di Hyperdisk: Hyperdisk Extreme (
hyperdisk-extreme
) e Hyperdisk bilanciato (hyperdisk-balanced
)- Hyperdisk Extreme offre opzioni di IOPS e throughput massimi superiori rispetto ai tipi di Persistent Disk basati su SSD.
- Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme e Hyperdisk Balanced, consulta Supporto dei tipi di macchine.
- Utilizza Hyperdisk bilanciato come disco consigliato per l'hosting
di quanto segue per le istanze bare metal di Compute Engine come X4:
- Il disco di avvio.
- Il volume
/usr/sap
. - Il volume
/hana/shared
, se lo ospiti su un disco dedicato. - Il volume
/hanabackup
, se salvi i backup su un disco.
- Per Hyperdisk Extreme, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning delle IOPS, che determinano anche il throughput. Per ulteriori informazioni, consulta la sezione Throughput.
- Per Hyperdisk bilanciato, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning di IOPS e throughput. Per ulteriori informazioni, consulta Informazioni sul provisioning di IOPS e throughput per HyperDisk.
- Puoi utilizzare Hyperdisk Extreme per i volumi
/hana/data
e/hana/log
quando hai bisogno delle massime prestazioni. - Per ottenere le migliori prestazioni da Hyperdisk Extreme per SAP HANA, aggiorna le proprietà di sistema SAP HANA come consigliato in Prestazioni di Hyperdisk Extreme.
Layout dei dischi supportati
La figura seguente mostra il layout dello spazio di archiviazione dei dischi nelle architetture suggerite per SAP HANA su Google Cloud.
Nella figura precedente, la configurazione a sinistra utilizza un layout del disco suddiviso.
I volumi /hana/data
e /hana/log
si trovano su Hyperdisk distinti. Il volume /hana/data
può essere ospitato su più di un disco. I volumi /hana/shared
e /usr/sap
, che non richiedono prestazioni elevate, si trovano su singoli dischi permanenti bilanciati, che costano meno di un Hyperdisk Extreme.
La configurazione a destra utilizza un layout dei dischi unificato, in cui i volumi /hana/data
, /hana/log
, /hana/shared
e /usr/sap
sono tutti montati su un unico Hyperdisk Extreme.
I dischi permanenti e Hyperdisk si trovano in modo indipendente dalle VM, quindi puoi scollegarli o spostarli per conservare i dati anche dopo aver eliminato le VM.
Nella console Google Cloud, puoi vedere i dischi permanenti e gli Hyperdisk collegati alle tue istanze VM nella sezione Dischi aggiuntivi della pagina Dettagli istanza VM per ogni istanza VM. Per saperne di più sui diversi tipi di volumi Hyperdisk e Persistent Disk di Compute Engine, sulle relative caratteristiche di prestazioni e su come utilizzarli, consulta la seguente documentazione:
- Opzioni di archiviazione
- Informazioni su Hyperdisk
- Prestazioni dell'archiviazione a blocchi
- Altri fattori che influiscono sul rendimento
- Aggiungere un Persistent Disk alla VM
- Creare e gestire snapshot dei dischi
- Eseguire la migrazione dei volumi del disco permanente SAP HANA ai volumi Hyperdisk
Dimensioni minime per i volumi Hyperdisk e Persistent Disk basati su SSD
Quando scegli le dimensioni di determinati dischi permanenti basati su SSD di Compute Engine per SAP HANA, devi tenere conto non solo dei requisiti di archiviazione della tua istanza SAP HANA, ma anche delle prestazioni del disco permanente.
Entro limiti, le prestazioni di un disco permanente equilibrato o SSD aumentano con l'aumento delle dimensioni del disco e del numero di vCPU. Se un'unità SSD o un disco permanente bilanciato è troppo piccola, potrebbe non fornire le prestazioni richieste da SAP HANA.
Le prestazioni di Hyperdisk non sono influenzate dalle dimensioni del disco. Il suo rendimento è determinato dalle IOPS o dal throughput che esegui il provisioning. Per informazioni sul rendimento di Hyperdisk, consulta Informazioni su Hyperdisk.
Un'unità SSD da 550 GB o un disco permanente bilanciato da 943 GB fornisce un throughput sostenuto di 400 MB al secondo per letture e scritture, che è il valore minimo. Per informazioni generali sulle prestazioni disco permanente, consulta Prestazioni dell'archiviazione a blocchi.
La tabella seguente mostra le dimensioni minime consigliate per i disco permanente SSD (pd-ssd
), i disco permanente bilanciato (pd-balanced
), Hyperdisk Extreme (hyperdisk-extreme
) e Hyperdisk Balanced (hyperdisk-balanced
) per soddisfare i requisiti di prestazioni di SAP HANA in un ambiente di produzione per ogni tipo di macchina Compute Engine certificato per SAP HANA. Le dimensioni minime per i volumi Hyperdisk, che si basano esclusivamente sulla quantità di memoria, sono incluse nella tabella come riferimento.
Per informazioni sulla configurazione dello spazio di archiviazione consigliata per i sistemi SAP HANA in esecuzione su istanze X4, consulta Spazio di archiviazione a blocchi supportato per X4.
Le dimensioni riportate nella tabella seguente presuppongono che tu monti tutti i volumi SAP HANA su singoli dischi.
Disco permanente con carico bilanciato
Se vuoi utilizzare più di un volume di disco permanente con carico bilanciato per ospitare il volume /hana/data
, assicurati di suddividere equamente il valore della dimensione indicato nella colonna "Dimensione /hana/data
(GB)" tra i volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
Dimensioni /hana/data (GB)
|
Dimensioni /hana/log (GB) |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n1-highmem-32 |
599 | 104 | 208 | 32 | 943 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1.155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1716 |
n2-highmem-32 |
527 | 128 | 256 | 32 | 943 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1036 | 432 | 864 | 32 | 2364 |
c3-standard-44 |
647 | 88 | 176 | 32 | 943 |
c3-highmem-44 |
422 | 176 | 352 | 32 | 982 |
c3-highmem-88 |
844 | 352 | 704 | 32 | 1.932 |
c3-highmem-176 |
1.689 | 512 | 1024 | 32 | 3257 |
m1-megamem-96 |
1719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 | 512 | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
Disco permanente SSD
Se vuoi utilizzare più di un volume del disco permanente SSD per ospitare il volume /hana/data
, assicurati di suddividere equamente il valore della dimensione fornito nella colonna "Dimensione /hana/data
(GB)" tra i volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
Dimensioni /hana/data (GB)
|
Dimensioni /hana/log (GB) |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n1-highmem-32 |
249 | 104 | 208 | 32 | 593 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1.155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1716 |
n2-highmem-32 |
307 | 128 | 256 | 32 | 723 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1036 | 432 | 864 | 32 | 2364 |
c3-standard-44 |
254 | 88 | 176 | 32 | 550 |
c3-highmem-44 |
422 | 176 | 352 | 32 | 982 |
c3-highmem-88 |
844 | 352 | 704 | 32 | 1.932 |
c3-highmem-176 |
1.689 | 512 | 1024 | 32 | 3257 |
m1-megamem-96 |
1719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 | 512 | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
Hyperdisk Extreme
Quando utilizzi Hyperdisk Extreme per ospitare i volumi /hana/data
e /hana/log
, assicurati di ospitare i volumi
/hana/shared
e /usr/sap
su dischi permanenti bilanciati distinti. Questo perché i volumi /hana/shared
e
/usr/sap
non richiedono prestazioni elevate come i volumi
di dati e log.
Se vuoi utilizzare più di un volume Hyperdisk Extreme per ospitare il volume /hana/data
, assicurati di suddividere equamente i valori di dimensioni e IOPS forniti nella colonna "Dimensioni e IOPS di /hana/data
(GB)" tra i volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
Dimensioni /hana/data (GB) e IOPS
|
Dimensioni /hana/log (GB) e IOPS |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n2-highmem-80 |
768 GB con 10.000 IOPS | 320 GB con 10.000 IOPS | 640 | 32 | 1760 |
n2-highmem-96 |
921 GB con 10.000 IOPS | 384 GB con 10.000 IOPS | 768 | 32 | 2105 |
n2-highmem-128 |
1036 GB con 10.000 IOPS | 432 GB con 10.000 IOPS | 864 | 32 | 2364 |
c3-highmem-88 |
844 GB con 10.000 IOPS | 352 GB con 10.000 IOPS | 704 | 32 | 1.932 |
c3-highmem-176 |
1.689 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3257 |
c3-highmem-192-metal |
1843 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3411 |
c4-highmem-32 |
297 GB con 10.000 IOPS | 124 GB con 10.000 IOPS | 248 | 32 | 701 |
c4-highmem-48 |
446 GB con 10.000 IOPS | 186 GB con 10.000 IOPS | 372 | 32 | 1036 |
c4-highmem-96 |
892 GB con 10.000 IOPS | 372 GB con 10.000 IOPS | 744 | 32 | 2040 |
c4-highmem-192 |
1785 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3353 |
m1-megamem-96 |
1719 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3287 |
m1-ultramem-80 |
2306 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 GB con 14.130 IOPS | 512 GB con 3000 IOPS | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7065 GB con 14.130 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 GB con 28.184 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 GB con 21.196 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 12.166 |
m3-ultramem-64 |
2342 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 GB con 10.000 IOPS | 488 GB con 10.000 IOPS | 976 | 32 | 2667 |
m3-megamem-128 |
2342 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3910 |
Hyperdisk bilanciato
Per SAP HANA, le IOPS di provisioning supportate minime sono 3000 e il throughput è 400 MBps. Tuttavia, puoi ottimizzare questi valori in base ai tuoi requisiti di prestazioni specifici. Ti consigliamo un valore iniziale di 3000 IOPS e un throughput di 750 MB/s, poiché si tratta dei valori predefiniti utilizzati nei file di configurazione di Terraform che Google Cloud fornisce per il deployment automatico di SAP HANA.
Se vuoi utilizzare più di un volume Hyperdisk bilanciato per ospitare il volume /hana/data
, assicurati di suddividere equamente i valori di dimensioni, IOPS e throughput forniti nella colonna "Dimensioni (GB), IOPS e throughput di /hana/data
" tra i volumi dei dischi di cui esegui il provisioning.
Tipo di VM Compute Engine |
Dimensioni /hana/data (GB), IOPS e velocità in Mbps
|
Dimensioni /hana/log (GB), IOPS e velocità in Mbps
|
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
c3-standard-44 |
211 GB con 10.000 IOPS e un throughput di 400 MB/s | 88 GB con 3000 IOPS e una velocità in uscita di 400 MBps | 176 | 32 | 507 |
c3-highmem-44 |
422 GB con 10.000 IOPS e una velocità effettiva di 400 MBps | 176 GB con 3000 IOPS e una velocità effettiva di 400 MBps | 352 | 32 | 982 |
c3-highmem-88 |
844 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps | 352 GB con 3000 IOPS e velocità effettiva di 400 MBps | 704 | 32 | 1.932 |
c3-highmem-176 |
1.689 GB con 10.000 IOPS e un throughput di 1.200 MBps | 512 GB con 3000 IOPS e una velocità in uscita di 400 MB/s | 1024 | 32 | 3257 |
c3-highmem-192-metal |
1843 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps | 512 GB con 3000 IOPS e una velocità in uscita di 400 MB/s | 1024 | 32 | 3411 |
c4-highmem-32 |
297 GB con 10.000 IOPS e velocità in uscita di 400 MBps | 124 GB con 3000 IOPS e 400 MB/s di throughput | 248 | 32 | 701 |
c4-highmem-48 |
446 GB con 10.000 IOPS e velocità effettiva di 400 MBps | 186 GB con 3000 IOPS e velocità in uscita di 400 MB/s | 372 | 32 | 1036 |
c4-highmem-96 |
892 GB con 10.000 IOPS e velocità effettiva di 800 MBps | 372 GB con 3000 IOPS e velocità in uscita di 400 MBps | 744 | 32 | 2040 |
c4-highmem-192 |
1785 GB con 10.000 IOPS e velocità effettiva di 800 MBps | 512 GB con 3000 IOPS e velocità in uscita di 400 MB/s | 1024 | 32 | 3353 |
m1-megamem-96 |
1719 GB con 8000 IOPS e velocità in uscita di 1000 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 GB con 8000 IOPS e una velocità effettiva di 900 MBps | 480 GB con 3000 IOPS e velocità effettiva di 400 MBps | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 GB con 10.000 IOPS e velocità in uscita di 1.200 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 GB con 15.000 IOPS e velocità effettiva di 1.200 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 GB con 20.000 IOPS e una velocità in uscita di 1.200 MB/s | 512 GB con 3000 IOPS e un throughput di 400 MB/s | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7065 GB 20.000 IOPS e un throughput di 1.200 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 GB con 20.000 IOPS e una velocità effettiva di 1.200 MBps | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 GB con 20.000 IOPS e velocità effettiva di 1.200 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 GB con 10.000 IOPS e una velocità effettiva di 900 MBps | 488 GB con 3000 IOPS e una velocità effettiva di 400 MB/s | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 GB con 10.000 IOPS e un throughput di 1.200 MBps | 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps | 512 GB con 3000 IOPS e 400 MB/s di throughput | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 GB con 10.000 IOPS e velocità in uscita di 900 MBps | 488 GB con 3000 IOPS e velocità in uscita di 400 MB/s | 976 | 32 | 2667 |
m3-megamem-128 |
2342 GB con 10.000 IOPS e un throughput di 1.200 MBps | 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s | 1024 | 32 | 3910 |
Dimensioni dei dischi per il montaggio di tutti i volumi SAP HANA su un singolo disco
Le dimensioni riportate nella tabella seguente presuppongono che tu stia utilizzando un singolo disco per ospitare tutti i seguenti volumi: /hana/data
, /hana/log
, /hana/shared
e /usr/sap
.
Disco permanente con carico bilanciato
Tipo di VM Compute Engine | Dimensioni (GB) |
---|---|
n1-highmem-32 |
943 |
n1-highmem-64 |
1.155 |
n1-highmem-96 |
1716 |
n2-highmem-32 |
943 |
n2-highmem-48 |
1068 |
n2-highmem-64 |
1414 |
n2-highmem-80 |
1760 |
n2-highmem-96 |
2105 |
n2-highmem-128 |
2364 |
c3-standard-44 |
943 |
c3-highmem-44 |
982 |
c3-highmem-88 |
1932 |
c3-highmem-176 |
3257 |
m1-megamem-96 |
3287 |
m1-ultramem-40 |
2626 |
m1-ultramem-80 |
3874 |
m1-ultramem-160 |
6180 |
m2-megamem-416 |
8.633 |
m2-ultramem-208 |
8.633 |
m2-ultramem-416 |
15.660 |
m2-hypermem-416 |
12.166 |
m3-ultramem-32 |
2667 |
m3-ultramem-64 |
3910 |
m3-ultramem-128 |
6252 |
m3-megamem-64 |
2667 |
m3-megamem-128 |
3910 |
Disco permanente SSD
Tipo di VM Compute Engine | Dimensioni (GB) |
---|---|
n1-highmem-32 |
593 |
n1-highmem-64 |
1.155 |
n1-highmem-96 |
1716 |
n2-highmem-32 |
723 |
n2-highmem-48 |
1068 |
n2-highmem-64 |
1414 |
n2-highmem-80 |
1760 |
n2-highmem-96 |
2105 |
n2-highmem-128 |
2364 |
c3-standard-44 |
550 |
c3-highmem-44 |
982 |
c3-highmem-88 |
1932 |
c3-highmem-176 |
3257 |
m1-megamem-96 |
3287 |
m1-ultramem-40 |
2626 |
m1-ultramem-80 |
3874 |
m1-ultramem-160 |
6180 |
m2-megamem-416 |
8.633 |
m2-ultramem-208 |
8.633 |
m2-ultramem-416 |
15.660 |
m2-hypermem-416 |
12.166 |
m3-ultramem-32 |
2667 |
m3-ultramem-64 |
3910 |
m3-ultramem-128 |
6252 |
m3-megamem-64 |
2667 |
m3-megamem-128 |
3910 |
Hyperdisk Extreme
Tipo di VM Compute Engine | Dimensioni (GB) e IOPS |
---|---|
n2-highmem-80 |
1760 GB con 20.000 IOPS |
n2-highmem-96 |
2105 GB con 20.000 IOPS |
n2-highmem-128 |
2364 GB con 20.000 IOPS |
c3-highmem-88 |
1932 GB con 20.000 IOPS |
c3-highmem-176 |
3257 GB con 20.000 IOPS |
c3-highmem-192-metal |
3411 GB con 20.000 IOPS |
c4-highmem-32 |
701 GB con 20.000 IOPS |
c4-highmem-48 |
1036 GB con 20.000 IOPS |
c4-highmem-96 |
2040 GB con 20.000 IOPS |
c4-highmem-192 |
3353 GB con 20.000 IOPS |
m1-megamem-96 |
3287 GB con 20.000 IOPS |
m1-ultramem-80 |
3874 GB con 20.000 IOPS |
m1-ultramem-160 |
6180 GB con 20.000 IOPS |
m2-megamem-416 |
8.633 GB con 24.130 IOPS |
m2-ultramem-208 |
8.633 GB con 24.130 IOPS |
m2-ultramem-416 |
15.660 GB con 38.184 IOPS |
m2-hypermem-416 |
12.166 GB con 31.196 IOPS |
m3-ultramem-64 |
3910 GB con 20.000 IOPS |
m3-ultramem-128 |
6252 GB con 20.000 IOPS |
m3-megamem-64 |
2667 GB con 20.000 IOPS |
m3-megamem-128 |
3910 GB con 20.000 IOPS |
Hyperdisk bilanciato
Tipo di VM Compute Engine | Dimensioni (GB), IOPS e velocità effettiva |
---|---|
c3-standard-44 |
507 GB con 13.000 IOPS e un throughput di 800 MB/s |
c3-highmem-44 |
982 GB con 13.000 IOPS e una velocità effettiva di 800 MB/s |
c3-highmem-88 |
1932 GB con 13.000 IOPS e velocità in uscita di 1600 MBps |
c3-highmem-176 |
3257 GB con 13.000 IOPS e una velocità effettiva di 1600 MB/s |
c3-highmem-192-metal |
3411 GB con 13.000 IOPS e una velocità effettiva di 1600 MB/s |
c4-highmem-32 |
701 GB con 13.000 IOPS e velocità in uscita di 800 MB/s |
c4-highmem-48 |
1036 GB con 13.000 IOPS e velocità in uscita di 800 MBps |
c4-highmem-96 |
2040 GB con 13.000 IOPS e velocità in uscita di 1.200 MBps |
c4-highmem-192 |
3353 GB con 13.000 IOPS e velocità in uscita di 1.200 MBps |
m1-megamem-96 |
3287 GB con 11.000 IOPS e un throughput di 1400 MB/s |
m1-ultramem-40 |
2626 GB con 11.000 IOPS e una velocità effettiva di 1300 MBps |
m1-ultramem-80 |
3874 GB con 13.000 IOPS e velocità in uscita di 1600 MBps |
m1-ultramem-160 |
6180 GB con 18.000 IOPS e velocità effettiva di 1600 MBps |
m2-megamem-416 |
8.633 GB con 23.000 IOPS e 1.600 MBps di throughput |
m2-ultramem-208 |
8.633 GB con 23.000 IOPS e 1.600 MBps di throughput |
m2-ultramem-416 |
15.660 GB con 23.000 IOPS e velocità in uscita di 1.600 MBps |
m2-hypermem-416 |
12.166 GB con 23.000 IOPS e una velocità in uscita di 1.600 MB/s |
m3-ultramem-32 |
2667 GB con 13.000 IOPS e una velocità effettiva di 1300 MB/s |
m3-ultramem-64 |
3910 GB con 13.000 IOPS e velocità in uscita di 1600 MBps |
m3-ultramem-128 |
6252 GB con 13.000 IOPS e velocità effettiva di 1600 MBps |
m3-megamem-64 |
2667 GB con 13.000 IOPS e una velocità in uscita di 1300 MB/s |
m3-megamem-128 |
3910 GB con 13.000 IOPS e velocità in uscita di 1600 MBps |
Determinare le dimensioni del disco permanente o di Hyperdisk
Calcola la quantità di spazio di archiviazione su disco permanente di cui hai bisogno per i volumi SAP HANA in base alla quantità di memoria contenuta nel tipo di macchina Compute Engine selezionato.
Le seguenti indicazioni sulle dimensioni dei dischi si riferiscono alle dimensioni minime consigliate da Google Cloud per i tuoi implementazioni. Queste indicazioni, pur superando i requisiti minimi di SAP, sono progettate per bilanciare i requisiti di archiviazione del sistema SAP HANA, i requisiti di prestazioni dei dischi e il costo totale di proprietà. Puoi aumentare le dimensioni dei dischi fino al limite supportato dai tipi di dischi sottostanti. Per informazioni sulle dimensioni minime richieste dei dischi, consulta Dimensioni minime per i dischi permanenti basati su SSD.
Requisiti relativi alle dimensioni dei dischi permanenti per i sistemi di scalabilità verticale
Per i sistemi SAP HANA scalabili verticalmente, utilizza le seguenti formule per ogni volume:
/hana/data
: 1,2 x memoria/hana/log
: 0,5 x memoria o 512 GB, a seconda del valore più piccolo/hana/shared
: 1 volta la memoria o 1024 GB, a seconda del valore più piccolo/usr/sap
: 32 GB/hanabackup
: memoria 2x, allocazione facoltativa
Requisiti relativi alle dimensioni dei dischi permanenti per i sistemi scale-out
Per i sistemi SAP HANA con possibilità di scale out, utilizza la stessa formula dei sistemi SAP HANA con possibilità di scale up per i volumi /hana/data
, /hana/log
e /usr/sap
. Per il volume /hana/shared
, calcola le dimensioni del disco permanente o Hyperdisk in base al numero di host worker nel tuo deployment.
Per ogni quattro host worker, aumenta la dimensione del disco di 1 volta la memoria o di 1 TB,
a seconda del valore più piccolo. Ad esempio:
- Da 1 a 4 host worker: 1 volta la memoria o 1 TB, a seconda del valore più piccolo
- Da 5 a 8 host worker: il doppio della memoria o 2 TB, a seconda del valore più piccolo
- Da 9 a 12 host worker: 3 volte la memoria o 3 TB, a seconda del valore più piccolo
- Da 13 a 16 host worker: 4 volte la memoria o 4 TB, a seconda del valore più piccolo
Per determinare i requisiti di quota di archiviazione complessiva per i sistemi SAP HANA scalabili orizzontalmente,
devi sommare le dimensioni dei dischi per ogni tipo di disco utilizzato con tutti
gli host del sistema scalabile orizzontalmente. Ad esempio, se hai inserito /hana/data
e /hana/log
su dischi permanenti pd-ssd
, ma /hana/shared
e /usr/sap
su dischi permanenti pd-balanced
, hai bisogno di totali separati per pd-ssd
e pd-balanced
per richiedere quote separate.
Per un sistema SAP HANA scalabile orizzontalmente con failover automatico dell'host, devi solo calcolare le dimensioni del disco permanente per gli host master e worker. Gli host in standby non hanno i propri volumi /hana/data
, /hana/log
e /usr/sap
. In caso di guasto, il failover automatico di SAP HANA smonta i volumi /hana/data
, /hana/log
e
/usr/sap
dall'host guasto e li monta su un host di riserva. I volumi /hana/shared
e /hanabackup
per un host di riserva sono montati su una soluzione NFS di cui è stato eseguito il deployment separatamente.
Alloca spazio di archiviazione su disco permanente aggiuntivo
Seleziona una dimensione del disco permanente o Hyperdisk non inferiore a quella minima indicata per il tipo di disco permanente o Hyperdisk in Dimensioni minime per i volumi Hyperdisk e Persistent Disk basati su SSD.
Se utilizzi dischi permanenti SSD o bilanciati, la dimensione minima potrebbe essere determinata dai requisiti di prestazioni di SAP HANA anziché dai requisiti di archiviazione di SAP HANA.
Ad esempio, se esegui SAP HANA su un'istanza VM n2-highmem-32
con 256 GB di memoria, il requisito di spazio di archiviazione totale per i volumi SAP HANA è di 723 GB: 307 GB per il volume di dati, 128 GB per il volume dei log, 256 GB per il volume condiviso e 32 GB per il volume /usr/sap
.
Tuttavia, se utilizzi un disco persistente bilanciato, le dimensioni minime richieste sono 943 GB, dove i 220 GB aggiuntivi vengono allocati al volume di dati per soddisfare le prestazioni richieste. Pertanto, se utilizzi un'istanza VM n2-highmem-32
con dischi permanenti bilanciati per eseguire SAP HANA, devi eseguire il provisioning di uno spazio di archiviazione su disco permanente di almeno 943 GB.
quindi devi dimensionare il disco permanente in modo che abbia una dimensione di almeno 943 GB. La previsione aggiuntiva di 220 GB viene applicata al volume di dati per fornire le prestazioni richieste.
Applica eventuali spazi di archiviazione su disco permanente aggiuntivi al volume /hana/data
.
Per informazioni di SAP sulle dimensioni di SAP HANA, consulta Dimensionamento di SAP HANA.
Prestazioni Hyperdisk
Hyperdisk offre opzioni di IOPS e throughput massimi superiori per i volumi /hana/log
e /hana/data
rispetto agli altri dischi permanenti basati su SSD. Per saperne di più sul provisioning delle opzioni di IOPS e throughput per HyperDisk, consulta Informazioni sul provisioning di IOPS e throughput per HyperDisk.
A differenza dei dischi permanenti basati su SSD, quando utilizzi Hyperdisk con SAP HANA non devi preoccuparti delle prestazioni quando ne imposti le dimensioni. Le dimensioni di Hyperdisk si basano unicamente sui requisiti di spazio di archiviazione di SAP HANA. Per ulteriori informazioni sul dimensionamento dei dischi permanenti o di HyperDisk, consulta la sezione Determinare le dimensioni del disco permanente.
Quando utilizzi Hyperdisk con SAP HANA, per ottenere le migliori prestazioni, consigliamo di aggiornare le proprietà di sistema SAP HANA come segue:
- Aggiorna il file
global.ini
:- Nella sezione
fileio
, impostanum_completion_queues = 12
- Nella sezione
fileio
, impostanum_submit_queues = 12
- Nella sezione
- Aggiorna il file
indexserver.ini
:- Nella sezione
parallel
, impostatables_preloaded_in_parallel = 32
- Nella sezione
global
, impostaload_table_numa_aware = true
- Nella sezione
Quando crei un volume Hyperdisk Extreme, il numero di IOPS di cui esegui il provisioning determina la sua velocità effettiva massima. Puoi utilizzare la seguente formula come punto di partenza. Fornisce una velocità effettiva minima di 2500 MBps (256 KB per IOPS * 10.000 IOPS) e più per tipi di macchine più grandi con dischi più grandi.
- Quando utilizzi il deployment predefinito con dischi separati per
/hana/log
e/hana/data
:- IOPS per il disco di dati:
maximum(10,000, size of data disk in GB * 2)
- IOPS per il disco dei log:
maximum(10,000, size of log disk in GB * 2)
- IOPS per il disco di dati:
- Quando viene utilizzato un singolo disco per
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
:- IOPS per il disco:
maximum(10,000, size of data disk GB * 2) + maximum(10,000, size of log disk in GB * 2)
- IOPS per il disco:
Il numero massimo di IOPS che puoi eseguire il provisioning può essere diverso a seconda del tipo di macchina in uso. Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme, nonché le IOPS e il throughput massimi che Hyperdisk Extreme può fornire con ogni tipo di macchina, consulta Supporto dei tipi di macchine.
Quando crei un volume Hyperdisk bilanciato, puoi eseguire il provisioning delle IOPS e della velocità effettiva per soddisfare le esigenze di prestazioni del tuo carico di lavoro, tenendo conto delle regole per il provisioning delle IOPS e il provisioning della velocità effettiva. Per SAP HANA, il numero minimo di IOPS di cui è stato eseguito il provisioning supportato è 3000 e il throughput è 400 MBps.
Dischi permanenti e Hyperdisk di cui è stato eseguito il deployment tramite gli script di automazione del deployment
Quando esegui il deployment di un sistema SAP HANA utilizzando le configurazioni Terraform fornite da Google Cloud, lo script di deployment alloca i dischi o gli Hyperdisk permanenti per i volumi SAP come segue:
Per impostazione predefinita, vengono implementati dischi separati per ciascuna delle seguenti directory:
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
.Se vuoi, puoi scegliere di implementare un layout a disco singolo in cui un singolo disco permanente o Hyperdisk ospita queste directory SAP. Inoltre, per i deployment scalabili di SAP HANA, la directory
/hana/shared
è ospitata da una soluzione NFS.Facoltativamente, un disco per la directory
/hanabackup
.
L'esempio seguente mostra come Terraform mappa i volumi per SAP HANA su una VM n2-highmem-32
Compute Engine con 256 GB di memoria.
hana-ssd-example:~ # lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data vg_hana_data -wi-ao---- 308.00g log vg_hana_log -wi-ao---- 128.00g shared vg_hana_shared -wi-ao---- 256.00g usrsap vg_hana_usrsap -wi-ao---- 32.00g backup vg_hanabackup -wi-ao---- 512.00g
Le dimensioni dei volumi per lo stesso tipo di macchina potrebbero essere leggermente diverse da quelle mostrate in questo esempio.
Quando utilizzi i modelli di Deployment Manager forniti da Google Cloud per SAP HANA o quando scegli di eseguire il deployment di un layout a disco singolo utilizzando le configurazioni Terraform, lo script di deployment mappa le directory SAP HANA /hana/data
, /hana/log
, /usr/sap
e /hana/shared
ciascuna al proprio volume logico per ridimensionarle facilmente e le mappa al disco permanente basato su SSD o Hyperdisk in un unico gruppo di volumi.
Terraform o Deployment Manager mappa la directory /hanabackup
a un volume logico in un gruppo di volumi separato, che poi mappa a un disco permanente bilanciato (pd-balanced
).
Spazio di archiviazione su disco permanente facoltativo per i backup
Quando memorizzi i backup di SAP HANA su un disco, ti consigliamo di utilizzare un disco permanente bilanciato (pd-balanced
).
Se vuoi ridurre i costi, puoi utilizzare un disco permanente HDD standard (pd-standard
). Tuttavia, utilizza un disco permanente bilanciato quando è necessario un throughput o una concorrenza superiori.
Le dimensioni del volume di backup di SAP HANA sono progettate per fornire un throughput ottimale di base e di picco, nonché la possibilità di contenere più set di backup. La presenza di più set di backup nel volume di backup semplifica il recupero del database, se necessario.
Per rendere disponibili i backup di SAP HANA come risorsa di regione per il ripristino di emergenza, puoi utilizzare gli snapshot disco permanente di Compute Engine. Puoi pianificare gli snapshot per eseguire regolarmente e automaticamente il backup del tuo disco permanente. Per ulteriori informazioni, consulta Snapshot dei dischi permanenti.
Se utilizzi il tiering dinamico SAP HANA, lo spazio di archiviazione di backup deve essere sufficientemente grande da contenere sia i dati in memoria sia quelli gestiti su disco dal server di tiering dinamico.
Puoi utilizzare altri meccanismi per archiviare i backup di SAP HANA. Se utilizzi la funzionalità Backint dell'agente per SAP di Google Cloud, puoi eseguire il backup di SAP HANA direttamente in un bucket Cloud Storage, il che rende facoltativo l'utilizzo di un disco permanente per l'archiviazione dei backup.
Tiering dinamico SAP HANA
Il tiering dinamico SAP HANA è certificato da SAP per l'utilizzo in ambienti di produzione su Google Cloud. Il tiering dinamico SAP HANA estende lo spazio di archiviazione dei dati SAP HANA memorizzando i dati a cui si accede raramente su disco anziché in memoria.
Per ulteriori informazioni, consulta Livelli dinamici SAP HANA su Google Cloud.
Opzione Fast Restart di SAP HANA
Per SAP HANA 2.0 SP04 e versioni successive, Google Cloud consiglia vivamente l'opzione di riavvio rapido di SAP HANA.
Questa opzione viene attivata automaticamente se esegui il deployment di SAP HANA utilizzando il modulo Terraform sap_hana
o sap_hana_ha
di Google Cloud, versione 202309280828
o successive. Per informazioni su come attivare manualmente il riavvio rapido di SAP HANA, consulta
Attivare il riavvio rapido di SAP HANA.
Il riavvio rapido di SAP HANA riduce il tempo di riavvio nel caso in cui SAP HANA si arresti, ma il sistema operativo rimanga in esecuzione. Per ridurre il tempo di riavvio, SAP HANA sfrutta la funzionalità di memoria persistente SAP HANA per preservare i frammenti di dati MAIN delle tabelle del magazzino delle colonne nella DRAM mappata al file system tmpfs
.
Inoltre, nelle VM delle famiglie M2 e M3 dei tipi di macchine con memoria ottimizzata di Compute Engine, il riavvio rapido di SAP HANA migliora il tempo di recupero se si verificano errori non correggibili in memoria. Per ulteriori informazioni, consulta Recupero degli errori di memoria con il riavvio rapido nelle VM Compute Engine.
Impostazioni del sistema operativo richieste per il riavvio rapido di SAP HANA
Per utilizzare il riavvio rapido di SAP HANA, il sistema operativo deve essere ottimizzato come richiesto da SAP.
Se utilizzi i file di configurazione Terraform o i modelli Deployment Manager forniti da Google Cloud, le impostazioni del kernel vengono impostate automaticamente.
Se non utilizzi i file di deployment forniti da Google Cloud, SAP fornisce indicazioni per la configurazione dei sistemi operativi RHEL e SLES per SAP HANA. Per il riavvio rapido di SAP HANA, presta particolare attenzione all'impostazione corretta di numa_balancing
e transparent_hugepage
.
Se utilizzi RHEL, utilizza il profilo ottimizzato sap-hana
, se disponibile.
Per la procedura di configurazione, consulta:
- Nota SAP 2292690 - Database SAP HANA: impostazioni del sistema operativo consigliate per RHEL 7
- Nota SAP 2777782 - Database SAP HANA: impostazioni del sistema operativo consigliate per RHEL 8
- Nota SAP 3108302 - Database SAP HANA: impostazioni del sistema operativo consigliate per RHEL 9
Se utilizzi SLES, utilizza lo strumento saptune
di SUSE per applicare la configurazione richiesta. Per applicare tutte le impostazioni SAP HANA consigliate, inclusi entrambi i parametri del kernel precedenti, specifica il seguente comando saptune
:
saptune solution apply HANA
Per ulteriori informazioni sulla configurazione di SLES per SAP HANA, consulta:
- Nota SAP 2205917 - Database SAP HANA: impostazioni del sistema operativo consigliate per SLES 12 / SLES per applicazioni SAP 12
- Nota SAP 2684254 - DB SAP HANA: impostazioni del sistema operativo consigliate per SLES 15 / SLES per applicazioni SAP 15
Ripristino degli errori di memoria con il riavvio rapido sulle VM di Compute Engine
L'attivazione del riavvio rapido di SAP HANA sulle VM delle famiglie M2 e M3 di tipi di macchine con memoria ottimizzata di Compute Engine riduce il tempo necessario a SAP HANA per recuperare da errori di memoria non correggibili.
Sfruttando le funzionalità dei processori Intel, i tipi di macchine M2 e M3 possono continuare a funzionare quando si verificano errori non correggibili nel sottosistema di memoria. Se il riavvio rapido di SAP HANA è abilitato quando si verifica l'errore di memoria, il processo SAP HANA interessato si riavvia, ma non è necessario ricaricare l'intero database, ma solo il blocco del file interessato.
Tipi di macchine che supportano il recupero da errori di memoria
I seguenti tipi di macchine Compute Engine supportano il recupero degli errori di memoria:
m3-ultramem-32
m3-ultramem-64
m3-ultramem-128
m3-megamem-64
m3-megamem-128
m2-ultramem-208
m2-ultramem-416
m2-megamem-416
m2-hypermem-416
Sistemi operativi richiesti per il recupero degli errori di memoria
Con le patch del kernel richieste, i seguenti sistemi operativi supportano il recupero degli errori di memoria con il riavvio rapido di SAP HANA:
- SUSE Linux Enterprise Server (SLES) for SAP, 12 SP3 o versioni successive.
- Incluso nelle immagini pubbliche di Compute Engine con data di compilazione v202103* o successiva.
- Se devi applicare le patch del kernel più recenti a un deployment esistente, segui la procedura di aggiornamento standard. Ad esempio,
esegui i seguenti comandi:
- sudo zypper refresh
- sudo zypper update
- Red Hat Enterprise Linux (RHEL) for SAP, 8.4 o versioni successive.
Opzioni del file server
Le opzioni di file server per SAP HANA su Google Cloud includono Filestore e NetApp Cloud Volumes Service per Google Cloud.
Per ulteriori informazioni su tutte le opzioni di file server per SAP su Google Cloud, consulta Soluzioni di condivisione dei file per SAP su Google Cloud.
Filestore
Per il volume /hana/shared
in una configurazione di scalabilità in una singola zona, consigliamo di utilizzare il livello di servizio Filestore Basic, poiché è progettato per le risorse zonali. Per gli scenari in cui è necessaria una maggiore resilienza, puoi utilizzare Filestore Enterprise. Per ulteriori informazioni, consulta Componenti di un sistema SAP HANA scalabile su Google Cloud.
Servizio NetApp Cloud Volumes per Google Cloud
NetApp Cloud Volumes Service per Google Cloud è una piattaforma di servizi dati cloud-native completamente gestita che puoi utilizzare per creare un file system NFS per i sistemi SAP HANA di scalabilità verticale su tutti i tipi di istanze Compute Engine certificati per SAP HANA. Per informazioni sull'utilizzo di NetApp Cloud Volumes Service per Google Cloud con il tuo deployment di SAP HANA, consulta Informazioni su NetApp Cloud Volumes Service per Google Cloud.
Identificazione utente e accesso alle risorse
Quando pianifichi la sicurezza per un deployment SAP su Google Cloud, devi identificare:
- Gli account utente e le applicazioni che devono accedere alle risorse Google Cloud nel tuo progetto Google Cloud
- Le risorse Google Cloud specifiche del progetto a cui ogni utente deve accedere
Devi aggiungere ogni utente al progetto aggiungendo il relativo ID Account Google come principale. Per un programma di applicazione che utilizza le risorse Google Cloud, crei un account di servizio, che fornisce un'identità utente per il programma all'interno del tuo progetto.
Le VM Compute Engine hanno un proprio account di servizio. Tutti i programmi che vengono eseguiti su una VM possono utilizzare l'account di servizio della VM, a condizione che l'account di servizio della VM disponga delle autorizzazioni delle risorse di cui il programma ha bisogno.
Dopo aver identificato le risorse Google Cloud di cui ogni utente deve poter usufruire, concedi a ogni utente l'autorizzazione per utilizzare ogni risorsa assegnandogli ruoli specifici per le risorse. Esamina i ruoli predefiniti forniti dall'IAM per ogni risorsa e assegna a ogni utente ruoli che forniscono autorizzazioni sufficienti per completare le attività o le funzioni dell'utente e non di più.
Se hai bisogno di un controllo più granulare o restrittivo sulle autorizzazioni rispetto a quello fornito dai ruoli IAM predefiniti, puoi creare ruoli personalizzati.
Per saperne di più sui ruoli IAM di cui hanno bisogno i programmi SAP su Google Cloud, consulta Gestione di identità e accessi per i programmi SAP su Google Cloud.
Per una panoramica della gestione di identità e accessi per SAP su Google Cloud, consulta la Panoramica della gestione di identità e accessi per SAP su Google Cloud.
Tipi di macchine bare metal per SAP HANA
Questa sezione fornisce informazioni sull'esecuzione di SAP HANA sui tipi di macchine bare metal forniti da Compute Engine, tra cui:
Tipi di macchine bare metal C3: la serie C3 di macchine per uso generico include tipi di macchine bare metal.
- Per informazioni sui tipi di macchine bare metal C3 certificati da SAP per l'utilizzo con SAP HANA, consulta Tipi di macchine bare metal C3 per uso generico.
- Per informazioni sulle versioni del sistema operativo che puoi utilizzare con i tipi di macchine bare metal C3 per eseguire i carichi di lavoro SAP HANA, consulta Sistemi operativi certificati per SAP HANA.
- Per informazioni sullo archiviazione a blocchi minimo necessario per eseguire SAP HANA sui tipi di macchine bare metal C3, consulta Dimensioni minime per i volumi Hyperdisk e Persistent Disk basati su SSD.
- Per saperne di più sulla serie di macchine C3, consulta Serie di macchine C3.
X4: la quarta generazione di tipi di macchine ottimizzate per la memoria offerta da Compute Engine. Queste macchine sono progettate per supportare principalmente i carichi di lavoro SAP che richiedono fino a 32 TB di memoria.
- Per informazioni sui tipi di macchine X4 certificati da SAP per l'uso con SAP HANA, consulta Tipi di macchine bare metal X4 ottimizzate per la memoria.
- Per informazioni sulle versioni del sistema operativo che puoi utilizzare con i tipi di macchine X4 per eseguire i carichi di lavoro SAP HANA, consulta Sistemi operativi certificati per SAP HANA.
- Per informazioni sullo spazio di archiviazione a blocchi supportato per l'esecuzione di SAP HANA sui tipi di macchine X4, consulta Spazio di archiviazione a blocchi supportato per X4.
- Per saperne di più sulla serie di macchine X4, consulta Serie di macchine X4.
Archiviazione a blocchi supportata per X4
Per fornire archiviazione a blocchi per l'esecuzione di carichi di lavoro SAP HANA su macchine X4, puoi utilizzare i volumi Hyperdisk Extreme o Hyperdisk Balanced.
Per informazioni sulle configurazioni di archiviazione consigliate da Google Cloud per le istanze X4, consulta le seguenti sezioni:
- Configurazione ottimizzata per i costi
- Configurazione ottimizzata per le prestazioni
- Configurazione flessibile delle prestazioni
Configurazione ottimizzata in termini di costi
La tabella seguente mostra una configurazione di archiviazione ottimizzata in termini di costi per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni riportate nella tabella seguente presuppongono che tu monti tutti i volumi SAP HANA su singoli dischi.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensioni (GB), IOPS e throughput di /hana/log |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | |||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps | 16.384 GB con 16.384 IOPS e una velocità effettiva di 2.400 Mbps |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps | 24.576 GB con 24.576 IOPS e una velocità effettiva di 2.400 Mbps |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps | 32.768 GB con 32.768 IOPS e una velocità effettiva di 2400 Mbps |
Configurazione ottimizzata per le prestazioni
La tabella seguente mostra una configurazione dello spazio di archiviazione ottimizzata per le prestazioni per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni riportate nella tabella seguente presuppongono che tu monti tutti i volumi SAP HANA su singoli dischi.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensioni (GB), IOPS e throughput di /hana/log |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | Hyperdisk Extreme | ||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps | 16.384 GB con 32.768 IOPS e una velocità effettiva di 5.000 Mbps |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mb/s | 24.576 GB con 49.152 IOPS e una velocità effettiva di 5.000 Mb/s |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps | 32.768 GB con 65.536 IOPS e una velocità in uscita di 5.000 Mbps |
Configurazione flessibile delle prestazioni
La tabella seguente mostra una configurazione di archiviazione che offre prestazioni flessibili per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni riportate nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA su singoli dischi.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensioni (GB), IOPS e throughput di /hana/log |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | Hyperdisk Extreme | ||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2.500 Mbps | 16.384 GB con 32.768 IOPS e una velocità effettiva di 5.000 Mbps |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2.500 Mbps | 24.576 GB con 49.152 IOPS e una velocità effettiva di 5.000 Mbps |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e una velocità effettiva di 2.500 Mbps | 32.768 GB con 65.536 IOPS e una velocità in uscita di 5.000 Mbps |
Automazione del deployment
Per eseguire SAP HANA, puoi eseguire il deployment delle istanze bare metal utilizzando le configurazioni Terraform fornite da Google Cloud. Queste configurazioni sono progettate per eseguire per impostazione predefinita le seguenti operazioni:
- Esegui il deployment dei volumi Hyperdisk Extreme per ospitare i volumi di dati e log SAP HANA. Per eseguire il deployment di volumi Hyperdisk bilanciati, utilizza invece
l'argomento Terraform
disk_type
. - Attiva l'opzione di riavvio rapido SAP HANA.
- Se ospiti il volume di backup di SAP HANA su un disco, per impostazione predefinita queste configurazioni Terraform eseguono il deployment di un volume Hyperdisk bilanciato. Questo deployment del disco è determinato dall'argomento Terraform
backup_disk_type
.
Per informazioni sulle configurazioni Terraform fornite da Google Cloud per il deployment di SAP HANA, consulta Soluzioni SAP supportate.
Attività di post-deployment
Dopo aver eseguito il deployment di un'istanza bare metal per eseguire SAP HANA, ti consigliamo di svolgere quanto segue:
- Assicurati che sia installata la versione 3.6 (la più recente) dell'agente di Google Cloud per SAP. Per informazioni su come installare l'agente, consulta Installare e configurare l'agente di Google Cloud per SAP su un'istanza VM Compute Engine. Per informazioni su come eseguire l'aggiornamento alla versione più recente, consulta Aggiornare l'agente di Google Cloud per SAP.
- Nelle istanze X4, ottimizza la configurazione del sistema operativo per supportare al meglio i workload SAP HANA. Puoi farlo utilizzando l'agente di Google Cloud per SAP. Per ulteriori informazioni, consulta la pagina Configurare il sistema operativo guest sulle istanze bare metal.
- Valuta il tuo carico di lavoro SAP utilizzando Workload Manager, un servizio di convalida basato su regole che ti consente di eseguire la scansione dei carichi di lavoro e rilevare deviazioni da standard, regole e best practice prescritti da SAP, Google Cloud e dai fornitori di sistemi operativi. Per informazioni su come valutare il tuo carico di lavoro SAP, consulta Creare ed eseguire una valutazione. Per informazioni sulle valutazioni supportate per i carichi di lavoro SAP, consulta le best practice di Workload Manager per SAP.
Hyperthreading
L'hyperthreading è abilitato per impostazione predefinita ed è l'impostazione consigliata per tutti i tipi di macchine Compute Engine.
Per prestazioni ottimali di SAP HANA su istanze di calcolo con più di 1000 vCPU, ti consigliamo vivamente di utilizzare SAP HANA 2.0 SPS7 revisione 76 o successiva.
Se utilizzi una versione precedente di SAP HANA con un carico di lavoro OLTP su istanze di calcolo con oltre 1000 vCPU, la disattivazione dell'hyperthreading potrebbe avere un vantaggio marginale in termini di prestazioni. Ti consigliamo di testarlo durante i test di carico. Per informazioni su come disattivare l'hyperthreading per l'istanza X4 utilizzando l'agente di Google Cloud per SAP, consulta Disattivare l'hyperthreading per un'istanza X4.
Considerazioni sui prezzi e sulle quote per SAP HANA
Sei responsabile dei costi sostenuti per l'utilizzo delle risorse create seguendo questa guida al deployment. Utilizza il Calcolatore prezzi per stimare i costi effettivi.
Quote
SAP HANA richiede più CPU e memoria di molti carichi di lavoro su Google Cloud. Se hai un nuovo account Google Cloud o se non hai richiesto un aumento della quota, devi farlo per eseguire il deployment di SAP HANA.
La tabella seguente mostra i valori di quota per i sistemi SAP HANA con un solo host e scalabilità verticale in base al tipo di istanza VM.
Per un sistema SAP HANA scalabile orizzontalmente o più sistemi scalabili verticalmente, devi includere gli importi totali delle risorse per tutti i sistemi. Per indicazioni su come determinare i requisiti di archiviazione per i sistemi scalabili, vedi Determinare le dimensioni del disco permanente.
Visualizza la quota esistente e confrontala con i requisiti delle risorse (CPU, memoria e spazio di archiviazione) per capire quale aumento richiedere. A questo punto, puoi richiedere un aumento del limite di quota.
Sebbene il disco permanente con carico estremo (pd-extreme
) sia ancora certificato per l'utilizzo con SAP HANA, ti consigliamo di utilizzare Hyperdisk Extreme, che offre prestazioni superiori. Se vuoi utilizzare dischi permanenti Extreme, devi eseguire il provisioning utilizzando le dimensioni Hyperdisk Extreme.
Disco permanente con carico bilanciato
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 943 |
n1-highmem-64 |
64 | 416 | 1.155 |
n1-highmem-96 |
96 | 624 | 1.716 |
n2-highmem-32 |
32 | 256 | 943 |
n2-highmem-48 |
48 | 384 | 1.068 |
n2-highmem-64 |
64 | 512 | 1.414 |
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2.105 |
n2-highmem-128 |
128 | 864 | 2.364 |
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1.932 |
c3-highmem-176 |
176 | 1408 | 3257 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1.922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6.180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
Disco permanente SSD
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 593 |
n1-highmem-64 |
64 | 416 | 1.155 |
n1-highmem-96 |
96 | 624 | 1.716 |
n2-highmem-32 |
32 | 256 | 723 |
n2-highmem-48 |
48 | 384 | 1.068 |
n2-highmem-64 |
64 | 512 | 1.414 |
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2.105 |
n2-highmem-128 |
128 | 864 | 2.364 |
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1.932 |
c3-highmem-176 |
176 | 1408 | 3257 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1.922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6.180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
Hyperdisk Extreme
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2.105 |
n2-highmem-128 |
128 | 864 | 2.364 |
c3-highmem-88 |
88 | 704 | 1.932 |
c3-highmem-176 |
176 | 1408 | 3257 |
c3-highmem-192-metal |
192 | 1.536 | 3411 |
c4-highmem-32 |
32 | 248 | 701 |
c4-highmem-48 |
48 | 372 | 1036 |
c4-highmem-96 |
96 | 744 | 2040 |
c4-highmem-192 |
192 | 1488 | 3353 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-80 |
80 | 1.922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6.180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
x4-megamem-960-metal |
960 | 16.384 | 17.952 |
x4-megamem-1440-metal |
1440 | 24.576 | 26.144 |
x4-megamem-1920-metal |
1920 | 32.768 | 34.336 |
Hyperdisk bilanciato
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1.932 |
c3-highmem-176 |
176 | 1408 | 3257 |
c3-highmem-192-metal |
192 | 1.536 | 3411 |
c4-highmem-32 |
32 | 248 | 701 |
c4-highmem-48 |
48 | 372 | 1036 |
c4-highmem-96 |
96 | 744 | 2040 |
c4-highmem-192 |
192 | 1488 | 3353 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1.922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6.180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
x4-megamem-960-metal |
960 | 16.384 | 17.952 |
x4-megamem-1440-metal |
1440 | 24.576 | 26.144 |
x4-megamem-1920-metal |
1920 | 32.768 | 34.336 |
Disco permanente standard
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 448 |
n1-highmem-64 |
64 | 416 | 864 |
n1-highmem-96 |
96 | 624 | 1.280 |
n2-highmem-32 |
32 | 256 | 544 |
n2-highmem-48 |
48 | 384 | 800 |
n2-highmem-64 |
64 | 512 | 1.056 |
n2-highmem-80 |
80 | 640 | 1.312 |
n2-highmem-96 |
96 | 768 | 1.568 |
n2-highmem-128 |
128 | 864 | 1.760 |
m1-megamem-96 |
96 | 1433 | 2898 |
m1-ultramem-40 |
40 | 961 | 1.954 |
m1-ultramem-80 |
80 | 1.922 | 3876 |
m1-ultramem-160 |
160 | 3844 | 7.720 |
m2-megamem-416 |
416 | 5888 | 11.832 |
m2-ultramem-208 |
208 | 5888 | 11.832 |
m2-ultramem-416 |
416 | 11.766 | 23.564 |
m2-hypermem-416 |
416 | 8.832 | 17.696 |
Licenze
BYOL39;esecuzione di SAP HANA su Google Cloud richiede la Bring Your Own License.
Per ulteriori informazioni di SAP sulla gestione delle licenze SAP HANA, consulta License Keys for the SAP HANA Database.
Architetture di deployment
Su Google Cloud, puoi eseguire il deployment di SAP HANA in architetture scalabili verticalmente e scalabili orizzontalmente.
Architettura di scalabilità verticale
Il seguente diagramma mostra l'architettura di scalabilità. Nel diagramma, tieni presente sia il deployment su Google Cloud sia il layout del disco. Puoi utilizzare Cloud Storage per eseguire il backup dei backup locali disponibili in /hanabackup
. Le dimensioni di questo montaggio devono essere uguali o superiori a quelle del montaggio dei dati.
Su Google Cloud, un'architettura SAP HANA a singolo host e scalabile può includere i seguenti componenti:
Un'istanza Compute Engine per il database SAP HANA con una larghezza di banda di rete fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionate che utilizzano networking ad alta larghezza di banda. Per informazioni sui tipi di macchine certificati per l'utilizzo con SAP HANA, consulta Tipi di macchine certificate per SAP HANA.
Volumi Hyperdisk o disco permanente Compute Engine basati su SSD, come segue:
Un disco per ciascuna delle seguenti directory:
/hana/data
,/hana/log
/hana/shared
e/usr/sap
. Per informazioni sui consigli per i dischi per SAP HANA, consulta Archiviazione su disco permanente. Per prestazioni ottimali di SAP, le dimensioni dei volumi di Persistent Disk o Hyperdisk devono essere impostate in base alla tabella in Dimensioni minime per i volumi di Persistent Disk e Hyperdisk basati su SSD.Un disco permanente bilanciato per il disco di avvio.
Facoltativamente, un disco per il backup del database SAP HANA.
Regole firewall di Compute Engine che limitano l'accesso alle istanze.
Agente di Google Cloud per SAP. Dalla versione 2.0, puoi configurare questo agente per raccogliere le metriche di monitoraggio di SAP HANA, che ti consentono di monitorare le tue istanze SAP HANA. Dalla versione 3.0, puoi anche utilizzare la funzionalità Backint per archiviare i backup di SAP HANA direttamente nel bucket Cloud Storage e recuperarli in base alle esigenze.
Una sottorete facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud che preferisci. Il database SAP HANA e le altre istanze Compute Engine vengono avviate all'interno di questa subnet. Puoi utilizzare una sottorete esistente per SAP HANA.
Componenti facoltativi:
- SAP HANA Cockpit o SAP HANA Studio su una piccola VM Compute Engine.
Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:
Configura l'accesso privato Google in modo che la VM possa accedere alle API Google Cloud.
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, consulta Utilizzo di IAP per l'inoltro TCP.
Utilizza la VM Compute Engine configurata come bastion host per accedere alla rete internet pubblica.
Architetture di scale out
L'architettura di scalabilità è composta da un host master, da un numero di host worker e, facoltativamente, da uno o più host di riserva. Gli host sono interconnessi tramite una rete che supporta l'invio di dati tra host a velocità fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionate utilizzando la networking ad alta larghezza di banda.
Con l'aumento della domanda di carichi di lavoro, in particolare quando si utilizza l'elaborazione analitica online (OLAP), un'architettura di scalabilità fuori da un unico host può distribuire il carico su tutti gli host.
Il seguente diagramma mostra un'architettura di scalabilità per SAP HANA su Google Cloud:
Gli host di riserva supportano la soluzione di recupero degli errori del failover automatico dell'host SAP HANA. Per ulteriori informazioni sul failover automatico dell'host su Google Cloud, consulta Failover automatico dell'host SAP HANA su Google Cloud.
Il seguente diagramma mostra un'architettura di scalabilità con failover automatico dell'host su Google Cloud.
Strutture dei dischi per i sistemi SAP HANA scalabili su Google Cloud
Ad eccezione degli host di riserva, ogni host ha i propri volumi /hana/data
, /hana/log
e, solitamente, /usr/sap
su dischi permanenti o Hyperdisk basati su SSD, che forniscono servizi IO e IOPS elevati e coerenti. L'host master funge anche da NFS master per i volumi /hana/shared
e /hanabackup
e questo NFS master è montato su ogni host worker e standby.
Per un host di riserva, i volumi /hana/data
e /hana/log
non vengono montati
fino a quando non si verifica un takeover.
Componenti di un sistema SAP HANA scalabile orizzontalmente su Google Cloud
Un'architettura di scalabilità multi-host SAP HANA su Google Cloud contiene i seguenti componenti:
1 istanza VM di Compute Engine per ogni host SAP HANA nel sistema, incluso 1 host master, fino a 15 host worker e fino a 3 host standby facoltativi.
Ogni VM utilizza lo stesso tipo di macchina Compute Engine. Per informazioni sui tipi di macchine certificate per l'utilizzo con SAP HANA, consulta Tipi di macchine certificate per SAP HANA.
Volumi Hyperdisk o Persistent Disk basati su SSD, come segue:
- Ogni VM deve includere un disco montato nella posizione corretta.
- Se non esegui il deployment di un sistema di failover automatico dell'host SAP HANA, facoltativamente, un disco per il volume locale
/hanabackup
per ogni istanza VM.
Una soluzione NFS di cui è stato eseguito il deployment separatamente per condividere i volumi
/hana/shared
e/hanabackup
con gli host di lavoro e di standby. Puoi utilizzare Filestore o un'altra soluzione NFS.Regole firewall di Compute Engine o altri controlli di accesso alla rete che limitano l'accesso alle istanze Compute Engine, consentendo al contempo la comunicazione tra le istanze e qualsiasi altra risorsa distribuita o remota richiesta dal sistema SAP HANA.
L'agente di Google Cloud per SAP. Dalla versione 2.0, puoi configurare questo agente per raccogliere le metriche di monitoraggio di SAP HANA, che ti consentono di monitorare le tue istanze SAP HANA. Dalla versione 3.0, puoi anche utilizzare la sua funzione Backint per archiviare i backup di SAP HANA direttamente nel bucket Cloud Storage e recuperarli in base alle esigenze.
Una sottorete facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud che preferisci. Il database SAP HANA e le altre istanze Compute Engine vengono avviate all'interno di questa sottorete. Se preferisci, puoi utilizzare una sottorete esistente.
Componenti facoltativi:
- SAP HANA Cockpit o SAP HANA Studio su una piccola VM Compute Engine.
Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:
Configura l'accesso privato Google in modo che la VM possa accedere alle API Google Cloud.
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, consulta Utilizzo di IAP per l'inoltro TCP.
Utilizza la VM Compute Engine configurata come bastion host per accedere alla rete internet pubblica.
Disponibilità elevata per i sistemi SAP HANA su Google Cloud
Per progettare una configurazione ad alta disponibilità per SAP HANA su Google Cloud, puoi utilizzare una combinazione di funzionalità di Google Cloud, SAP e native del sistema operativo.
Per informazioni sulle opzioni di alta disponibilità, consulta la guida alla pianificazione dell'alta disponibilità di SAP HANA.
Automation per i deployment di SAP HANA
Google Cloud fornisce file di configurazione Terraform e modelli di Deployment Manager che puoi utilizzare per automatizzare il deployment dell'infrastruttura Google Cloud e, facoltativamente, di SAP HANA.
Le opzioni di automazione del deployment fornite da Google Cloud supportano i seguenti scenari di deployment di SAP HANA:
- Scale up
- Eseguire lo scaling up in un cluster ad alta disponibilità a due nodi
- Esegui l'escaling senza nodi di riserva
- Eseguire lo scaling out senza nodi di riserva in un cluster ad alta disponibilità
- Esegui lo scaling out con i nodi di standby del failover automatico dell'host SAP HANA
Per ulteriori informazioni sull'automazione per gli scenari di implementazione di scalabilità up o out, consulta:
- Automazione del deployment per i sistemi di scalabilità
- Automazione del deployment per i sistemi scale-out
Automatizzare il deployment dell'istanza SAP HANA
Se vuoi, puoi includere l'installazione di SAP HANA con il deployment automatico dell'infrastruttura Google Cloud.
Gli script di installazione forniti da Google Cloud installano SAP HANA dopo il deployment dell'infrastruttura.
Se si verificano problemi che impediscono l'installazione di un'istanza SAP HANA, in genere l'infrastruttura viene comunque dipiattata e configurata. Puoi quindi utilizzare l'infrastruttura di cui è stato eseguito il deployment e installare SAP HANA manualmente oppure eliminare l'infrastruttura, correggere il problema ed eseguire di nuovo l'automazione del deployment finché l'istanza SAP HANA non viene installata correttamente.
Quando utilizzi gli script di installazione di Google Cloud per installare SAP HANA, devi fornire i valori per determinati parametri. Se ometti questi parametri o non specifichi valori validi per tutti, lo script di installazione non riesce a installare l'istanza SAP HANA nell'infrastruttura di cui è stato eseguito il deployment.
Quando utilizzi i file di configurazione Terraform forniti da Google Cloud per installare SAP HANA, devi fornire valori validi per i seguenti argomenti:
sap_hana_deployment_bucket
,sap_hana_sid
,sap_hana_sidadm_uid
,sap_hana_sidadm_password
esap_hana_system_password
. Per saperne di più sugli argomenti Terraform, consulta la guida al deployment di Terraform per lo scale-up di SAP HANA.Quando utilizzi i modelli di Deployment Manager forniti da Google Cloud per installare SAP HANA, devi fornire valori validi per i seguenti parametri di configurazione:
sap_hana_deployment_bucket
,sap_hana_sid
,sap_hana_instance_number
,sap_hana_sidadm_password
,sap_hana_system_password
esap_hana_scaleout_nodes
. Per ulteriori informazioni sulle proprietà di Deployment Manager, consulta Deployment Manager: guida al deployment di scale-up di SAP HANA.
Gestione delle password
Per automatizzare l'installazione di SAP HANA sulle VM Compute Engine di cui è stato eseguito il deployment, devi specificare le password per l'utente SIDadm
e per l'utente del database. Puoi specificare queste password nel file di configurazione Terraform nei seguenti modi:
(Consigliato) Per fornire le password agli script di installazione in modo sicuro, puoi creare secret utilizzando Secret Manager, un servizio a pagamento di Google Cloud, e poi specificare i nomi dei secret come valori per gli argomenti
sap_hana_sidadm_password_secret
esap_hana_system_password_secret
.Per informazioni sui prezzi di Secret Manager, consulta Prezzi di Secret Manager.
In alternativa, puoi specificare le password in testo normale negli argomenti
sap_hana_sidadm_password
esap_hana_system_password
.
Deployment dei dischi da parte di Terraform
Quando automatizzi il deployment di SAP HANA utilizzando la configurazione Terraform fornita da Google Cloud, il deployment del disco predefinito è il seguente:
Volume o directory | Disco predefinito di cui è stato eseguito il deployment per le istanze X4 | Disco predefinito di cui è stato eseguito il deployment per le istanze bare metal C3 | Disco predefinito di cui è stato eseguito il deployment per le istanze VM |
---|---|---|---|
Volume di avvio | Hyperdisk bilanciato | Hyperdisk bilanciato | Disco permanente bilanciato |
/hana/data |
Hyperdisk Extreme | Hyperdisk bilanciato | Disco permanente SSD |
/hana/log |
Hyperdisk Extreme | Hyperdisk bilanciato | Disco permanente SSD |
/hana/shared |
Hyperdisk bilanciato | Hyperdisk bilanciato |
|
/hanabackup |
Hyperdisk bilanciato | Hyperdisk bilanciato | Disco permanente bilanciato |
/usr/sap |
Hyperdisk bilanciato | Hyperdisk bilanciato |
|
VM personalizzate e deployment automatici
I file di configurazione di Terraform e i modelli di Deployment Manager non supportano la specifica delle VM personalizzate di Compute Engine.
Se devi utilizzare un tipo di VM personalizzato, esegui prima il deployment di un piccolo tipo di VM predefinito e, al termine del deployment, personalizza la VM in base alle tue esigenze.
Per ulteriori informazioni sulla modifica delle VM, consulta Modifica delle configurazioni delle VM per i sistemi SAP.
Automazione del deployment per i sistemi di scalabilità verticale
Google Cloud fornisce file di configurazione Terraform e modelli di configurazione di Deployment Manager che puoi utilizzare per automatizzare il deployment di sistemi SAP HANA con scalabilità verticale a un solo host.
Gli script Terraform o Deployment Manager possono essere utilizzati per i seguenti scenari:
Un sistema SAP HANA autonomo e scalabile verticalmente.
Consulta la guida all'implementazione di Terraform o Deployment Manager.
Un sistema SAP HANA scalabile verticale attivo e di riserva su un cluster Linux ad alta disponibilità.
Consulta la guida all'implementazione di Terraform o Deployment Manager.
Gli script Terraform o Deployment Manager possono eseguire il deployment delle VM, dei dischi permanenti, di SAP HANA e, nel caso del cluster ad alta disponibilità Linux, dei componenti HA richiesti.
Gli script di Deployment Manager non eseguono il deployment dei seguenti componenti di sistema:
- La rete e la subnet
- Regole firewall
- Gateway NAT, bastion host o le relative VM
- SAP HANA Studio o la relativa VM
Ad eccezione di SAP HANA Studio o della relativa VM, puoi utilizzare Terraform per eseguire il deployment di tutti questi componenti di sistema.
Per informazioni sulla creazione di questi componenti, consulta la sezione Prerequisiti nelle seguenti guide:
- Terraform: guida al deployment di scale-up di SAP HANA
- Deployment Manager: guida al deployment di SAP HANA con scalabilità verticale
Automazione del deployment per sistemi di scalabilità orizzontale
Google Cloud fornisce file di configurazione Terraform e modelli di configurazione di Deployment Manager che puoi utilizzare per automatizzare il deployment dei sistemi scale-out multi-host SAP HANA.
- Per eseguire il deployment di un sistema scalabile orizzontalmente che non include il failover automatico dell'host SAP HANA, consulta la Guida al deployment di Terraform: SAP HANA o la Guida al deployment di Deployment Manager: SAP HANA.
- Per eseguire il deployment di un sistema scalabile orizzontalmente senza host di riserva in un cluster Linux ad alta disponibilità, consulta Terraform: guida alla configurazione del cluster SAP HANA ad alta disponibilità.
- Per eseguire il deployment di un sistema scalabile orizzontalmente che include host di riserva, consulta Terraform: Guida al deployment di un sistema SAP HANA scalabile orizzontalmente con failover automatico dell'host o Deployment Manager: Guida al deployment di un sistema SAP HANA scalabile orizzontalmente con failover automatico dell'host.
La configurazione Terraform o i modelli Deployment Manager possono eseguire il deployment delle VM, dei dischi permanenti e di SAP HANA. Possono anche mappare i punti di mount NFS ai volumi condivisi e di backup di SAP HANA. Per i deployment scalabili su più host, il modello di configurazione Terraform o Deployment Manager può anche eseguire il deployment di nuove istanze Filestore per ospitare i volumi di backup e condivisi di SAP HANA.
Gli script di Deployment Manager non eseguono il deployment dei seguenti componenti di sistema:
- La rete e la subnet
- Regole firewall
- Gateway NAT, bastion host o le relative VM
- SAP HANA Studio o la relativa VM
Ad eccezione di SAP HANA Studio o della relativa VM, puoi utilizzare Terraform per eseguire il deployment di tutti questi componenti di sistema.
Soluzioni di condivisione di file per i deployment scalabili multi-host
Per impostazione predefinita, la configurazione Terraform fornita da Google Cloud per il deployment di SAP HANA su più host crea esportazioni NFS per i volumi /hana/shared
e /hanabackup
nell'istanza VM SAP HANA principale e condivide i volumi con i nodi worker.
Tuttavia, se vuoi utilizzare una soluzione NFS per condividere i volumi /hana/shared
e
/hanabackup
con gli host di lavoro, puoi utilizzare una delle
seguenti opzioni:
Per associare una soluzione NFS esistente di cui hai eseguito il deployment su Google Cloud, devi specificare i punti di montaggio NFS dei volumi
/hana/shared
e/hanabackup
agli argomentisap_hana_shared_nfs
esap_hana_backup_nfs
, rispettivamente, nel file di configurazione Terraform.Per eseguire il deployment di nuove istanze Filestore e associare le relative condivisioni file ai volumi
/hana/shared
e/hanabackup
, devi definire una risorsagoogle_filestore_instance
e poi specificare i nomi delle condivisioni file agli argomentisap_hana_shared_nfs_resource
esap_hana_backup_nfs_resource
, rispettivamente, nel file di configurazione Terraform.
Per visualizzare un esempio, consulta la configurazione di esempio.
Assistenza
Per problemi con i servizi o l'infrastruttura di Google Cloud, contatta l'assistenza clienti. Puoi trovare i dati di contatto nella pagina Panoramica dell'assistenza nella console Google Cloud. Se l'assistenza clienti stabilisce che il problema riguarda i tuoi sistemi SAP, ti verrà consigliato di rivolgerti all'assistenza SAP.
Per problemi relativi ai prodotti SAP, registra la richiesta di assistenza con l'assistenza SAP.
SAP valuta il ticket di assistenza e, se sembra essere un problema dell'infrastruttura Google Cloud, lo trasferisce al componente Google Cloud appropriato nel proprio sistema: BC-OP-LNX-GOOGLE
o
BC-OP-NT-GOOGLE
.
Requisiti di assistenza
Prima di poter ricevere assistenza per i sistemi SAP e per l'infrastruttura e i servizi Google Cloud che utilizzano, devi soddisfare i requisiti minimi del piano di assistenza.
Per ulteriori informazioni sui requisiti minimi di assistenza per SAP su Google Cloud, consulta:
- Ricevere assistenza per SAP su Google Cloud
- Nota SAP 2456406 - SAP su Google Cloud Platform: prerequisiti per l'assistenza (è richiesto un account utente SAP)
Passaggi successivi
- Per ulteriori informazioni di SAP sul tiering dinamico SAP HANA, consulta Tiering dinamico SAP HANA.