Guida alla pianificazione di SAP HANA

Questa guida fornisce una panoramica delle risorse necessarie per eseguire SAP HANA su Google Cloud e dettagli che puoi utilizzare quando pianifichi l'implementazione di un nuovo sistema SAP HANA.

Per informazioni dettagliate su come eseguire il deployment di SAP HANA su Google Cloud, consulta:

Informazioni su SAP HANA su Google Cloud

SAP HANA è un database relazionale in memoria e orientato a colonne che fornisce per analisi ad alte prestazioni ed elaborazione dati in tempo reale. I clienti possono sfruttare facilità di provisioning, infrastruttura Google Cloud a scalabilità elevata e ridondanza per eseguire carichi di lavoro critici per l'attività. Google Cloud fornisce un insieme di asset fisici, come computer e dischi rigidi, e risorse virtuali, come le macchine virtuali (VM) di Compute Engine, situate nei data center di Google in tutto il mondo.

Quando esegui il deployment di SAP HANA su Google Cloud, esegui il deployment in di macchine virtuali in esecuzione su Compute Engine. VM di Compute Engine offrono dischi permanenti, che funzionano in modo simile ai dischi fisici desktop o su un server, ma vengono gestiti automaticamente Compute Engine per garantire ridondanza dei dati e prestazioni ottimizzate.

Nozioni di base su Google Cloud

Google Cloud comprende molti servizi e prodotti basati su cloud, Quando esegui i prodotti SAP su Google Cloud, utilizzi principalmente i servizi basati su IaaS offerti tramite Compute Engine e Cloud Storage, nonché alcune funzionalità a livello di piattaforma, come gli strumenti.

Consulta la panoramica della piattaforma Google Cloud per concetti e terminologia importanti. Questa guida duplica alcune informazioni dalla panoramica per convenienza e contesto.

Per una panoramica delle considerazioni che le organizzazioni di grandi dimensioni devono tenere conto quando eseguono su Google Cloud, consulta il Framework dell'architettura Google Cloud.

Interazione con Google Cloud

Google Cloud offre tre modi principali per interagire con la piattaforma e le tue risorse nel cloud:

  • La console Google Cloud, che è un'interfaccia utente basata sul web.
  • Lo strumento a riga di comando gcloud, che fornisce un soprainsieme di una funzionalità offerta dalla console Google Cloud.
  • Librerie client, che forniscono API per l'accesso ai servizi e la gestione delle risorse. Le librerie client sono utili quando crei i tuoi strumenti.

Servizi Google Cloud

I deployment SAP in genere utilizzano alcuni o tutti i seguenti servizi Google Cloud:

Servizio Descrizione
Networking VPC

Connette le tue istanze VM tra loro e a internet.

Ogni istanza VM fa parte di una rete legacy con un un intervallo IP globale o una rete di subnet consigliata, in cui l'istanza VM un membro di una singola subnet che fa parte di una rete più grande.

Tieni presente che una rete Virtual Private Cloud (VPC) non può coprire ma un progetto Google Cloud può avere più reti VPC.

Per collegare le risorse di più progetti a un sulla rete VPC, puoi utilizzare VPC condiviso, in modo che possono comunicare tra loro in modo sicuro ed efficiente utilizzando indirizzi IP interni di quella rete. Per informazioni su come eseguire il provisioning di un VPC condiviso, inclusi requisiti, passaggi di configurazione e utilizzo, consulta Eseguire il provisioning di un VPC condiviso.

Compute Engine Crea e gestisce le VM con il sistema operativo e lo stack di software che preferisci.
Persistent Disk e Hyperdisk

Puoi utilizzare Persistent Disk e Google Cloud Hyperdisk:

  • I volumi di Persistent Disk sono disponibili come disco rigido standard (HDD) o a stato solido (SSD). Per i dischi permanenti bilanciati dischi permanenti e SSD, Replica asincrona PD consente di eseguire la replica asincrona dei dati SAP tra due regioni di Google Cloud.
  • I volumi Hyperdisk Extreme offrono opzioni di IOPS e throughput massimi superiori rispetto ai volumi dei dischi permanenti SSD.
  • Per impostazione predefinita, Compute Engine cripta i contenuti at-rest dei clienti, inclusi i contenuti all'interno dei volumi di dischi permanenti e Hyperdisk. Per ulteriori informazioni sulla crittografia del disco e sulle possibili opzioni di crittografia, consulta Informazioni sulla crittografia del disco.
Console Google Cloud

Uno strumento basato su browser per la gestione delle risorse Compute Engine.

Utilizza un modello per descrivere tutte le risorse e le istanze Compute Engine di cui hai bisogno. Non devi creare e configurare singolarmente le risorse o capire le dipendenze perché la console Google Cloud lo fa per te.

Cloud Storage Puoi archiviare i backup del database SAP in Cloud Storage per una maggiore durabilità e affidabilità, con la replica.
Cloud Monitoring

Offre visibilità su deployment, prestazioni, uptime e l'integrità dei dischi di Compute Engine, della rete e dell'archiviazione permanente.

Monitoring raccoglie metriche, eventi e metadati Google Cloud e le utilizza per generare insight tramite dashboard, grafici e avvisi. Puoi monitorare le metriche di calcolo senza costi tramite monitoring.

IAM

Fornisce un controllo unificato sulle autorizzazioni per le risorse Google Cloud.

IAM ti consente di controllare chi può eseguire operazioni di piano di controllo sulle tue VM, tra cui creazione, modifica ed eliminazione di VM e dischi di archiviazione permanente, nonché creazione e modifica di reti.

Prezzi e quote

Puoi utilizzare il Calcolatore prezzi per stimare i costi di utilizzo. Per ulteriori informazioni sui prezzi, vedi Prezzi di Compute Engine, Prezzi di Cloud Storage, e prezzi di Google Cloud Observability.

Le risorse Google Cloud sono soggette a quote. Se prevedi di utilizzare macchine con più CPU o con molta memoria, potresti dover richiedere una quota aggiuntiva. Per ulteriori informazioni, consulta Quote delle risorse di Compute Engine.

Conformità e controlli di sovranità

Se vuoi che il tuo carico di lavoro SAP venga eseguito in conformità con i requisiti di residenza dei dati, controllo dell'accesso, personale di assistenza o normativi, devi pianificare l'utilizzo di Assured Workloads, un servizio che ti aiuta a eseguire carichi di lavoro sicuri e conformi su Google Cloud senza compromettere la qualità della tua esperienza cloud. Per ulteriori informazioni, consulta Controlli di conformità e sovranità per SAP su Google Cloud.

Requisiti delle risorse

Tipi di macchine certificate per SAP HANA

Per SAP HANA, SAP certifica solo un sottoinsieme dei tipi di macchine disponibili in Google Cloud.

I tipi di macchine certificate da SAP per SAP HANA includono macchine virtuali (VM) Compute Engine e macchine bare metal della soluzione Bare Metal.

Configurazioni personalizzate dei tipi di VM n1- e n2-highmem per uso generico sono certificati anche da SAP. Per ulteriori informazioni, consulta Tipi di VM personalizzate certificate per SAP HANA.

Per i sistemi operativi certificati per l'utilizzo con HANA su ogni di tipo di macchina, consulta Sistemi operativi certificati per SAP HANA.

Alcuni tipi di macchine non sono disponibili in tutte le regioni di Google Cloud. Per verificare la disponibilità regionale di una macchina virtuale Compute Engine, consulta Regioni e zone disponibili. Per le macchine Bare Metal Solution certificate per SAP HANA, consulta Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.

SAP elenca i tipi di macchine certificati per SAP HANA nel Directory hardware SAP HANA certificata e supportata.

Per saperne di più sui diversi tipi di VM Compute Engine e sui relativi casi d'uso, consulta la sezione Tipi di macchine.

VM Compute Engine certificate per SAP HANA

La tabella seguente mostra le VM Compute Engine certificate da SAP per SAP HANA:

La tabella seguente mostra tutti i tipi di macchine di Google Cloud certificati da SAP per l'uso in produzione di SAP HANA.

La tabella non include i tipi di macchina per cui SAP certifica SAP Business One su SAP HANA. Per i tipi di macchina per cui SAP certifica SAP HANA con SAP Business One, consulta Applicazioni SAP certificate su Google Cloud.

Tipi di macchina vCPU Memoria Sistema operativo Piattaforma CPU Tipo di applicazione Note
Tipi di VM N1 per uso generico con memoria elevata
n1-highmem-32 32 208 GB RHEL, SUSE
Intel Broadwell OLAP o OLTP Archiviazione a blocchi: dischi permanenti di Compute Engine o, per solo per lo scale up, NetApp CVS-Performance.
n1-highmem-64 64 416 GB RHEL, SUSE Intel Broadwell OLAP o OLTP Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per il ridimensionamento in aumento, NetApp CVS-Performance.
n1-highmem-96 96 624 GB RHEL, SUSE Intel Skylake OLAP o OLTP Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per l'aumento di scala, NetApp CVS-Performance.
Tipi di VM per uso generico con memoria elevata N2
n2-highmem-32 32 256 GB RHEL, SUSE Intel Ice Lake,
Intel Cascade Lake
OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti di Compute Engine NetApp CVS-Performance.
n2-highmem-48 48 384 GB RHEL, SUSE Intel Ice Lake,
Intel Cascade Lake
OLAP o OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine o NetApp CVS-Performance.
n2-highmem-64 64 512 GB RHEL, SUSE Intel Ice Lake,
Intel Cascade Lake
OLAP o OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine o NetApp CVS-Performance.
n2-highmem-80 80 640 GB RHEL, SUSE Intel Ice Lake,
Intel Cascade Lake
OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance.
n2-highmem-96 96 768 GB RHEL, SUSE Intel Ice Lake OLAP o OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance.
n2-highmem-128 128 864 GB RHEL, SUSE Intel Ice Lake OLAP o OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o NetApp CVS-Performance.
Tipi di VM per uso generico C3
c3-standard-44 44 176 GB RHEL, SUSE Intel Sapphire Rapids OLAP o OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance.
c3-highmem-44 44 352 GB RHEL, SUSE Intel Sapphire Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance.
c3-highmem-88 88 704 GB RHEL, SUSE Intel Sapphire Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
c3-highmem-176 176 1.408 GB RHEL, SUSE Intel Sapphire Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
Tipi di macchine bare metal C3 per uso generico
c3-highmem-192-metal 192 1536 GB RHEL, SUSE Intel Sapphire Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato.
Tipi di VM C4 per uso generico
c4-highmem-32 32 248 GB RHEL, SUSE Intel Emerald Rapids OLAP o OLTP Solo scalabilità verso l'alto.
Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
c4-highmem-48 48 372 GB RHEL, SUSE Intel Emerald Rapids OLAP o OLTP Solo scalabilità verso l'alto.
Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
c4-highmem-96 96 744 GB RHEL, SUSE Intel Emerald Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
c4-highmem-192 192 1488 GB RHEL, SUSE Intel Emerald Rapids OLAP o OLTP Solo scale up.
Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
Tipi di VM M1 ottimizzate per la memoria
m1-megamem-96 96 1433 GB RHEL, SUSE Intel Skylake OLAP o OLTP OLAP: fai lo scale up o lo scale out fino a 16 nodi.
OLTP: solo scale up.
Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per l'escaling OLTP, NetApp CVS-Performance.
m1-ultramem-40 40 961 GB RHEL, SUSE Intel Broadwell Solo OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance.
m1-ultramem-80 80 1922 GB RHEL, SUSE Intel Broadwell Solo OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
m1-ultramem-160 160 3844 GB RHEL, SUSE Intel Broadwell OLAP o OLTP Carichi di lavoro OLAP da 2 TB certificati per lo scaling up e lo scaling out fino a 16 nodi. Carichi di lavoro OLAP fino a 4 TB supportati con ridimensionamento basato sui carichi di lavoro.
Carichi di lavoro OLTP certificati solo per lo scale up.
Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per l'escaling OLTP, NetApp CVS-Performance.
Tipi di VM M2 ottimizzate per la memoria
m2-megamem-416 416 5888 GB RHEL, SUSE Intel Cascade Lake OLAP o OLTP Carichi di lavoro OLAP certificati per lo scaling up e lo scaling out fino a 16 nodi.
I carichi di lavoro OLTP sono certificati per lo scaling up o lo scaling out fino a 4 nodi.
La certificazione per l'escaling OLTP include SAP S/4HANA.
Per lo scale out con S/4HANA, consulta la Nota SAP 2408419.
Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, per solo per lo scale up, NetApp CVS-Performance.
m2-ultramem-208 208 5888 GB RHEL, SUSE Intel Cascade Lake Solo OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
m2-ultramem-416 416 11.776 GB RHEL, SUSE Intel Cascade Lake-SP OLAP o OLTP I carichi di lavoro OLAP sono certificati con il dimensionamento basato sui carichi di lavoro per lo scale up o lo scale out fino a 16 nodi,
I carichi di lavoro OLTP sono certificati per lo scale up o lo scale out fino a 4 nodi.
La certificazione per lo scale out di OLTP include SAP S/4HANA.
Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per lo scale up, NetApp CVS-Performance.
Per lo scale out con S/4HANA, consulta la Nota SAP 2408419.
m2-hypermem-416 416 8.832 GB RHEL, SUSE Intel Cascade Lake Solo OLTP I carichi di lavoro OLTP sono certificati per lo scaling up o lo scaling out fino a 4 nodi.
La certificazione per l'escaling OLTP include SAP S/4HANA.
Archiviazione a blocchi: dischi persistenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o, solo per lo scale up, NetApp CVS-Performance.
Per lo scale out con S/4HANA, consulta la Nota SAP 2408419.
Tipi di VM ottimizzate per la memoria M3
m3-ultramem-32 32 976 GB RHEL, SUSE Intel Ice Lake Solo OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o NetApp CVS-Performance.
m3-ultramem-64 64 1952 GB RHEL, SUSE Intel Ice Lake Solo OLTP Solo scalabilità verticale.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
m3-ultramem-128 128 3904 GB RHEL, SUSE Intel Ice Lake OLAP o OLTP I carichi di lavoro OLAP sono certificati con dimensionamento basato sui carichi di lavoro per lo scale up. I carichi di lavoro OLTP sono certificati per lo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
m3-megamem-64 64 976 GB RHEL, SUSE Intel Ice Lake OLAP o OLTP Solo scale up.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance.
m3-megamem-128 128 1952 GB RHEL, SUSE Intel Ice Lake OLAP o OLTP Fai lo scale up o lo scale out, fino a 16 nodi.
Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o NetApp CVS-Performance (solo scale-up).
Tipi di macchine bare metal ottimizzate per la memoria X4
x4-megamem-960-metal 960 16.384 GB SUSE Intel Sapphire Rapids OLAP o OLTP

I carichi di lavoro OLAP e OLTP sono certificati per fare lo scale out fino a 4 nodi, e lo scale up.

Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato

x4-megamem-1440-metal 1440 24.576 GB SUSE Intel Sapphire Rapids OLAP o OLTP

I carichi di lavoro OLTP sono certificati per lo scaling out fino a 4 nodi.

I carichi di lavoro OLAP sono certificati solo per lo scale up.

Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato

x4-megamem-1920-metal 1920 32.768 GB SUSE Intel Sapphire Rapids OLAP o OLTP

I carichi di lavoro OLTP sono certificati per lo scaling out fino a 4 nodi.

I carichi di lavoro OLAP sono certificati solo per lo scale up.

Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato

Macchine Bare Metal Solution certificate per SAP HANA

La tabella seguente mostra le macchine Bare Metal Solution certificate da SAP per SAP HANA esclusivamente in un'architettura a tre livelli.

Per sapere in quali regioni sono disponibili questi tipi di macchine certificate, consulta la pagina Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.

Tipo di macchina Bare Metal Solution CPU Cores vCPU Socket Memoria Piattaforma CPU Sistema operativo Tipo di applicazione Note
Tipi di macchine Bare Metal Solution ottimizzati per la memoria O2
o2-ultramem-672-metal 336 672 12 18 TB Intel Cascade Lake RHEL, SUSE Solo OLTP Esegui lo scale up solo in un'architettura a tre livelli.
Taglie standard.
o2-ultramem-896-metal 448 896 16 24 TB Intel Cascade Lake RHEL, SUSE Solo OLTP Esegui lo scale up solo in un'architettura a tre livelli.
Taglie standard.

Tipi di macchine personalizzate certificate per SAP HANA

La tabella seguente mostra i tipi di macchine personalizzate Compute Engine certificati da SAP per l'utilizzo in produzione di SAP HANA su Google Cloud.

SAP certifica solo un sottoinsieme dei tipi di macchine personalizzate disponibili in Compute Engine.

I tipi di macchine personalizzate sono soggetti a regole di personalizzazione definite da Compute Engine. Le regole variano a seconda del tipo di macchina che stai personalizzando. Per le regole di personalizzazione complete, vedi Creazione di un'istanza VM personalizzata.

Tipo di macchina di base vCPU Memoria (GB) Sistema operativo Piattaforme CPU
N1-highmem Un numero di vCPU compreso tra 32 e 64 divisibile per 2. 6,5 GB per ciascuna vCPU RHEL, SUSE Intel Broadwell
N2-highmem (solo scale up) Su Intel Ice Lake, un numero di vCPU da 32 a 80, uniformemente divisibile per 4.
Su Intel Cascade Lake, un numero di vCPU da 32 a 80 è uniforme divisibile per 4.
Fino a 8 GB per vCPU RHEL, SUSE Intel Ice Lake,
Intel Cascade Lake

Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA

La tabella seguente mostra le regioni Google Cloud attuali che supportano SAP HANA su Bare Metal Solution.

Regione Località
europe-west3 Francoforte, Germania, Europa
europe-west4 Eemshaven, Paesi Bassi, Europa
us-central1 Council Bluffs, Iowa, USA, Nord America
us-east4 Ashburn, Virginia, Stati Uniti, Nord America

Se non visualizzi la regione di cui hai bisogno nella tabella precedente, contatta il team di vendita di Google Cloud.

Configurazione memoria

Le opzioni di configurazione della memoria sono determinate da Compute Engine il tipo di istanza VM scelto. Per saperne di più, consulta la tabella Tipi di macchine certificate per SAP HANA.

Configurazione di rete

Le funzionalità di rete delle VM di Compute Engine sono determinate famiglia di macchine, e non in base all'interfaccia di rete (NIC) o all'indirizzo IP.

In base al tipo di macchina, l'istanza VM è in grado di raggiungere 2-32 Gbps e la velocità effettiva di rete. Alcuni tipi di macchine supportano anche throughput fino a 100 Gbps, che richiedono l'utilizzo del tipo di interfaccia gVNIC (Google Virtual NIC) con una configurazione di rete Tier_1. La capacità di raggiungere queste velocità di velocità effettiva ulteriormente dalla direzione del traffico e dal tipo di IP di destinazione .

Le interfacce di rete delle VM di Compute Engine sono supportate da infrastruttura di rete resiliente mediante una rete fisica e software-defined componenti. Queste interfacce ereditano la ridondanza e la resilienza della piattaforma di base. È possibile utilizzare più NIC virtuali per la separazione del traffico, ma questo non offre alcun vantaggio aggiuntivo in termini di resilienza o prestazioni.

Una singola NIC fornisce le prestazioni necessarie per i deployment di SAP HANA su Compute Engine. Il tuo caso d'uso specifico, i requisiti di sicurezza o le tue preferenze potrebbero richiedere anche interfacce aggiuntive per separare il traffico, ad esempio il traffico internet, il traffico interno di SAP HANA System Replication o altri flussi che potrebbero trarre vantaggio da regole specifiche dei criteri di rete. È consigliabile impieghi la crittografia del traffico offerta dall'applicazione un accesso alla rete sicuro seguendo un criterio firewall con privilegio minimo per limitare l'accesso.

A seconda dei requisiti, puoi migliorare la sicurezza in diversi modi, come descritto nella Guida alla sicurezza di SAP HANA per la piattaforma SAP HANA. Ad esempio, puoi implementare l'isolamento di rete, ma fornisce un livello inferiore sicurezza senza crittografia e inserimento nella lista consentita specifica per porte e IP.

Considera la necessità di separare il traffico fin dalle prime fasi nella progettazione della rete e allocano NIC aggiuntive quando esegui il deployment delle VM. Devi collegare ogni rete a un'altra rete Virtual Private Cloud. La scelta del numero di interfacce di rete dipende dal livello di isolamento richiesto, con un massimo di 8 interfacce consentite per le VM con almeno 8 vCPU.

Ad esempio, puoi definire una rete Virtual Private Cloud per i client delle applicazioni SAP HANA SQL (server delle applicazioni SAP NetWeaver, applicazioni personalizzate e così via) e una rete separata per il traffico tra server, come la replica di sistema SAP HANA. Tieni presente che troppi segmenti potrebbero complicare la gestione e la problemi di rete. Se cambi idea in un secondo momento, puoi utilizzare le immagini macchina di Compute Engine. ricreare l'istanza VM mantenendo tutti i metadati, la configurazione e i dati di Google Cloud.

Per ulteriori informazioni, consulta la panoramica della rete per le VM, le più interfacce di rete e la larghezza di banda della rete della VM.

Sistemi operativi certificati per SAP HANA

La tabella seguente mostra i sistemi operativi Red Hat Enterprise Linux (RHEL) e SUSE Linux Enterprise Server (SLES) certificati da SAP per l'utilizzo in produzione con SAP HANA su Google Cloud.

Salvo dove indicato nella tabella, ogni sistema operativo è supportato con SAP HANA su tutti i tipi di VM Compute Engine certificati.

Per informazioni sullo stato attuale del supporto di ciascun sistema operativo e quali sistemi operativi sono disponibili Google Cloud, vedi Supporto dei sistemi operativi per SAP HANA su Google Cloud.

Per informazioni da SAP sui sistemi operativi supportati da SAP SAP HANA su Google Cloud, vai a Directory hardware SAP HANA certificata e supportata, fai clic sul tipo di macchina richiesto e poi vedi Sistema operativo.

La tabella seguente non include:

  • Versioni del sistema operativo certificate che non sono più supportate.
  • Versioni del sistema operativo non specifiche di SAP.
Sistema operativo Versione Tipi di macchine non supportati
RHEL per SAP 9.4 Nota x4-megamem
9.2 Nota x4-megamem
Metallo C3
9.0 Nota x4-megamem
C3-metal
8.10 x4-megamem
8,8 x4-megamem
C3-metal
8,6 x4-megamem
C3-metal
8,4 x4-megamem
C3-metal
8,2 x4-megamem
C3-metal
8,1 x4-megamem
Metallo C3
c3-standard
c3-highmem
m3-ultramem
m3-megamem
7,9 c4-highmem
x4-megamem
Metallo C3
7,7 c4-highmem
x4-megamem
C3-metal
c3-standard
c3-highmem
m3-ultramem
m3-megamem
SLES per SAP 15 SP5
15 SP4
15 SP3 x4-megamem
Metallo C3
15 SP2 x4-megamem
C3-metal
15 SP1 c4-highmem
x4-megamem
C3-metal
c3-standard
c3-highmem
m3-ultramem
m3-megamem
12 SP5 x4-megamem
C3-metal

Immagini personalizzate del sistema operativo

Puoi utilizzare un'immagine Linux fornita e gestita da Google Cloud (un'immagine pubblica) oppure fornire e gestire la tua immagine Linux (un'immagine personalizzata).

Utilizza un'immagine personalizzata se la versione del sistema operativo certificato SAP di cui hai bisogno non è disponibile su Google Cloud come immagine pubblica. Le seguenti descritti in dettaglio in Importazione delle immagini disco di avvio in Compute Engine, riassume la procedura per utilizzare un'immagine personalizzata:

  1. Prepara il disco di avvio in modo che possa avviarsi all'interno di Google Cloud Compute Engine e potrai accedervi dopo l'avvio.
  2. Crea e comprime il file immagine del disco di avvio.
  3. Carica il file immagine in Cloud Storage e importa il file su Compute Engine come nuovo immagine personalizzata.
  4. Utilizza l'immagine importata per creare un'istanza di macchina virtuale e assicurati che sia avviata correttamente.
  5. Ottimizza l'immagine e installa l'ambiente guest Linux in modo che l'immagine del sistema operativo importato possa comunicare con il server di metadati e utilizzare funzionalità aggiuntive di Compute Engine.

Quando l'immagine personalizzata è pronta, puoi utilizzarla durante la creazione di VM per il tuo SAP HANA.

Se stai spostando un sistema operativo RHEL da un'installazione on-premise a Google Cloud, devi aggiungere Red Hat Cloud Access al tuo abbonamento Red Hat. Per maggiori informazioni per ulteriori informazioni, consulta Red Hat Cloud Access.

Per saperne di più sulle immagini del sistema operativo fornite da Google Cloud, vedi Immagini.

Per ulteriori informazioni sull'importazione di un sistema operativo in Google Cloud come immagine personalizzata, consulta Importazione delle immagini del disco di avvio in Compute Engine.

Per ulteriori informazioni sui sistemi operativi supportati da SAP HANA, consulta:

Sorgente dell'orologio del sistema operativo nelle VM di Compute Engine

L'origine orologio del sistema operativo predefinita è kvm-clock per le immagini SLES e TSC per le immagini RHEL.

Non è necessario cambiare l'origine clock del sistema operativo quando SAP HANA è in esecuzione di una VM di Compute Engine. Non c'è alcuna differenza di prestazioni quando si utilizza kvm-clock o TSC come clocksource per le VM Compute Engine con SAP HANA.

Se devi modificare l'origine orologio del sistema operativo in TSC, connettiti alla VM utilizzando SSH ed esegui i seguenti comandi:

echo "tsc" | sudo tee /sys/devices/system/clocksource/*/current_clocksource
sudo cp /etc/default/grub /etc/default/grub.backup
sudo sed -i '/GRUB_CMDLINE_LINUX/ s|"| clocksource=tsc"|2' /etc/default/grub
sudo grub2-mkconfig -o /boot/grub2/grub.cfg

Archiviazione su disco permanente

Per l'archiviazione a blocchi permanente, puoi collegare i dischi permanenti o Hyperdisk di Compute Engine quando crei le VM o aggiungerli in un secondo momento.

Tipi di disco supportati

Compute Engine offre diverse Persistent Disk I tipi di Hyperdisk basati su unità a stato solido (SSD) tecnologia o unità a disco rigido standard (HDD) tecnologia. Ogni tipo ha caratteristiche di rendimento diverse. Google Cloud gestisce l'hardware sottostante dei dischi per garantire la ridondanza dei dati e ottimizzare le prestazioni.

Per migliorare le prestazioni, i volumi SAP HANA /hana/data e /hana/log richiedono dischi di archiviazione permanente basati su SSD. tipi di Persistent Disk e Hyperdisk basati su SSD che sono certificati da SAP per l'utilizzo con SAP HANA includono quanto segue:

  • Tipi di Persistent Disk basati su SSD: Bilanciato (pd-balanced), Performance o SSD (pd-ssd) ed Estremo (pd-extreme)

    • Questi tipi di dischi offrono un'archiviazione a blocchi affidabile e conveniente.
    • Persistent Disk (SSD) delle prestazioni (pd-ssd) offre prestazioni più elevate rispetto a disco permanente bilanciato (pd-balanced).
    • Usa il disco permanente bilanciato come disco consigliato per l'hosting per le istanze VM:
      • Volume di avvio della VM.
      • Il volume /usr/sap.
      • Il volume /hana/shared, se lo ospiti su un disco dedicato.
      • Il volume /hanabackup, se salvi i backup su un disco. Se vuoi ridurre i costi di backup, puoi utilizzare un disco permanente HDD standard (pd-standard). Il disco permanente bilanciato consente di eseguire backup più rapidamente rispetto al disco permanente HDD standard. Mentre selezioni il verifica che la tua VM supporti il tipo di disco.
    • Supporto di Persistent Disk bilanciati e prestazionali (SSD) replica asincrona PD. Puoi utilizzare questa funzionalità per più regioni ripristino di emergenza attivo-passivo. Per ulteriori informazioni, vedi Ripristino di emergenza con la replica asincrona PD.
    • Extreme Persistent Disk (pd-extreme) è certificato per l'utilizzo con SAP HANA, ti consigliamo di utilizzare Hyperdisk Extreme (hyperdisk-extreme), che offre un rendimento migliore. Se vuoi utilizzare i dischi permanenti Extreme, assicurati di eseguire il provisioning dei dischi in base alle informazioni riportate in Dimensioni minime per i volumi di dischi permanenti e Hyperdisk basati su SSD.
  • Tipi di Hyperdisk: Hyperdisk Extreme (hyperdisk-extreme) e Hyperdisk bilanciato (hyperdisk-balanced)

    • Hyperdisk Extreme fornisce un numero massimo di IOPS e rispetto ai tipi di Persistent Disk basati su SSD.
    • Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme e Hyperdisk Balanced, consulta Supporto dei tipi di macchine.
    • Utilizza Hyperdisk bilanciato come disco consigliato per l'hosting di quanto segue per le istanze bare metal di Compute Engine come X4:
      • Il disco di avvio.
      • Il volume /usr/sap.
      • Il volume /hana/shared, se lo ospiti su un disco dedicato.
      • Il volume /hanabackup, se salvi i backup su un disco.
    • Per Hyperdisk Extreme, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning delle IOPS, che determinano anche il throughput. Per ulteriori informazioni, vedi Velocità effettiva.
    • Per Hyperdisk Balanced, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning di IOPS e throughput. Per maggiori informazioni vedi Informazioni su IOPS e provisioning della velocità effettiva per Hyperdisk.
    • Puoi usare Hyperdisk Extreme per /hana/data e /hana/log volumi quando hai bisogno delle prestazioni più elevate.
    • Per ottenere le migliori prestazioni da Hyperdisk Extreme per SAP HANA, aggiorna le tue proprietà di sistema SAP HANA come consigliato in Prestazioni Hyperdisk Extreme.

Layout dei dischi supportati

La figura seguente mostra il layout dello spazio di archiviazione dei dischi nelle architetture suggerite per SAP HANA su Google Cloud.

Opzioni di layout dell'archiviazione su disco per SAP HANA su Google Cloud

Nella figura precedente, la configurazione a sinistra utilizza un layout a disco diviso. I volumi /hana/data e /hana/log si trovano su Hyperdisk distinti. Il volume /hana/data può essere ospitato su più di un disco. I volumi /hana/shared e /usr/sap, che non richiedono prestazioni elevate, si trovano su singoli dischi permanenti bilanciati, che costano meno di un Hyperdisk Extreme.

La configurazione a destra utilizza un layout a disco unificato, in cui I volumi /hana/data, /hana/log, /hana/shared e /usr/sap sono tutti montato su un singolo Hyperdisk Extreme.

I dischi permanenti e Hyperdisk si trovano in modo indipendente dalle VM, quindi puoi scollegarli o spostarli per conservare i dati anche dopo aver eliminato le VM.

Nella console Google Cloud, puoi vedere i dischi permanenti e gli Hyperdisk collegati alle tue istanze VM nella sezione Dischi aggiuntivi della pagina Dettagli istanza VM per ogni istanza VM. Per saperne di più sui diversi tipi di volumi Hyperdisk e disco permanente di Compute Engine, sulle relative caratteristiche di prestazioni e su come utilizzarli, consulta la seguente documentazione:

Dimensioni minime per volumi Persistent Disk e Hyperdisk basati su SSD

Quando si dimensionano determinati dischi permanenti basati su SSD di Compute Engine per SAP HANA, devi tenere conto non solo dei requisiti di archiviazione dalla tua istanza SAP HANA, ma anche per le prestazioni del disco permanente.

Entro limiti, le prestazioni di un disco permanente SSD o bilanciato aumentano con l'aumento delle dimensioni del disco e del numero di vCPU. Se un'unità SSD o un disco permanente bilanciato è troppo piccola, potrebbe non fornire le prestazioni richieste da SAP HANA.

Le prestazioni di Hyperdisk non sono influenzate dalle dimensioni del disco. Le sue prestazioni sono determinate dalle IOPS o dalla velocità effettiva di cui esegui il provisioning. Per informazioni sulle prestazioni di Hyperdisk, vedi Informazioni su Hyperdisk.

Un'unità SSD da 550 GB o un disco permanente bilanciato da 943 GB fornisce un throughput sostenuto di 400 MB al secondo per letture e scritture, che è il valore minimo. Per informazioni generali sulle prestazioni disco permanente, vedi Prestazioni dell'archiviazione a blocchi.

La tabella seguente mostra le dimensioni minime consigliate per i dischi permanenti SSD (pd-ssd), i dischi permanenti bilanciati (pd-balanced), Hyperdisk Extreme (hyperdisk-extreme) e Hyperdisk Balanced (hyperdisk-balanced) per soddisfare i requisiti di prestazioni di SAP HANA in un ambiente di produzione per ogni tipo di macchina Compute Engine certificato per SAP HANA. Le dimensioni minime per Hyperdisk I volumi, che si basano esclusivamente sulla quantità di memoria, sono inclusi nella tabella come riferimento.

Per informazioni sulla configurazione dello spazio di archiviazione consigliata per i sistemi SAP HANA in esecuzione su istanze X4, Archiviazione a blocchi supportata per X4.

Le dimensioni riportate nella tabella seguente presuppongono che tu monti tutti i volumi SAP HANA su singoli dischi.

Disco permanente con carico bilanciato

Se vuoi utilizzare più di un volume di disco permanente bilanciato per ospitare il tuo volume /hana/data, quindi assicurati di dividerlo equamente Il valore della dimensione specificato in "/hana/data dimensione (GB)" colonna tra i volumi del disco di cui esegui il provisioning.

Tipo di VM Compute Engine Dimensioni /hana/data (GB) /hana/log dimensioni (GB) Dimensioni /hana/shared (GB) Dimensione /usr/sap (GB) Dimensioni totali (GB)
n1-highmem-32 599 104 208 32 943
n1-highmem-64 499 208 416 32 1.155
n1-highmem-96 748 312 624 32 1.716
n2-highmem-32 527 128 256 32 943
n2-highmem-48 460 192 384 32 1068
n2-highmem-64 614 256 512 32 1.414
n2-highmem-80 768 320 640 32 1760
n2-highmem-96 921 384 768 32 2105
n2-highmem-128 1036 432 864 32 2364
c3-standard-44 647 88 176 32 943
c3-highmem-44 422 176 352 32 982
c3-highmem-88 844 352 704 32 1.932
c3-highmem-176 1.689 512 1024 32 3.257
m1-megamem-96 1.719 512 1024 32 3.287
m1-ultramem-40 1.153 480 961 32 2626
m1-ultramem-80 2306 512 1024 32 3874
m1-ultramem-160 4.612 512 1024 32 6180
m2-megamem-416 7065 512 1024 32 8.633
m2-ultramem-208 7065 512 1024 32 8.633
m2-ultramem-416 14.092 512 1024 32 15.660
m2-hypermem-416 10.598 512 1024 32 12.166
m3-ultramem-32 1171 488 976 32 2.667
m3-ultramem-64 2.342 512 1024 32 3910
m3-ultramem-128 4684 512 1024 32 6252
m3-megamem-64 1.171 488 976 32 2.667
m3-megamem-128 2342 512 1024 32 3910

Disco permanente SSD

Se vuoi utilizzare più di un volume di dischi permanenti SSD per ospitare il tuo volume /hana/data, quindi assicurati di dividerlo equamente Il valore della dimensione specificato in "/hana/data dimensione (GB)" colonna tra i volumi del disco di cui esegui il provisioning.

Tipo di VM Compute Engine Dimensioni /hana/data (GB) Dimensioni /hana/log (GB) Dimensione /hana/shared (GB) Dimensione /usr/sap (GB) Dimensioni totali (GB)
n1-highmem-32 249 104 208 32 593
n1-highmem-64 499 208 416 32 1.155
n1-highmem-96 748 312 624 32 1.716
n2-highmem-32 307 128 256 32 723
n2-highmem-48 460 192 384 32 1068
n2-highmem-64 614 256 512 32 1.414
n2-highmem-80 768 320 640 32 1760
n2-highmem-96 921 384 768 32 2105
n2-highmem-128 1036 432 864 32 2364
c3-standard-44 254 88 176 32 550
c3-highmem-44 422 176 352 32 982
c3-highmem-88 844 352 704 32 1.932
c3-highmem-176 1.689 512 1024 32 3.257
m1-megamem-96 1.719 512 1024 32 3287
m1-ultramem-40 1.153 480 961 32 2626
m1-ultramem-80 2306 512 1024 32 3874
m1-ultramem-160 4.612 512 1024 32 6180
m2-megamem-416 7065 512 1024 32 8.633
m2-ultramem-208 7065 512 1024 32 8.633
m2-ultramem-416 14.092 512 1024 32 15.660
m2-hypermem-416 10.598 512 1024 32 12.166
m3-ultramem-32 1171 488 976 32 2.667
m3-ultramem-64 2342 512 1024 32 3.910
m3-ultramem-128 4.684 512 1024 32 6252
m3-megamem-64 1.171 488 976 32 2667
m3-megamem-128 2342 512 1024 32 3910

Hyperdisk Extreme

Quando utilizzi Hyperdisk Extreme per ospitare i volumi /hana/data e /hana/log, assicurati di ospitare i volumi /hana/shared e /usr/sap su dischi permanenti bilanciati distinti. Questo perché /hana/shared e I volumi /usr/sap non richiedono prestazioni così elevate come e volumi di log.

Se vuoi usare più di un volume Hyperdisk Extreme per ospitare il tuo volume /hana/data, quindi assicurati di eseguire equamente dividere la dimensione e i valori di IOPS forniti nella "Dimensioni e IOPS di /hana/data (GB)" colonna tra i volumi del disco di cui esegui il provisioning.

Tipo di VM Compute Engine /hana/data dimensioni (GB) e IOPS Dimensioni /hana/log (GB) e IOPS Dimensione /hana/shared (GB) Dimensione /usr/sap (GB) Dimensioni totali (GB)
n2-highmem-80 768 GB con 10.000 IOPS 320 GB con 10.000 IOPS 640 32 1760
n2-highmem-96 921 GB con 10.000 IOPS 384 GB con 10.000 IOPS 768 32 2105
n2-highmem-128 1036 GB con 10.000 IOPS 432 GB con 10.000 IOPS 864 32 2.364
c3-highmem-88 844 GB con 10.000 IOPS 352 GB con 10.000 IOPS 704 32 1.932
c3-highmem-176 1.689 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3.257
c3-highmem-192-metal 1843 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3411
c4-highmem-32 297 GB con 10.000 IOPS 124 GB con 10.000 IOPS 248 32 701
c4-highmem-48 446 GB con 10.000 IOPS 186 GB con 10.000 IOPS 372 32 1.036
c4-highmem-96 892 GB con 10.000 IOPS 372 GB con 10.000 IOPS 744 32 2040
c4-highmem-192 1785 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3.353
m1-megamem-96 1719 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3287
m1-ultramem-80 2.306 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3874
m1-ultramem-160 4.612 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 6180
m2-megamem-416 7065 GB con 14.130 IOPS 512 GB con 3000 IOPS 1024 32 8.633
m2-ultramem-208 7065 GB con 14.130 IOPS 512 GB con 10.000 IOPS 1024 32 8.633
m2-ultramem-416 14.092 GB con 28.184 IOPS 512 GB con 10.000 IOPS 1024 32 15.660
m2-hypermem-416 10.598 GB con 21.196 IOPS 512 GB con 10.000 IOPS 1024 32 12.166
m3-ultramem-64 2342 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3.910
m3-ultramem-128 4.684 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 6252
m3-megamem-64 1.171 GB con 10.000 IOPS 488 GB con 10.000 IOPS 976 32 2667
m3-megamem-128 2.342 GB con 10.000 IOPS 512 GB con 10.000 IOPS 1024 32 3910

Hyperdisk bilanciato

Per SAP HANA, le IOPS di provisioning supportate minime sono 3000 e il throughput è 400 MBps. Tuttavia, puoi ottimizzare questi valori in base ai tuoi requisiti di prestazioni specifici. Ti consigliamo un valore iniziale di 3000 IOPS e un throughput di 750 MB/s, poiché si tratta dei valori predefiniti utilizzati nei file di configurazione di Terraform che Google Cloud fornisce per il deployment automatico di SAP HANA.

Se vuoi utilizzare più di un volume Hyperdisk bilanciato per ospitare il volume /hana/data, assicurati di suddividere equamente i valori di dimensioni, IOPS e throughput forniti nella colonna "Dimensioni (GB), IOPS e throughput di /hana/data" tra i volumi dei dischi di cui esegui il provisioning.

Tipo di VM Compute Engine /hana/data dimensioni (GB), IOPS e velocità effettiva /hana/log dimensioni (GB), IOPS e velocità effettiva Dimensione /hana/shared (GB) Dimensione /usr/sap (GB) Dimensioni totali (GB)
c3-standard-44 211 GB con 10.000 IOPS e velocità effettiva di 400 Mbps 88 GB con 3000 IOPS e 400 Mbps di velocità effettiva 176 32 507
c3-highmem-44 422 GB con 10.000 IOPS e una velocità effettiva di 400 MBps 176 GB con 3000 IOPS e una velocità effettiva di 400 MBps 352 32 982
c3-highmem-88 844 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps 352 GB con 3000 IOPS e velocità effettiva di 400 MBps 704 32 1.932
c3-highmem-176 1.689 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s 1024 32 3.257
c3-highmem-192-metal 1843 GB con 10.000 IOPS e velocità effettiva di 1.200 MBps 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s 1024 32 3411
c4-highmem-32 297 GB con 10.000 IOPS e velocità in uscita di 400 MBps 124 GB con 3000 IOPS e 400 Mbps di velocità effettiva 248 32 701
c4-highmem-48 446 GB con 10.000 IOPS e velocità effettiva di 400 MBps 186 GB con 3000 IOPS e 400 Mbps di velocità effettiva 372 32 1036
c4-highmem-96 892 GB con 10.000 IOPS e 800 MBps di throughput 372 GB con 3000 IOPS e 400 Mbps di velocità effettiva 744 32 2.040
c4-highmem-192 1.785 GB con 10.000 IOPS e 800 MBps di throughput 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 3.353
m1-megamem-96 1719 GB con 8000 IOPS e velocità in uscita di 1000 MBps 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 3.287
m1-ultramem-40 1153 GB con 8000 IOPS e una velocità effettiva di 900 MBps 480 GB con 3000 IOPS e 400 Mbps di velocità effettiva 961 32 2626
m1-ultramem-80 2306 GB con 10.000 IOPS e velocità in uscita di 1.200 MBps 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 3874
m1-ultramem-160 4612 GB con 15.000 IOPS e velocità effettiva di 1.200 MBps 512 GB con 3000 IOPS e 400 MB/s di throughput 1024 32 6180
m2-megamem-416 7065 GB con 20.000 IOPS e una velocità in uscita di 1.200 MB/s 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 8.633
m2-ultramem-208 7065 GB 20.000 IOPS e un throughput di 1.200 MB/s 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 8.633
m2-ultramem-416 14.092 GB con 20.000 IOPS e una velocità in uscita di 1.200 MBps 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 15.660
m2-hypermem-416 10.598 GB con 20.000 IOPS e velocità effettiva di 1.200 MBps 512 GB con 3000 IOPS e 400 MB/s di throughput 1024 32 12.166
m3-ultramem-32 1171 GB con 10.000 IOPS e una velocità effettiva di 900 MBps 488 GB con 3000 IOPS e 400 MBps di velocità effettiva 976 32 2667
m3-ultramem-64 2342 GB con 10.000 IOPS e un throughput di 1.200 MBps 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s 1024 32 3910
m3-ultramem-128 4.684 GB con 10.000 IOPS e 1200 MBps di throughput 512 GB con 3000 IOPS e una velocità effettiva di 400 MB/s 1024 32 6252
m3-megamem-64 1.171 GB con 10.000 IOPS e velocità effettiva di 900 Mbps 488 GB con 3000 IOPS e 400 Mbps di velocità effettiva 976 32 2.667
m3-megamem-128 2342 GB con 10.000 IOPS e un throughput di 1.200 MBps 512 GB con 3000 IOPS e 400 Mbps di velocità effettiva 1024 32 3.910

Dimensioni dei dischi per il montaggio di tutti i volumi SAP HANA su un singolo disco

Le dimensioni nella tabella seguente presuppongono che venga utilizzato un unico disco ospitare tutti i seguenti volumi: /hana/data, /hana/log, /hana/shared e /usr/sap come i bilanciatori del carico e i volumi di archiviazione.

Disco permanente con carico bilanciato

Tipo di VM Compute Engine Dimensioni (GB)
n1-highmem-32 943
n1-highmem-64 1.155
n1-highmem-96 1716
n2-highmem-32 943
n2-highmem-48 1.068
n2-highmem-64 1.414
n2-highmem-80 1760
n2-highmem-96 2105
n2-highmem-128 2364
c3-standard-44 943
c3-highmem-44 982
c3-highmem-88 1932
c3-highmem-176 3257
m1-megamem-96 3.287
m1-ultramem-40 2626
m1-ultramem-80 3.874
m1-ultramem-160 6180
m2-megamem-416 8.633
m2-ultramem-208 8.633
m2-ultramem-416 15.660
m2-hypermem-416 12.166
m3-ultramem-32 2667
m3-ultramem-64 3.910
m3-ultramem-128 6252
m3-megamem-64 2.667
m3-megamem-128 3.910

Disco permanente SSD

Tipo di VM Compute Engine Dimensioni (GB)
n1-highmem-32 593
n1-highmem-64 1.155
n1-highmem-96 1716
n2-highmem-32 723
n2-highmem-48 1.068
n2-highmem-64 1.414
n2-highmem-80 1760
n2-highmem-96 2105
n2-highmem-128 2364
c3-standard-44 550
c3-highmem-44 982
c3-highmem-88 1.932
c3-highmem-176 3.257
m1-megamem-96 3.287
m1-ultramem-40 2.626
m1-ultramem-80 3.874
m1-ultramem-160 6180
m2-megamem-416 8.633
m2-ultramem-208 8.633
m2-ultramem-416 15.660
m2-hypermem-416 12.166
m3-ultramem-32 2667
m3-ultramem-64 3910
m3-ultramem-128 6252
m3-megamem-64 2.667
m3-megamem-128 3.910

Hyperdisk Extreme

Tipo di VM Compute Engine Dimensioni (GB) e IOPS
n2-highmem-80 1760 GB con 20.000 IOPS
n2-highmem-96 2105 GB con 20.000 IOPS
n2-highmem-128 2364 GB con 20.000 IOPS
c3-highmem-88 1.932 GB con 20.000 IOPS
c3-highmem-176 3.257 GB con 20.000 IOPS
c3-highmem-192-metal 3.411 GB con 20.000 IOPS
c4-highmem-32 701 GB con 20.000 IOPS
c4-highmem-48 1.036 GB con 20.000 IOPS
c4-highmem-96 2.040 GB con 20.000 IOPS
c4-highmem-192 3353 GB con 20.000 IOPS
m1-megamem-96 3.287 GB con 20.000 IOPS
m1-ultramem-80 3.874 GB con 20.000 IOPS
m1-ultramem-160 6180 GB con 20.000 IOPS
m2-megamem-416 8.633 GB con 24.130 IOPS
m2-ultramem-208 8.633 GB con 24.130 IOPS
m2-ultramem-416 15.660 GB con 38.184 IOPS
m2-hypermem-416 12.166 GB con 31.196 IOPS
m3-ultramem-64 3910 GB con 20.000 IOPS
m3-ultramem-128 6252 GB con 20.000 IOPS
m3-megamem-64 2667 GB con 20.000 IOPS
m3-megamem-128 3.910 GB con 20.000 IOPS

Hyperdisk bilanciato

Tipo di VM Compute Engine Dimensioni (GB), IOPS e velocità effettiva
c3-standard-44 507 GB con 13.000 IOPS e velocità effettiva di 800 Mbps
c3-highmem-44 982 GB con 13.000 IOPS e una velocità effettiva di 800 MB/s
c3-highmem-88 1932 GB con 13.000 IOPS e velocità in uscita di 1600 MBps
c3-highmem-176 3.257 GB con 13.000 IOPS e 1600 Mbps di throughput
c3-highmem-192-metal 3.411 GB con 13.000 IOPS e 1600 Mbps di throughput
c4-highmem-32 701 GB con 13.000 IOPS e velocità in uscita di 800 MB/s
c4-highmem-48 1.036 GB con 13.000 IOPS e velocità in uscita di 800 MBps
c4-highmem-96 2.040 GB con 13.000 IOPS e 1200 MBps di throughput
c4-highmem-192 3353 GB con 13.000 IOPS e velocità in uscita di 1.200 MBps
m1-megamem-96 3287 GB con 11.000 IOPS e un throughput di 1400 MB/s
m1-ultramem-40 2.626 GB con 11.000 IOPS e 1300 Mbps di velocità effettiva
m1-ultramem-80 3.874 GB con 13.000 IOPS e 1600 Mbps di throughput
m1-ultramem-160 6180 GB con 18.000 IOPS e 1600 Mbps di throughput
m2-megamem-416 8.633 GB con 23.000 IOPS e 1.600 MBps di throughput
m2-ultramem-208 8.633 GB con 23.000 IOPS e 1.600 MBps di throughput
m2-ultramem-416 15.660 GB con 23.000 IOPS e 1600 Mbps di throughput
m2-hypermem-416 12.166 GB con 23.000 IOPS e 1600 Mbps di throughput
m3-ultramem-32 2667 GB con 13.000 IOPS e 1300 Mbps di velocità effettiva
m3-ultramem-64 3.910 GB con 13.000 IOPS e 1600 Mbps di throughput
m3-ultramem-128 6252 GB con 13.000 IOPS e 1600 Mbps di throughput
m3-megamem-64 2.667 GB con 13.000 IOPS e 1300 Mbps di throughput
m3-megamem-128 3.910 GB con 13.000 IOPS e 1600 Mbps di throughput

Determinazione della dimensione del disco permanente o dell'Hyperdisk

Calcola la quantità di spazio di archiviazione su disco permanente necessaria per SAP HANA volumi in base alla quantità di memoria selezionata del tipo di macchina Compute Engine.

Le seguenti indicazioni sulle dimensioni dei dischi si riferiscono alle dimensioni minime consigliate da Google Cloud e SAP per i tuoi deployment al fine di bilanciare le prestazioni e il costo totale di proprietà. Disco le dimensioni possono essere aumentate fino al limite supportato dai tipi di disco sottostanti. Per informazioni sulle dimensioni minime richieste, consulta Dimensioni minime per i dischi permanenti basati su SSD.

Requisiti relativi alle dimensioni dei dischi permanenti per i sistemi di scalabilità verticale

Per i sistemi SAP HANA scalabili verticalmente, utilizza le seguenti formule per ogni volume:

  • /hana/data: 1,2 x memoria
  • /hana/log: 0,5 x di memoria o 512 GB, a seconda del valore più piccolo
  • /hana/shared: 1 volta la memoria o 1024 GB, a seconda del valore più piccolo
  • /usr/sap: 32 GB
  • /hanabackup: 2 memoria, allocazione facoltativa
Requisiti relativi alle dimensioni dei dischi permanenti per i sistemi scale-out

Per i sistemi di scale out SAP HANA, utilizza la stessa formula dei sistemi di scale up di SAP HANA per volumi /hana/data, /hana/log e /usr/sap. Per il volume /hana/shared, calcola le dimensioni del disco permanente o Hyperdisk in base al numero di host worker nel tuo deployment. Per ogni quattro host worker, aumenta la dimensione del disco di 1 x memoria, o 1 TB, a seconda di quale sia il più piccolo. Ad esempio:

  • Da 1 a 4 host worker: 1 x memoria o 1 TB, a seconda di quale delle due opzioni è più piccola
  • Da 5 a 8 host worker: il doppio della memoria o 2 TB, a seconda del valore più piccolo
  • Da 9 a 12 host worker: 3 volte la memoria o 3 TB, a seconda del valore più piccolo
  • Da 13 a 16 host worker: 4 x di memoria o 4 TB, a seconda di quale delle due opzioni è più piccola

Per determinare i requisiti complessivi per la quota di archiviazione per i sistemi di scale out SAP HANA, devi sommare le dimensioni dei dischi per ciascun tipo di disco utilizzato degli host nel sistema di scale out. Ad esempio, se hai inserito /hana/data e /hana/log su dischi permanenti pd-ssd, ma /hana/shared e /usr/sap su pd-balanced dischi permanenti, devi avere totali separati per pd-ssd e pd-balanced per richiedono quote separate.

Per un sistema SAP HANA scalabile orizzontalmente con failover automatico dell'host, devi solo calcolare le dimensioni del disco permanente per gli host master e worker. Gli host in standby non hanno i propri volumi /hana/data, /hana/log e /usr/sap. In caso di guasto, il failover automatico di SAP HANA smonta i volumi /hana/data, /hana/log e /usr/sap dall'host guasto e li monta su un host di riserva. I volumi /hana/shared e /hanabackup per un host di riserva sono montati su una soluzione NFS di cui è stato eseguito il deployment separatamente.

Allocazione di spazio di archiviazione su disco permanente aggiuntivo

Seleziona una dimensione del disco permanente o Hyperdisk non inferiore a quella minima indicata per il tipo di disco permanente o Hyperdisk in Dimensioni minime per i volumi Hyperdisk e Persistent Disk basati su SSD.

Se utilizzi dischi permanenti SSD o bilanciati, la dimensione minima potrebbe essere determinata dai requisiti di prestazioni di SAP HANA anziché dai requisiti di archiviazione di SAP HANA.

Ad esempio, se esegui SAP HANA su un'istanza VM n2-highmem-32, che ha 256 GB di memoria, il requisito di spazio di archiviazione totale I volumi SAP HANA sono di 723 GB: 307 GB per il volume di dati, 128 GB per il log volume, 256 GB per il volume condiviso e 32 GB per il volume /usr/sap. Tuttavia, se utilizzi un disco persistente bilanciato, le dimensioni minime richieste sono 943 GB, dove i 220 GB aggiuntivi vengono allocati al volume di dati per soddisfare le prestazioni richieste. Pertanto, se utilizzi un'istanza VM n2-highmem-32 con dischi permanenti bilanciati per eseguire SAP HANA, devi eseguire il provisioning di uno spazio di archiviazione su disco permanente di almeno 943 GB.

devi quindi dimensionare un disco permanente di almeno 943 GB. La previsione aggiuntiva di 220 GB viene applicata al volume di dati per fornire il rendimento richiesto.

Applica eventuali spazi di archiviazione su disco permanente aggiuntivi al volume /hana/data.

Per informazioni di SAP sulle dimensioni di SAP HANA, consulta Dimensionamento di SAP HANA.

Prestazioni Hyperdisk

Hyperdisk fornisce un numero massimo di IOPS e opzioni di velocità effettiva per i volumi /hana/log e /hana/data rispetto agli altri Dischi permanenti basati su SSD. Per ulteriori informazioni il provisioning di IOPS e le opzioni di velocità effettiva per Hyperdisk, vedi Informazioni sulle IOPS e sul provisioning della velocità effettiva per Hyperdisk.

A differenza dei dischi permanenti basati su SSD, quando usi Hyperdisk con SAP HANA, non devi preoccuparti delle prestazioni quando dimensioni dell'Hyperdisk. Le dimensioni di Hyperdisk si basano unicamente sui requisiti di spazio di archiviazione di SAP HANA. Per ulteriori informazioni sul dimensionamento dei dischi permanenti o di Hyperdisk, consulta Determinare le dimensioni del disco permanente.

Utilizzando Hyperdisk con SAP HANA, per garantire le migliori prestazioni, consigliamo di aggiornare le proprietà di sistema SAP HANA come segue:

  • Aggiorna il tuo file global.ini:
    • Nella sezione fileio, imposta num_completion_queues = 12
    • Nella sezione fileio, imposta num_submit_queues = 12
  • Aggiorna il file indexserver.ini:
    • Nella sezione parallel, imposta tables_preloaded_in_parallel = 32
    • Nella sezione global, imposta load_table_numa_aware = true

Quando crei un volume Hyperdisk Extreme, il numero di IOPS di cui esegui il provisioning ne determina la velocità effettiva massima. Puoi utilizzare la seguente formula come punto di partenza. Fornisce una velocità effettiva minima di 2500 MBps (256 KB per IOPS * 10.000 IOPS) e più per tipi di macchine più grandi con dischi più grandi.

  • Quando utilizzi il deployment predefinito con dischi separati per /hana/log e /hana/data:
    • IOPS per il disco di dati: maximum(10,000, size of data disk in GB * 2)
    • IOPS per il disco dei log: maximum(10,000, size of log disk in GB * 2)
  • Quando viene utilizzato un singolo disco per /hana/data, /hana/log, /hana/shared e /usr/sap:
    • IOPS per disco: maximum(10,000, size of data disk GB * 2) + maximum(10,000, size of log disk in GB * 2)

Il numero massimo di IOPS di cui puoi eseguire il provisioning può variano a seconda del tipo di macchina in uso. Per un elenco delle macchine che supportano Hyperdisk Extreme, come nonché le IOPS e la velocità effettiva massime che Hyperdisk Extreme può fornire con ogni tipo di macchina, vedi Supporto dei tipi di macchina.

Quando crei un volume Hyperdisk bilanciato, puoi eseguire il provisioning delle IOPS e della velocità effettiva per soddisfare le esigenze di prestazioni del tuo carico di lavoro, tenendo conto delle regole per il provisioning delle IOPS e il provisioning della velocità effettiva. Per SAP HANA, il numero minimo di IOPS di cui è stato eseguito il provisioning supportato è 3000 e il throughput è 400 MBps.

Dischi permanenti e Hyperdisk di cui è stato eseguito il deployment tramite gli script di automazione del deployment

Quando esegui il deployment di un sistema SAP HANA utilizzando le configurazioni Terraform fornite da Google Cloud, lo script di deployment alloca i dischi o gli Hyperdisk permanenti per i volumi SAP come segue:

  • Per impostazione predefinita, viene eseguito il deployment di dischi separati per ciascuna delle seguenti directory: /hana/data, /hana/log, /hana/shared e /usr/sap.

    Facoltativamente, puoi scegliere di eseguire il deployment di un layout a disco singolo in cui il disco permanente o Hyperdisk ospita queste directory SAP. Inoltre, per i deployment scalabili di SAP HANA, la directory /hana/shared è ospitata da una soluzione NFS.

  • Facoltativamente, un disco per la directory /hanabackup.

L'esempio seguente mostra come Terraform mappa i volumi per SAP HANA su un VM n2-highmem-32 di Compute Engine, con 256 GB di memoria.

hana-ssd-example:~ # lvs
  LV     VG             Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data   vg_hana_data   -wi-ao---- 308.00g
  log    vg_hana_log    -wi-ao---- 128.00g
  shared vg_hana_shared -wi-ao---- 256.00g
  usrsap vg_hana_usrsap -wi-ao----  32.00g
  backup vg_hanabackup  -wi-ao---- 512.00g

Le dimensioni dei volumi per lo stesso tipo di macchina potrebbero differire leggermente da come mostrato in questo esempio.

Quando usi i modelli di Deployment Manager che Google Cloud fornisce SAP HANA o se scegli di eseguire il deployment di layout a disco singolo utilizzando le configurazioni Terraform, lo script di deployment mappa le metriche SAP HANA /hana/data, /hana/log, /usr/sap e /hana/shared ciascuna directory al proprio volume logico per ridimensionarle facilmente e mapparle il disco permanente basato su SSD o Hyperdisk in un singolo gruppo di volumi. Terraform o Deployment Manager mappa la directory /hanabackup a un volume logico in un gruppo di volumi separato, che viene poi mappato a un un disco permanente (pd-balanced).

Spazio di archiviazione su disco permanente facoltativo per i backup

Quando si archiviano i backup SAP HANA su un disco, è consigliabile utilizzare un disco permanente bilanciato (pd-balanced).

Se vuoi ridurre i costi, puoi utilizzare un disco permanente HDD standard (pd-standard). Tuttavia, utilizza un disco permanente bilanciato quando è necessario un throughput o una concorrenza superiori.

La dimensione del volume di backup SAP HANA è progettata per fornire una base di riferimento e oltre alla capacità di conservare diversi set di backup. Blocco set di backup multipli nel volume di backup facilita il recupero se necessario.

Per rendere i backup SAP HANA disponibili come risorsa di regione per il ripristino di emergenza, puoi utilizzare snapshot di disco permanente di Compute Engine. Puoi pianificare gli snapshot per eseguire regolarmente e automaticamente il backup del tuo disco permanente. Per saperne di più, consulta Snapshot di dischi permanenti.

Se utilizzi il tiering dinamico SAP HANA, lo spazio di archiviazione di backup deve essere sufficientemente grande da contenere sia i dati in memoria sia quelli gestiti su disco dal server di tiering dinamico.

Puoi utilizzare altri meccanismi per archiviare i backup di SAP HANA. Se utilizzi la funzionalità Backint dell'agente per SAP di Google Cloud, puoi eseguire il backup di SAP HANA direttamente in un bucket Cloud Storage, il che rende facoltativo l'utilizzo di un disco persistente per l'archiviazione dei backup.

Tiering dinamico SAP HANA

Il tiering dinamico SAP HANA è certificato da SAP per l'utilizzo in ambienti di produzione su Google Cloud. Il tiering dinamico SAP HANA estende lo spazio di archiviazione dei dati SAP HANA memorizzando i dati a cui si accede raramente su disco anziché in memoria.

Per ulteriori informazioni, consulta SAP HANA Dynamic Tiering on Google Cloud.

Opzione di riavvio rapido SAP HANA

Per SAP HANA 2.0 SP04 e versioni successive, Google Cloud consiglia vivamente l'opzione di riavvio rapido di SAP HANA.

Questa opzione viene attivata automaticamente se esegui il deployment di SAP HANA utilizzando il modulo Terraform sap_hana o sap_hana_ha di Google Cloud, versione 202309280828 o successive. Per informazioni su come attivare manualmente il riavvio rapido di SAP HANA, consulta Attivare il riavvio rapido di SAP HANA.

Il riavvio rapido SAP HANA riduce i tempi di riavvio nel caso in cui SAP HANA termina, ma il sistema operativo rimane in esecuzione. Per ridurre il tempo di riavvio, SAP HANA sfrutta la funzionalità di memoria persistente di SAP HANA per preservare i frammenti di dati MAIN delle tabelle del magazzino delle colonne nella DRAM mappata al file system tmpfs.

Inoltre, nelle VM delle famiglie M2 e M3 dei tipi di macchine con memoria ottimizzata di Compute Engine, il riavvio rapido di SAP HANA migliora il tempo di recupero se si verificano errori non correggibili in memoria. Per ulteriori informazioni, consulta Recupero da errori di memoria con il riavvio rapido nelle VM Compute Engine.

Impostazioni del sistema operativo richieste per il riavvio rapido di SAP HANA

Per utilizzare il riavvio rapido di SAP HANA, il sistema operativo deve essere ottimizzato come richiesto da SAP.

Se utilizzi i file di configurazione Terraform i modelli Deployment Manager Google Cloud fornisce, quindi le impostazioni del kernel sono impostate per te.

Se non utilizzi i file di deployment forniti da Google Cloud, SAP fornisce indicazioni per la configurazione dei sistemi operativi RHEL e SLES per SAP HANA. Per il riavvio rapido di SAP HANA, presta particolare attenzione all'impostazione corretta di numa_balancing e transparent_hugepage.

Se utilizzi RHEL, utilizza il profilo ottimizzato sap-hana, se disponibile. Per la procedura di configurazione, consulta:

Se utilizzi SLES, usa lo strumento saptune di SUSE per applicare le configurazione. Per applicare tutte le impostazioni SAP HANA consigliate, incluse entrambi i parametri kernel precedenti, specifica quanto segue Comando saptune:

saptune solution apply HANA

Per ulteriori informazioni sulla configurazione di SLES per SAP HANA, consulta:

Ripristino degli errori di memoria con il riavvio rapido sulle VM di Compute Engine

L'attivazione del riavvio rapido di SAP HANA sulle VM delle famiglie M2 e M3 di tipi di macchine con memoria ottimizzata di Compute Engine riduce il tempo necessario a SAP HANA per recuperare da errori di memoria non correggibili.

Sfruttando le funzionalità dei processori Intel, i tipi di macchine M2 e M3 possono continuare a funzionare quando si verificano errori non correggibili nel sottosistema di memoria. Se il riavvio rapido di SAP HANA è abilitato quando si verifica l'errore di memoria, il processo SAP HANA interessato si riavvia, ma non è necessario ricaricare l'intero database, ma solo il blocco del file interessato.

Tipi di macchine che supportano il recupero da errori di memoria

I seguenti tipi di macchine Compute Engine supportano il recupero degli errori di memoria:

  • m3-ultramem-32
  • m3-ultramem-64
  • m3-ultramem-128
  • m3-megamem-64
  • m3-megamem-128
  • m2-ultramem-208
  • m2-ultramem-416
  • m2-megamem-416
  • m2-hypermem-416
Sistemi operativi richiesti per il recupero degli errori di memoria

Con le patch del kernel richieste, i seguenti sistemi operativi supportano recupero degli errori di memoria con il riavvio rapido di SAP HANA:

  • SUSE Linux Enterprise Server (SLES) for SAP, 12 SP3 o versioni successive.
    • Incluso nelle immagini pubbliche di Compute Engine con data di compilazione v202103* o successiva.
    • Se devi applicare le patch del kernel più recenti a una segui il processo di aggiornamento standard. Ad esempio: invia i seguenti comandi:
      • sudo zypper refresh
      • aggiornamento sudo zypper
  • Red Hat Enterprise Linux (RHEL) for SAP, 8.4 o versioni successive.

Opzioni file server

Le opzioni di file server per SAP HANA su Google Cloud includono Filestore e NetApp Cloud Volumes Service per Google Cloud.

Per ulteriori informazioni su tutte le opzioni del file server per SAP su Google Cloud, vedi Soluzioni di condivisione file per SAP su Google Cloud.

Filestore

Per il volume /hana/shared in una configurazione di scalabilità in una singola zona, consigliamo di utilizzare il livello di servizio Filestore Basic, poiché è progettato per le risorse zonali. Per gli scenari in cui è necessaria una maggiore resilienza, puoi utilizzare Filestore Enterprise. Per ulteriori informazioni, vedi Componenti in un sistema di scale out SAP HANA su Google Cloud.

Servizio NetApp Cloud Volumes per Google Cloud

NetApp Cloud Volumes Service per Google Cloud è un servizio cloud-native completamente gestito piattaforma di servizi dati che puoi utilizzare per creare un file system NFS per SAP Sistemi di scale up di HANA su tutti i tipi di istanze Compute Engine che certificato per SAP HANA. Per informazioni sull'utilizzo di NetApp Cloud Volumes Service per Google Cloud con il tuo deployment di SAP HANA, consulta Informazioni su NetApp Cloud Volumes Service per Google Cloud.

Identificazione degli utenti e accesso alle risorse

Quando pianifichi la sicurezza per un deployment SAP su Google Cloud, è necessario identificare:

  • Gli account utente e le applicazioni che necessitano dell'accesso Risorse Google Cloud nel tuo progetto Google Cloud
  • Le risorse Google Cloud specifiche nel tuo progetto che ogni utente deve accedere

Devi aggiungere ciascun utente al progetto aggiungendo il relativo ID Account Google al progetto come entità. Per un programma di applicazione che utilizza le risorse Google Cloud, crei un account di servizio, che fornisce un'identità utente per il programma all'interno del tuo progetto.

Le VM di Compute Engine hanno il proprio account di servizio. Qualsiasi programma che eseguite su una VM possono utilizzare l'account di servizio della VM, purché il servizio VM che disponga delle autorizzazioni per le risorse necessarie al programma.

Dopo aver identificato le risorse Google Cloud di cui ogni utente ha bisogno per l'utilizzo, concedi a ciascun utente l'autorizzazione a utilizzare ciascuna risorsa assegnando ruoli specifici delle risorse all'utente. Esamina i ruoli predefiniti forniti dall'IAM per ogni risorsa e assegna a ogni utente ruoli che forniscono autorizzazioni sufficienti per completare le attività o le funzioni dell'utente e non di più.

Se hai bisogno di un controllo più granulare o restrittivo sulle autorizzazioni rispetto forniti dai ruoli IAM predefiniti, puoi creare ruoli personalizzati.

Per saperne di più sui ruoli IAM di cui hanno bisogno i programmi SAP su Google Cloud, consulta Gestione di identità e accessi per i programmi SAP su Google Cloud.

Per una panoramica della gestione di identità e accessi per SAP su Google Cloud, consulta Panoramica della gestione di identità e accessi per SAP su Google Cloud.

Tipi di macchine Bare Metal per SAP HANA

Questa sezione fornisce informazioni sull'esecuzione di SAP HANA sui tipi di macchine bare metal forniti da Compute Engine, tra cui:

Archiviazione a blocchi supportata per X4

Per fornire l'archiviazione a blocchi per l'esecuzione di carichi di lavoro SAP HANA su macchine X4, puoi utilizza Hyperdisk Extreme o Hyperdisk Balanced come i bilanciatori del carico e i volumi di archiviazione.

Per informazioni sulle configurazioni di archiviazione consigliate da Google Cloud per le istanze X4, consulta le sezioni seguenti:

Configurazione con ottimizzazione dei costi

La tabella seguente mostra una configurazione dello spazio di archiviazione con ottimizzazione dei costi per l'esecuzione di SAP HANA su tipi di macchine X4. Le dimensioni nella tabella seguente presuppongono che tu il montaggio di tutti i volumi SAP HANA su singoli dischi.

Tipo di macchina Volume di avvio (GB) /usr/sap (GB) /hana/shared (GB) Dimensioni (GB), IOPS e velocità effettiva di /hana/log /hana/data (GB), IOPS e velocità effettiva
Hyperdisk bilanciato
x4-megamem-960-metal 50 32 1024 512 GB con 10.000 IOPS e velocità effettiva di 2400 Mbps 16.384 GB con 16.384 IOPS e 2.400 Mbps di throughput
x4-megamem-1440-metal 50 32 1024 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mbps 24.576 GB con 24.576 IOPS e una velocità effettiva di 2.400 Mbps
x4-megamem-1920-metal 50 32 1024 512 GB con 10.000 IOPS e velocità effettiva di 2400 Mbps 32.768 GB con 32.768 IOPS e una velocità effettiva di 2400 Mbps
Configurazione ottimizzata per le prestazioni

La tabella seguente mostra una configurazione dello spazio di archiviazione ottimizzata per le prestazioni per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni nella tabella seguente presuppongono che montano tutti i volumi SAP HANA su singoli dischi.

Tipo di macchina Volume di avvio (GB) /usr/sap (GB) /hana/shared (GB) Dimensioni (GB), IOPS e velocità effettiva di /hana/log /hana/data (GB), IOPS e velocità effettiva
Hyperdisk bilanciato Hyperdisk Extreme
x4-megamem-960-metal 50 32 1024 512 GB con 10.000 IOPS e velocità effettiva di 2400 Mbps 16.384 GB con 32.768 IOPS e 5.000 Mbps di throughput
x4-megamem-1440-metal 50 32 1024 512 GB con 10.000 IOPS e una velocità effettiva di 2400 Mb/s 24.576 GB con 49.152 IOPS e una velocità effettiva di 5.000 Mb/s
x4-megamem-1920-metal 50 32 1024 512 GB con 10.000 IOPS e velocità effettiva di 2400 Mbps 32.768 GB con 65.536 IOPS e 5000 Mbps di throughput
Configurazione flessibile delle prestazioni

La tabella seguente mostra una configurazione di archiviazione che offre prestazioni flessibili per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni riportate nella tabella seguente presuppongono che tu monti tutti i volumi SAP HANA su singoli dischi.

Tipo di macchina Volume di avvio (GB) /usr/sap (GB) /hana/shared (GB) Dimensioni (GB), IOPS e velocità effettiva di /hana/log /hana/data (GB), IOPS e velocità effettiva
Hyperdisk bilanciato Hyperdisk Extreme
x4-megamem-960-metal 50 32 1024 512 GB con 10.000 IOPS e una velocità effettiva di 2.500 Mbps 16.384 GB con 32.768 IOPS e 5.000 Mbps di throughput
x4-megamem-1440-metal 50 32 1024 512 GB con 10.000 IOPS e velocità effettiva di 2500 Mbps 24.576 GB con 49.152 IOPS e 5000 Mbps di throughput
x4-megamem-1920-metal 50 32 1024 512 GB con 10.000 IOPS e una velocità effettiva di 2.500 Mbps 32.768 GB con 65.536 IOPS e 5000 Mbps di throughput

Automazione del deployment

Per eseguire SAP HANA, puoi eseguire il deployment delle istanze bare metal utilizzando le configurazioni Terraform fornite da Google Cloud. Queste configurazioni sono progettate eseguire queste operazioni per impostazione predefinita:

  • Esegui il deployment dei volumi Hyperdisk Extreme per ospitare i volumi di dati e log SAP HANA. Per eseguire il deployment di volumi Hyperdisk bilanciati, usa l'argomento Terraform disk_type.
  • Abilita l'opzione Riavvio rapido di SAP HANA.
  • Se ospiti il volume di backup di SAP HANA su un disco, per impostazione predefinita queste configurazioni Terraform eseguono il deployment di un volume Hyperdisk bilanciato. Questo deployment del disco è determinato dall'argomento Terraform backup_disk_type.

Per informazioni sulle configurazioni Terraform che Google Cloud per il deployment di SAP HANA, consulta Soluzioni SAP supportate.

Attività di post-deployment

Dopo aver eseguito il deployment di un'istanza bare metal per eseguire SAP HANA, ti consigliamo di farlo le seguenti:

Hyperthreading

L'hyperthreading è abilitato per impostazione predefinita ed è l'impostazione consigliata per tutti i tipi di macchine Compute Engine.

Per le prestazioni ottimali di SAP HANA su istanze di calcolo con oltre 1000 per le vCPU, consigliamo vivamente di utilizzare SAP HANA 2.0 SPS7 revisione 76 o in un secondo momento.

Se esegui una versione precedente di SAP HANA con un carico di lavoro OLTP sul computing con più di 1000 vCPU la disattivazione dell'hyperthreading potrebbe avere un vantaggio marginale in termini di prestazioni. Me consigliamo di eseguire il test durante la verifica di carico. Per informazioni sulla disattivazione l'hyperthreading per la tua istanza X4 utilizzando l'agente per SAP di Google Cloud, consulta Disabilita l'hyperthreading per un'istanza X4.

Considerazioni su prezzi e quote per SAP HANA

Sei responsabile dei costi sostenuti per l'utilizzo delle risorse create seguendo questa guida al deployment. Utilizza il Calcolatore prezzi per stimare i costi effettivi.

Quote

SAP HANA richiede più CPU e memoria di molti carichi di lavoro su Google Cloud. Se hai un nuovo account Google Cloud o se non hai richiesto un aumento della quota, devi farlo per eseguire il deployment di SAP HANA.

La tabella seguente mostra i valori di quota per i sistemi SAP HANA con un solo host e scalabilità verticale in base al tipo di istanza VM.

Per un sistema SAP HANA con scale out o più sistemi di scale up, devi includere le quantità totali di risorse per tutti i sistemi. Per indicazioni su come determinare i requisiti di archiviazione per i sistemi scalabili, vedi Determinare le dimensioni del disco permanente.

Visualizza la quota esistente, e confrontali con i requisiti di risorse (CPU, memoria e spazio di archiviazione) per vedere quale aumento richiedere. A questo punto puoi richiedere un aumento del limite di quota.

Sebbene il disco permanente con carico estremo (pd-extreme) sia ancora certificato per l'utilizzo con SAP HANA, ti consigliamo di usare Hyperdisk Extreme, che fornisce con un rendimento migliore. Se vuoi utilizzare dischi permanenti Extreme, devi eseguire il provisioning utilizzando le dimensioni Hyperdisk Extreme.

Disco permanente con carico bilanciato

Tipo di VM Compute Engine vCPU Memoria (GB) Quota (GB)
n1-highmem-32 32 208 943
n1-highmem-64 64 416 1.155
n1-highmem-96 96 624 1.716
n2-highmem-32 32 256 943
n2-highmem-48 48 384 1.068
n2-highmem-64 64 512 1.414
n2-highmem-80 80 640 1760
n2-highmem-96 96 768 2.105
n2-highmem-128 128 864 2.364
c3-standard-44 44 176 507
c3-highmem-44 44 352 982
c3-highmem-88 88 704 1.932
c3-highmem-176 176 1408 3257
m1-megamem-96 96 1433 3.287
m1-ultramem-40 40 961 2.626
m1-ultramem-80 80 1.922 3874
m1-ultramem-160 160 3.844 6.180
m2-megamem-416 416 5.888 8.633
m2-ultramem-208 208 5.888 8.633
m2-ultramem-416 416 11.766 15.660
m2-hypermem-416 416 8.832 12.166
m3-ultramem-32 32 976 2.667
m3-ultramem-64 64 1952 3910
m3-ultramem-128 128 3904 6252
m3-megamem-64 64 976 2.667
m3-megamem-128 128 1952 3910

Disco permanente SSD

Tipo di VM Compute Engine vCPU Memoria (GB) Quota (GB)
n1-highmem-32 32 208 593
n1-highmem-64 64 416 1.155
n1-highmem-96 96 624 1.716
n2-highmem-32 32 256 723
n2-highmem-48 48 384 1.068
n2-highmem-64 64 512 1414
n2-highmem-80 80 640 1760
n2-highmem-96 96 768 2105
n2-highmem-128 128 864 2.364
c3-standard-44 44 176 507
c3-highmem-44 44 352 982
c3-highmem-88 88 704 1.932
c3-highmem-176 176 1408 3.257
m1-megamem-96 96 1433 3287
m1-ultramem-40 40 961 2.626
m1-ultramem-80 80 1.922 3.874
m1-ultramem-160 160 3.844 6180
m2-megamem-416 416 5.888 8.633
m2-ultramem-208 208 5.888 8.633
m2-ultramem-416 416 11.766 15.660
m2-hypermem-416 416 8.832 12.166
m3-ultramem-32 32 976 2667
m3-ultramem-64 64 1952 3.910
m3-ultramem-128 128 3904 6252
m3-megamem-64 64 976 2.667
m3-megamem-128 128 1952 3910

Hyperdisk Extreme

Tipo di VM Compute Engine vCPU Memoria (GB) Quota (GB)
n2-highmem-80 80 640 1760
n2-highmem-96 96 768 2105
n2-highmem-128 128 864 2.364
c3-highmem-88 88 704 1.932
c3-highmem-176 176 1408 3.257
c3-highmem-192-metal 192 1.536 3.411
c4-highmem-32 32 248 701
c4-highmem-48 48 372 1036
c4-highmem-96 96 744 2.040
c4-highmem-192 192 1488 3.353
m1-megamem-96 96 1.433 3287
m1-ultramem-80 80 1.922 3874
m1-ultramem-160 160 3844 6.180
m2-megamem-416 416 5.888 8.633
m2-ultramem-208 208 5.888 8.633
m2-ultramem-416 416 11.766 15.660
m2-hypermem-416 416 8.832 12.166
m3-ultramem-64 64 1952 3910
m3-ultramem-128 128 3904 6252
m3-megamem-64 64 976 2667
m3-megamem-128 128 1952 3.910
x4-megamem-960-metal 960 16.384 17.952
x4-megamem-1440-metal 1440 24.576 26.144
x4-megamem-1920-metal 1920 32.768 34.336

Hyperdisk bilanciato

Tipo di VM Compute Engine vCPU Memoria (GB) Quota (GB)
c3-standard-44 44 176 507
c3-highmem-44 44 352 982
c3-highmem-88 88 704 1.932
c3-highmem-176 176 1408 3257
c3-highmem-192-metal 192 1.536 3.411
c4-highmem-32 32 248 701
c4-highmem-48 48 372 1036
c4-highmem-96 96 744 2040
c4-highmem-192 192 1488 3353
m1-megamem-96 96 1433 3.287
m1-ultramem-40 40 961 2.626
m1-ultramem-80 80 1.922 3874
m1-ultramem-160 160 3.844 6.180
m2-megamem-416 416 5.888 8.633
m2-ultramem-208 208 5.888 8.633
m2-ultramem-416 416 11.766 15.660
m2-hypermem-416 416 8.832 12.166
m3-ultramem-32 32 976 2.667
m3-ultramem-64 64 1952 3910
m3-ultramem-128 128 3904 6252
m3-megamem-64 64 976 2.667
m3-megamem-128 128 1952 3.910
x4-megamem-960-metal 960 16.384 17.952
x4-megamem-1440-metal 1440 24.576 26.144
x4-megamem-1920-metal 1920 32.768 34.336

Disco permanente standard

Tipo di VM Compute Engine vCPU Memoria (GB) Quota (GB)
n1-highmem-32 32 208 448
n1-highmem-64 64 416 864
n1-highmem-96 96 624 1280
n2-highmem-32 32 256 544
n2-highmem-48 48 384 800
n2-highmem-64 64 512 1.056
n2-highmem-80 80 640 1312
n2-highmem-96 96 768 1.568
n2-highmem-128 128 864 1760
m1-megamem-96 96 1.433 2.898
m1-ultramem-40 40 961 1954
m1-ultramem-80 80 1.922 3.876
m1-ultramem-160 160 3844 7.720
m2-megamem-416 416 5.888 11.832
m2-ultramem-208 208 5.888 11.832
m2-ultramem-416 416 11.766 23.564
m2-hypermem-416 416 8.832 17.696

Licenze

L'esecuzione di SAP HANA su Google Cloud richiede la tua licenza.

Per ulteriori informazioni da SAP sulla gestione delle tue licenze SAP HANA, consulta Chiavi di licenza per il database SAP HANA.

Architetture di deployment

Su Google Cloud, puoi eseguire il deployment di SAP HANA in architetture scalabili verticalmente e scalabili orizzontalmente.

Architettura di scale up

Il seguente diagramma mostra l'architettura di scale up. Nel diagramma, tieni presente sia il deployment su Google Cloud sia il layout del disco. Puoi utilizzare Cloud Storage per eseguire il backup dei backup locali disponibili in /hanabackup. Le dimensioni di questo montaggio devono essere uguali o superiori a quelle del montaggio dei dati.

Diagramma dell'architettura per il deployment di un sistema di scale up SAP HANA su Google Cloud.

Su Google Cloud, un'architettura SAP HANA a singolo host e scalabile può includere i seguenti componenti:

  • Un'istanza Compute Engine per il database SAP HANA con una rete di larghezza di banda fino a 32 Gbps o fino a 100 Gbps su tipi di macchina selezionati utilizzando Networking a larghezza di banda elevata. Per informazioni sui tipi di macchina certificati per l'utilizzo con SAP HANA, consulta Tipi di macchine certificati per SAP HANA.

  • Disco permanente o Hyperdisk di Compute Engine basato su SSD volumi, come segue:

  • Regole firewall di Compute Engine che limitano l'accesso alle istanze.

  • Agente di Google Cloud per SAP. Dalla versione 2.0, puoi configurare questo agente per raccogliere i dati SAP HANA di monitoraggio delle metriche, che consentono di monitorare le istanze SAP HANA. Da 3.0, puoi utilizzare anche le sue Backint per archiviare i backup SAP HANA direttamente nel bucket Cloud Storage, e recuperarli in base alle esigenze.

  • Una subnet facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud che preferisci. Il database SAP HANA e le altre istanze Compute Engine vengono avviate all'interno di questa subnet. Puoi utilizzare una subnet esistente per SAP HANA.

  • Componenti facoltativi:

    • SAP HANA Cockpit o SAP HANA Studio su una piccola VM di Compute Engine.

Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:

  • Configurare l'accesso privato Google per consentire alla tua VM di accedere alle API Google Cloud.

  • Utilizza Cloud NAT o configurare una VM come gateway NAT per accedere alla rete internet pubblica.

  • A scopo amministrativo, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, vedi Utilizzo di IAP per l'inoltro TCP.

  • Usa la VM di Compute Engine configurata come bastion host per per accedere alla rete internet pubblica.

Architetture a scale out

L'architettura di scalabilità è composta da un host master, da un numero di host worker e, facoltativamente, da uno o più host di riserva. Gli host sono interconnessi attraverso una rete che supporta l'invio di dati tra host a velocità fino a fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionati utilizzando Networking a larghezza di banda elevata.

Con l'aumento della domanda del carico di lavoro, soprattutto quando si utilizzano i dati analitici online di elaborazione (OLAP), un'architettura di scale out multi-host può distribuire il carico su tutti gli host.

Il seguente diagramma mostra un'architettura di scalabilità per SAP HANA su Google Cloud:

Diagramma dell'architettura per il deployment di un sistema SAP HANA scalabile su Google Cloud.

Gli host in standby supportano la soluzione di ripristino del failover automatico dell'host SAP HANA. Per saperne di più sul failover automatico dell'host su Google Cloud, consulta failover automatico dell'host SAP HANA su Google Cloud.

Il seguente diagramma mostra un'architettura di scalabilità con failover automatico dell'host su Google Cloud.

Diagramma dell'architettura per il deployment di un sistema di scale out SAP HANA su Google Cloud con failover automatico dell'host.

Strutture dei dischi per i sistemi SAP HANA scalabili su Google Cloud

Ad eccezione degli host in standby, ogni host ha i propri /hana/data, /hana/log e di solito, /usr/sap volumi su dischi permanenti basati su SSD o Hyperdisk, che forniscono e coerente e con un numero elevato di IOPS e IO. L'host master funge anche da NFS master per i volumi /hana/shared e /hanabackup e questo NFS master è montato su ogni host worker e standby.

Per un host di riserva, i volumi /hana/data e /hana/log non vengono montati fino a quando non si verifica un takeover.

Componenti di un sistema SAP HANA scalabile orizzontalmente su Google Cloud

Un'architettura di scale out multi-host SAP HANA su Google Cloud contiene i seguenti componenti:

  • 1 istanza VM di Compute Engine per ogni host SAP HANA nel sistema, inclusi 1 host master, fino a 15 host worker e fino a 3 host facoltativi in standby.

    Ogni VM utilizza lo stesso tipo di macchina Compute Engine. Per informazioni sui tipi di macchine certificate per l'utilizzo con SAP HANA, consulta Tipi di macchine certificate per SAP HANA.

  • Volumi Hyperdisk o Persistent Disk basati su SSD, come segue:

    • Ogni VM deve includere un disco, montato nella posizione corretta.
    • Facoltativamente, se non esegui il deployment di un sistema di failover automatico dell'host SAP HANA, e poi un disco per il volume locale /hanabackup per ogni istanza VM.
  • Una soluzione NFS di cui è stato eseguito il deployment separato per la condivisione di /hana/shared e Volumi /hanabackup con gli host worker e standby. Puoi utilizzare Filestore o un'altra soluzione NFS.

  • Regole firewall di Compute Engine o altri controlli di accesso alla rete che limitano l'accesso alle istanze Compute Engine, consentendo al contempo la comunicazione tra le istanze e qualsiasi altra risorsa distribuita o remota richiesta dal sistema SAP HANA.

  • Agente di Google Cloud per SAP. Dalla versione 2.0, puoi configurare questo agente per raccogliere i dati SAP HANA di monitoraggio delle metriche, che consentono di monitorare le istanze SAP HANA. Da 3.0, puoi utilizzare anche le sue Backint per archiviare i backup SAP HANA direttamente nel bucket Cloud Storage, e recuperarli in base alle esigenze.

  • Una subnet facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud che preferisci. Il database SAP HANA mentre le altre istanze di Compute Engine vengono avviate all'interno una subnet. Se preferisci, puoi utilizzare una subnet esistente.

  • Componenti facoltativi:

    • SAP HANA Cockpit o SAP HANA Studio su una piccola VM di Compute Engine.

Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, questo non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:

  • Configura l'accesso privato di Google in modo che la tua VM possa accedere alle API Google Cloud.

  • Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete internet pubblica.

  • A fini amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, consulta Utilizzo di IAP per l'inoltro TCP.

  • Usa la VM di Compute Engine configurata come bastion host per per accedere alla rete internet pubblica.

Disponibilità elevata per i sistemi SAP HANA su Google Cloud

Per progettare una configurazione ad alta disponibilità per SAP HANA su Google Cloud, puoi utilizzare una combinazione di funzionalità Google Cloud, SAP e native del sistema operativo.

Per informazioni sulle opzioni di alta disponibilità, consulta la guida alla pianificazione dell'alta disponibilità di SAP HANA.

Automation per i deployment SAP HANA

Google Cloud fornisce file di configurazione Terraform e modelli di Deployment Manager che puoi utilizzare per automatizzare il deployment dell'infrastruttura Google Cloud e, facoltativamente, di SAP HANA.

Le opzioni di automazione del deployment fornite da Google Cloud supportano i seguenti scenari di deployment di SAP HANA:

  • Scale up
  • Eseguire lo scaling up in un cluster ad alta disponibilità a due nodi
  • Esegui l'escaling senza nodi di riserva
  • Fai lo scale out senza nodi in standby in un cluster ad alta disponibilità
  • Fai lo scale out con i nodi di standby per failover automatico dell'host SAP HANA

Per ulteriori informazioni sull'automazione per gli scenari di implementazione di scalabilità up o out, consulta:

Automazione del deployment dell'istanza SAP HANA

Se vuoi, puoi includere l'installazione di SAP HANA con il deployment automatico dell'infrastruttura Google Cloud.

Gli script di installazione forniti da Google Cloud installano SAP HANA dopo il deployment dell'infrastruttura.

In caso di problemi, installazione di un'istanza SAP HANA, di solito l'infrastruttura è di cui è stato eseguito il deployment e configurato. Puoi quindi utilizzare l'infrastruttura di cui hai eseguito il deployment e installare manualmente SAP HANA o eliminare l'infrastruttura, ed eseguire nuovamente l'automazione del deployment fino a quando l'istanza SAP HANA è installato correttamente.

Quando utilizzi gli script di installazione che Google Cloud per installare SAP HANA, devi fornire i valori per determinati parametri. Se ometti questi parametri o non specifichi valori validi per tutti, lo script di installazione non riesce a installare l'istanza SAP HANA nell'infrastruttura di cui è stato eseguito il deployment.

  • Quando utilizzi i file di configurazione Terraform che Google Cloud fornisce per installare SAP HANA, devi fornire valori validi per i seguenti argomenti: sap_hana_deployment_bucket, sap_hana_sid, sap_hana_sidadm_uid, sap_hana_sidadm_password e sap_hana_system_password. Per saperne di più sugli argomenti Terraform, consulta la guida al deployment di Terraform per lo scale-up di SAP HANA.

  • Quando usi i modelli di Deployment Manager che Google Cloud fornisce per installare SAP HANA, devi fornire per i seguenti parametri di configurazione: sap_hana_deployment_bucket, sap_hana_sid, sap_hana_instance_number sap_hana_sidadm_password, sap_hana_system_password e sap_hana_scaleout_nodes, Per ulteriori informazioni sulle proprietà di Deployment Manager, consulta Deployment Manager: guida al deployment di scale-up di SAP HANA.

Gestione delle password

Per automatizzare l'installazione di SAP HANA sulle VM Compute Engine di cui è stato eseguito il deployment, devi specificare le password per l'utente SIDadm e per l'utente del database. Puoi specificare queste password nel file di configurazione del deployment nei modi seguenti:

  • (Consigliato) Per fornire le password agli script di installazione in modo sicuro, puoi creare i secret utilizzando Secret Manager, che è un servizio a pagamento di Google Cloud, quindi specifica i nomi dei secret come valori per sap_hana_sidadm_password_secret e sap_hana_system_password_secret argomenti.

    Per informazioni sui prezzi di Secret Manager, consulta Prezzi di Secret Manager.

  • In alternativa, puoi specificare le password in testo normale nella sap_hana_sidadm_password e sap_hana_system_password argomenti.

Deployment di dischi tramite Terraform

Quando automatizza il deployment di SAP HANA utilizzando Terraform fornita da Google Cloud, il deployment predefinito del disco è il seguente:

Volume o directory Disco predefinito di cui è stato eseguito il deployment per le istanze X4 Disco predefinito distribuito per istanze bare metal C3 Disco predefinito di cui è stato eseguito il deployment per le istanze VM
Volume di avvio Hyperdisk bilanciato Hyperdisk bilanciato Disco permanente bilanciato
/hana/data Hyperdisk Extreme Hyperdisk bilanciato Disco permanente SSD
/hana/log Hyperdisk Extreme Hyperdisk bilanciato Disco permanente SSD
/hana/shared Hyperdisk bilanciato Hyperdisk bilanciato
  • Disco permanente SSD, se specifichi disk_type = "pd-ssd" nel file di configurazione Terraform.
  • Disco permanente bilanciato, in tutti gli altri scenari.
/hanabackup Hyperdisk bilanciato Hyperdisk bilanciato Disco permanente bilanciato
/usr/sap Hyperdisk bilanciato Hyperdisk bilanciato
  • Disco permanente SSD, se specifichi disk_type = "pd-ssd" nel file di configurazione Terraform.
  • Disco permanente bilanciato, in tutti gli altri scenari.

VM personalizzate e deployment automatizzati

I file di configurazione di Terraform e i modelli di Deployment Manager non supportano la specifica delle VM personalizzate di Compute Engine.

Se devi utilizzare un tipo di VM personalizzata, esegui il deployment di una piccola VM predefinita digita e, al termine del deployment, personalizzare la VM in base alle esigenze.

Per saperne di più sulla modifica delle VM, consulta Modifica delle configurazioni delle VM. per i sistemi SAP.

Automazione del deployment per i sistemi di scale up

Google Cloud fornisce i file di configurazione Terraform e Deployment Manager modelli di configurazione utilizzabili per automatizzare il deployment di SAP Sistemi di scale up con host singolo HANA.

Gli script Terraform o Deployment Manager possono essere utilizzati per: scenari aggiuntivi:

  • Un sistema SAP HANA autonomo e scalabile verticalmente.

    Guarda Terraform o Guida al deployment di Deployment Manager.

  • Un sistema SAP HANA con scale up attivo e in standby su un cluster Linux ad alta disponibilità.

    Guarda Terraform o Guida al deployment di Deployment Manager.

Gli script Terraform o Deployment Manager possono eseguire il deployment delle VM, dei dischi permanenti, di SAP HANA e, nel caso del cluster ad alta disponibilità Linux, dei componenti HA richiesti.

Gli script di Deployment Manager non eseguono il deployment dei seguenti componenti di sistema:

  • La rete e la subnet
  • Regole firewall
  • Gateway NAT, bastion host o relative VM
  • SAP HANA Studio o la rispettiva VM

Ad eccezione di SAP HANA Studio o della relativa VM, puoi usare Terraform per eseguire il deployment di componenti di sistema.

Per informazioni sulla creazione di questi componenti, consulta la sezione Prerequisiti nelle seguenti guide:

Automazione del deployment per sistemi a scalabilità orizzontale

Google Cloud fornisce i file di configurazione Terraform e Deployment Manager di configurazione automatica che puoi usare per automatizzare il deployment Sistemi di scale out multi-host SAP HANA.

La configurazione Terraform o i modelli di Deployment Manager eseguire il deployment di VM, dischi permanenti e SAP HANA. Possono anche mappare i punti di mount NFS ai volumi condivisi e di backup di SAP HANA. Per lo scale out multi-host la configurazione Terraform o Deployment Manager può anche eseguire il deployment di nuove istanze Filestore per ospitare Volumi condivisi e di backup HANA.

Gli script di Deployment Manager non eseguono il deployment di quanto segue componenti di sistema:

  • La rete e la subnet
  • Regole firewall
  • Gateway NAT, bastion host o relative VM
  • SAP HANA Studio o la rispettiva VM

Ad eccezione di SAP HANA Studio o della relativa VM, puoi usare Terraform per eseguire il deployment di componenti di sistema.

Soluzioni di condivisione file per deployment a scalabilità orizzontale multi-host

Per impostazione predefinita, la configurazione Terraform fornita da Google Cloud per il deployment di SAP HANA su più host crea esportazioni NFS per i volumi /hana/shared e /hanabackup nell'istanza VM SAP HANA principale e condivide i volumi con i nodi worker.

Tuttavia, se vuoi utilizzare una soluzione NFS per condividere i volumi /hana/shared e /hanabackup con gli host di lavoro, puoi utilizzare una delle seguenti opzioni:

  • Per associare una soluzione NFS esistente di cui hai eseguito il deployment su Google Cloud, devi specificare i punti di montaggio NFS dei volumi /hana/shared e /hanabackup agli argomenti sap_hana_shared_nfs e sap_hana_backup_nfs, rispettivamente, nel file di configurazione Terraform.

  • Per eseguire il deployment di nuove istanze Filestore e associare le relative condivisioni file ai volumi /hana/shared e /hanabackup, devi definire una risorsa google_filestore_instance e poi specificare i nomi delle condivisioni file agli argomenti sap_hana_shared_nfs_resource e sap_hana_backup_nfs_resource, rispettivamente, nel file di configurazione Terraform.

Per visualizzare un esempio, consulta la configurazione di esempio.

Assistenza

In caso di problemi con l'infrastruttura o i servizi Google Cloud, contatta l'assistenza clienti. Puoi trovare i dati di contatto nella Pagina Panoramica dell'assistenza nella console Google Cloud. Se l'assistenza clienti stabilisce che il problema riguarda i tuoi sistemi SAP, ti verrà consigliato di rivolgerti all'assistenza SAP.

Per problemi relativi ai prodotti SAP, registra la richiesta di assistenza con l'assistenza SAP. SAP valuta il ticket di assistenza e, se sembra essere un problema dell'infrastruttura Google Cloud, lo trasferisce al componente Google Cloud appropriato nel proprio sistema: BC-OP-LNX-GOOGLE o BC-OP-NT-GOOGLE.

Requisiti di assistenza

Prima di poter ricevere assistenza per i sistemi SAP e per l'infrastruttura e i servizi Google Cloud che utilizzano, devi soddisfare i requisiti minimi del piano di assistenza.

Per ulteriori informazioni sui requisiti minimi di assistenza per SAP su Google Cloud, consulta:

Passaggi successivi