Questa guida fornisce una panoramica di ciò che è necessario per eseguire SAP HANA su Google Cloud e fornisce dettagli che puoi utilizzare durante la pianificazione dell'implementazione di un nuovo sistema SAP HANA.
Per informazioni dettagliate su come eseguire il deployment di SAP HANA su Google Cloud, consulta:
- Per i deployment che prevedono lo scale up host singolo e lo scale out multi-host, vedi:
- Per il sistema di scale out con deployment di failover automatico dell'host, consulta:
- Per le configurazioni ad alta disponibilità dei cluster, vedi:
- Terraform: guida alla configurazione del cluster ad alta disponibilità di SAP HANA
- Deployment Manager: guida alla configurazione del cluster ad alta disponibilità di SAP HANA
- Configurazione manuale dei cluster ad alta disponibilità su RHEL
- Configurazione manuale dei cluster ad alta disponibilità su SLES
Informazioni su SAP HANA su Google Cloud
SAP HANA è un database relazionale in memoria, orientato alle colonne, che fornisce analisi delle prestazioni ad alte prestazioni ed elaborazione di dati in tempo reale. I clienti possono sfruttare la facilità di provisioning, le funzionalità dell'infrastruttura Google Cloud a scalabilità elevata e ridondanti per eseguire i carichi di lavoro aziendali critici. Google Cloud fornisce un insieme di asset fisici, come computer e dischi rigidi, e risorse virtuali, come le macchine virtuali (VM) di Compute Engine, situate nei data center di Google in tutto il mondo.
Quando esegui il deployment di SAP HANA su Google Cloud, esegui il deployment su macchine virtuali in esecuzione su Compute Engine. Le VM di Compute Engine forniscono dischi permanenti, che funzionano in modo simile ai dischi fisici in un desktop o un server, ma vengono gestiti automaticamente da Compute Engine per garantire la ridondanza dei dati e le prestazioni ottimizzate.
Nozioni di base su Google Cloud
Google Cloud comprende molti prodotti e servizi basati su cloud. Quando esegui prodotti SAP su Google Cloud, utilizzi principalmente i servizi basati su IaaS offerti da Compute Engine e Cloud Storage, oltre ad alcune funzionalità a livello di piattaforma, come strumenti.
Consulta la panoramica di Google Cloud Platform per concetti importanti e terminologia. Questa guida duplica alcune informazioni dalla panoramica per praticità e contesto.
Per una panoramica delle considerazioni che le organizzazioni su scala aziendale devono prendere in considerazione quando vengono eseguite su Google Cloud, consulta il framework dell'architettura Google Cloud.
Interazione con Google Cloud
Google Cloud offre tre modi principali per interagire con la piattaforma e con le tue risorse nel cloud:
- La console Google Cloud, che è un'interfaccia utente basata sul Web.
- Lo strumento a riga di comando
gcloud
, che offre un soprainsieme di funzionalità offerte dalla console Google Cloud. - Librerie client, che forniscono API per l'accesso ai servizi e la gestione delle risorse. Le librerie client sono utili quando crei i tuoi strumenti.
Servizi Google Cloud
In genere, i deployment SAP utilizzano alcuni o tutti i seguenti servizi Google Cloud:
Servizio | Descrizione |
---|---|
Rete VPC | Connette le istanze VM tra loro e a Internet. Ogni istanza è membro di una rete legacy con un singolo intervallo IP globale o di una rete di subnet consigliata, dove l'istanza è membro di una singola subnet che è membro di una rete più grande. Tieni presente che una rete non può estendersi su progetti Google Cloud, ma un progetto Google Cloud può avere più reti. |
Compute Engine | Crea e gestisce le VM con il tuo sistema operativo e il tuo stack software a tua scelta. |
Dischi permanenti | I dischi permanenti sono disponibili come unità disco rigido (HDD) standard o unità a stato solido (SSD). |
Console Google Cloud | Strumento basato su browser per la gestione delle risorse di Compute Engine. Utilizza un modello per descrivere tutte le risorse e le istanze di Compute Engine di cui hai bisogno. Non devi creare e configurare individualmente le risorse o capire le dipendenze, perché la console Google Cloud fa al caso tuo. |
Cloud Storage | Puoi effettuare il backup dei backup del tuo database SAP in Cloud Storage per avere una maggiore durabilità e affidabilità, con replica. |
Cloud Monitoring | Offre visibilità su deployment, prestazioni, uptime e integrità di Compute Engine, della rete e dei dischi permanenti. Monitoring raccoglie metriche, eventi e metadati da Google Cloud e li utilizza per generare insight tramite dashboard, grafici e avvisi. Puoi monitorare le metriche di calcolo senza costi aggiuntivi tramite Monitoring. |
IAM | Fornisce un controllo unificato sulle autorizzazioni per le risorse Google Cloud. Stabilisci chi può eseguire operazioni del piano di controllo sulle tue VM, tra cui creazione, modifica ed eliminazione di VM e dischi permanenti, nonché creazione e modifica delle reti. |
Prezzi e quote
Puoi utilizzare il Calcolatore prezzi per stimare i costi di utilizzo. Per ulteriori informazioni sui prezzi, consulta i prezzi di Compute Engine, i prezzi di Cloud Storage e i prezzi della suite operativa di Google Cloud.
Le risorse Google Cloud sono soggette a quote. Se prevedi di utilizzare macchine con CPU o memoria elevata, potresti dover richiedere una quota aggiuntiva. Per ulteriori informazioni, consulta Quote delle risorse Compute Engine.
Requisiti delle risorse
Tipi di macchina certificata per SAP HANA
Per SAP HANA, SAP certifica solo un sottoinsieme dei tipi di macchine disponibili da Google Cloud.
I tipi di macchina che SAP certifica per SAP HANA include sia le macchine virtuali (VM) di Compute Engine sia le macchine bare metal della soluzione Bare Metal.
Anche le configurazioni personalizzate dei tipi di VM n1 e n2-highmem per uso generico sono certificate da SAP. Per maggiori informazioni, consulta la pagina relativa ai tipi di VM personalizzati certificati per SAP HANA.
Per i sistemi operativi certificati per l'utilizzo con HANA su ciascun tipo di macchina, consulta la pagina relativa ai sistemi operativi certificati per SAP HANA.
Alcuni tipi di macchine non sono disponibili in tutte le aree geografiche Google Cloud. Per verificare la disponibilità a livello di regione di una macchina virtuale di Compute Engine, consulta Aree geografiche e zone disponibili. Per le macchine Bare Metal Solution certificate per SAP HANA, consulta Disponibilità a livello di area geografica delle macchine Bare Metal Solution per SAP HANA.
SAP elenca i tipi di macchine certificate per SAP HANA nella Directory di hardware SAP HANA certificata e supportata.
Per ulteriori informazioni sui diversi tipi di VM di Compute Engine e sui relativi casi d'uso, consulta i tipi di macchine.
VM di Compute Engine certificate per SAP HANA
La tabella seguente mostra le VM di Compute Engine certificate da SAP per SAP HANA:
La tabella seguente mostra tutti i tipi di macchine Google Cloud certificate da SAP per l'uso in produzione di SAP HANA.
La tabella non include i tipi di macchine che SAP certifica per SAP Business One su SAP HANA. Per i tipi di macchina che SAP certifica per SAP HANA con SAP Business One, vedi Applicazioni SAP certificate su Google Cloud.
Tipi di macchina | vCPU | Memoria | Sistema operativo | Piattaforma CPU | Tipo di applicazione | Note |
---|---|---|---|---|---|---|
Tipi di VM per uso generico con memoria elevata N1 | ||||||
n1-highmem-32 |
32 | 208 GB | RHEL, SUSA |
Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti di Compute Engine o, solo per lo scale up, di NetApp CVS-Performance. |
n1-highmem-64 |
64 | 416 GB | RHEL, SUSA | Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti di Compute Engine o, solo per lo scale up, di NetApp CVS-Performance. |
n1-highmem-96 |
96 | 624 GB | RHEL, SUSA | Intel Skylake | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti di Compute Engine o, solo per lo scale up, NetApp CVS-Performance. |
Tipi di VM N2 con memoria elevata per uso generico | ||||||
n2-highmem-32 |
32 | 256 GB | RHEL, SUSA | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
n2-highmem-48 |
48 | 384 GB | RHEL, SUSA | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
n2-highmem-64 |
64 | 512 GB | RHEL, SUSA | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
n2-highmem-80 |
80 | 640 GB | RHEL, SUSA | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
n2-highmem-96 |
96 | 768 GB | RHEL, SUSA | Intel Ice Lake | OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
n2-highmem-128 |
128 | 864 GB | RHEL, SUSA | Intel Ice Lake | OLAP o OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
Tipi di VM con ottimizzazione della memoria M1 | ||||||
m1-megamem-96 |
96 | 1433 GB | RHEL, SUSA | Intel Skylake | OLAP o OLTP | OLAP: fai lo scale up o lo scale out fino a 16 nodi. OLTP: solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o, solo per lo scale up OLTP, NetApp CVS-Performance. |
m1-ultramem-40 |
40 | 961 GB | RHEL, SUSA | Intel Broadwell | Solo OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
m1-ultramem-80 |
80 | 1922 GB | RHEL, SUSA | Intel Broadwell | Solo OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance. |
m1-ultramem-160 |
160 | 3844 GB | RHEL, SUSA | Intel Broadwell | OLAP o OLTP | Carichi di lavoro OLAP da 2 TB certificati per lo scale up e lo scale up fino a 16 nodi. Fino a 4 TB di carichi di lavoro OLAP supportati con dimensionamento basato sul carico di lavoro. Carichi di lavoro OLTP certificati solo per lo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o, solo per lo scale up OLTP, NetApp CVS-Performance. |
Tipi di VM ottimizzati per la memoria M2 | ||||||
m2-megamem-416 |
416 | 5888 GB | RHEL, SUSA | Intel Cascade Lake | OLAP o OLTP | Carichi di lavoro OLAP certificati per lo scale up e lo scale up fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scale up o lo scale up fino a 4 nodi. La certificazione per lo scale out di OLTP include SAP S/4HANA. Per lo scale out con S/4HANA, consulta SAP Note 2408419. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o, solo per lo scale up, di NetApp CVS-Performance. |
m2-ultramem-208 |
208 | 5888 GB | RHEL, SUSA | Intel Cascade Lake | Solo OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance. |
m2-ultramem-416 |
416 | 11.776 GB | RHEL, SUSA | Intel Cascade Lake-SP | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con dimensionamento basato sul carico di lavoro per fare lo scale up o lo scale up fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scale up o lo scale up fino a 4 nodi. La certificazione per lo scale out di OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o, solo per scale up, NetApp CVS-Performance. Per lo scale out con S/4HANA, consulta SAP Note 2408419. |
m2-hypermem-416 |
416 | 8832 GB | RHEL, SUSA | Intel Cascade Lake | Solo OLTP | I carichi di lavoro OLTP sono certificati per lo scale up o lo scale up fino a 4 nodi.
La certificazione per lo scale out di OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o, solo per scale up, NetApp CVS-Performance. Per lo scale out con S/4HANA, consulta SAP Note 2408419. |
Tipi di VM ottimizzati per la memoria M3 | ||||||
m3-ultramem-32 |
32 | 976 GB | RHEL, SUSA | Intel Ice Lake | Solo OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine o NetApp CVS-Performance. |
m3-ultramem-64 |
64 | 1952 GB | RHEL, SUSA | Intel Ice Lake | Solo OLTP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance. |
m3-ultramem-128 |
128 | 3904 GB | RHEL, SUSA | Intel Ice Lake | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con dimensionamento basato sul carico di lavoro per lo scale up. I carichi di lavoro OLTP sono certificati per lo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance. |
m3-megamem-64 |
64 | 976 GB | RHEL, SUSA | Intel Ice Lake | Solo OLAP | Solo scale up. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance. |
m3-megamem-128 |
128 | 1952 GB | RHEL, SUSA | Intel Ice Lake | Solo OLAP | Fai lo scale up o lo scale out fino a 16 nodi. Archiviazione a blocchi: dischi permanenti di Compute Engine, Hyperdisk o NetApp CVS-Performance (solo scale up). |
Macchine certificate Bare Metal Solution per SAP HANA
La tabella seguente mostra le macchine Bare Metal Solution certificate da SAP per SAP HANA in esclusiva su un'architettura a tre livelli.
Per sapere in quali aree geografiche sono disponibili questi tipi di macchine certificate, consulta Disponibilità a livello di area geografica delle macchine Bare Metal Solution per SAP HANA.
Tipo di macchina Bare Metal Solution | Core CPU | vCPU | Socket | Memoria | Piattaforma CPU | Sistema operativo | Tipo di applicazione | Note |
---|---|---|---|---|---|---|---|---|
Tipi di macchine Bare Metal Solution ottimizzati per la memoria O2 | ||||||||
o2-ultramem-672-metal |
336 | 672 | 12 | 18 TB | Intel Cascade Lake | RHEL, SUSA | Solo OLTP | Fare lo scale up solo in un'architettura a tre livelli. Dimensioni standard. |
o2-ultramem-896-metal |
448 | 896 | 16 | 24 TB | Intel Cascade Lake | RHEL, SUSA | Solo OLTP | Fare lo scale up solo in un'architettura a tre livelli. Dimensioni standard. |
Tipi di macchine personalizzate certificate per SAP HANA
La tabella seguente mostra i tipi di macchine personalizzate di Compute Engine certificate SAP per l'uso in produzione di SAP HANA su Google Cloud.
SAP certifica solo un sottoinsieme dei tipi di macchine personalizzate disponibili da Compute Engine.
I tipi di macchina personalizzata sono soggetti a regole di personalizzazione definite da Compute Engine. Le regole variano a seconda del tipo di macchina che stai personalizzando. Per una regola di personalizzazione completa, consulta Creazione di un'istanza VM personalizzata.
Tipo di macchina di base | vCPU | Memoria (GB) | Sistema operativo | Piattaforme CPU |
---|---|---|---|---|
N1-highmem | Numero di vCPU da 32 a 64, divisibile in modo uniforme per 2. | 6,5 GB per ogni vCPU | RHEL, SUSA | Intel Broadwell |
N2-highmem (solo scale up) | Su Intel Ice Lake, un numero di vCPU da 32 a 80 che è uniformemente divisibile per 4. Su Intel Cascade Lake, un numero di vCPU da 32 a 80 divisa in modo uniforme per 4. |
Fino a 8 GB per vCPU | RHEL, SUSA | Intel Ice Lake, Intel Cascade Lake |
Disponibilità a livello regionale delle macchine Bare Metal Solution per SAP HANA
La tabella seguente mostra le aree geografiche attuali di Google Cloud che supportano SAP HANA su Bare Metal Solution.
Regione | Località |
---|---|
europe-west3 |
Francoforte, Germania, Europa |
europe-west4 |
Eemshaven, Paesi Bassi, Europa |
us-central1 |
Council Bluffs, Iowa, Stati Uniti, Nord America |
us-east4 |
Ashburn, Virginia, Stati Uniti, Nord America |
Se nella tabella precedente non vedi l'area geografica necessaria, contatta il team di vendita di Google Cloud.
Configurazione della memoria
Le opzioni di configurazione della memoria sono determinate dal tipo di istanza VM di Compute Engine scelto. Per ulteriori informazioni, consulta la tabella Tipi di macchine certificate per SAP HANA.
Configurazione di rete
Le funzionalità di rete VM di Compute Engine sono determinate dalla famiglia di macchine e non dalla relativa interfaccia di rete o dall'indirizzo IP.
In base al tipo di macchina, l'istanza VM può supportare una velocità di rete effettiva di 2-32 Gbps. Alcuni tipi di macchine supportano anche velocità effettiva fino a 100 Gbps, il che richiede l'utilizzo del tipo di interfaccia Google Virtual NIC (gVNIC) con una configurazione di rete Tier_1. La capacità di raggiungere queste velocità effettiva è ulteriormente dipendente dalla direzione del traffico e dal tipo di indirizzo IP di destinazione.
Le interfacce di rete delle VM di Compute Engine sono supportate da un'infrastruttura di rete ridondante e resiliente che utilizza componenti di rete fisici e software-defined. Queste interfacce ereditano la ridondanza e la resilienza della piattaforma sottostante. Per la separazione del traffico si possono utilizzare più NIC virtuali, ma ciò non offre ulteriori vantaggi in termini di resilienza o prestazioni.
Una singola NIC offre le prestazioni necessarie per i deployment SAP HANA su Compute Engine. Il tuo caso d'uso particolare, i requisiti di sicurezza o le preferenze potrebbero richiedere anche interfacce aggiuntive per separare il traffico, ad esempio il traffico Internet, il traffico di replica del sistema SAP HANA interno o altri flussi che potrebbero trarre vantaggio da regole dei criteri di rete specifiche. Ti consigliamo di utilizzare la crittografia del traffico offerta dall'applicazione e l'accesso sicuro alla rete seguendo un criterio firewall con privilegi minimi per limitare l'accesso.
Considera l'esigenza della separazione del traffico nelle fasi iniziali della progettazione della rete e alloca NIC aggiuntive quando esegui il deployment delle VM. Devi collegare ogni interfaccia di rete a una rete Virtual Private Cloud diversa. La scelta del numero di interfacce di rete dipende dal livello di isolamento richiesto, con un massimo di 8 interfacce consentite per le VM con 8 o più vCPU.
Ad esempio, puoi definire una rete Virtual Private Cloud per i client dell'applicazione SQL SAP HANA (SAP NetWeaver, server di applicazioni, applicazioni personalizzate e così via) e una rete separata per il traffico tra server, come SAP HANA System Replication. Tieni presente che troppi segmenti possono complicare la gestione e la risoluzione dei problemi di rete. Se cambi idea in un secondo momento, puoi utilizzare le immagini delle macchine Compute Engine per ricreare l'istanza VM mantenendo tutti i dati, la configurazione e i metadati associati.
Per ulteriori informazioni, consulta la panoramica di rete per le VM, più interfacce di rete e larghezza di banda di rete VM.
Sistemi operativi certificati per SAP HANA
La tabella seguente mostra i sistemi operativi Red Hat Enterprise Linux (RHEL) e SUSE Linux Enterprise Server (SLES) certificati da SAP per l'uso in produzione con SAP HANA su Google Cloud.
Salvo dove indicato nella tabella, ogni sistema operativo è supportato con SAP HANA su tutti i tipi di VM di Compute Engine certificati.
Per informazioni sullo stato dell'assistenza attuale di ogni sistema operativo e su quali sistemi operativi sono disponibili in Google Cloud, consulta Supporto dei sistemi operativi per SAP HANA su Google Cloud.
Per informazioni da SAP sui sistemi operativi supportati da SAP con SAP HANA su Google Cloud, vai a Directory Hardware SAP HANA Hardware Directory, fai clic sul tipo di macchina richiesta e quindi consulta Sistema operativo.
La tabella seguente non include:
- Versioni dei sistemi operativi certificati che non sono più supportate dai brand mainstream.
- Versioni del sistema operativo non specifiche per SAP.
Sistema operativo | Versione | Tipi di macchina non supportati |
---|---|---|
RHEL per SAP | 8,6 | |
8,4 | ||
8,2 | ||
8,1 | ||
7,9 | ||
7,7 | m3-ultramem m3-megamem |
|
7,6 | m3-ultramem m3-megamem |
|
SLES per SAP | 15 SP4 | |
15 SP3 | ||
15 SP2 | o2-ultramem |
|
15 SP1 | m3-ultramem m3-megamem |
|
15 | m3-ultramem m3-megamem |
|
12 SP5 | ||
12 SP4 | m3-ultramem m3-megamem |
|
12 SP3 | m1-megamem n1-highmem o2-ultramem m3-ultramem m3-megamem |
Immagini personalizzate del sistema operativo
Puoi utilizzare un'immagine Linux fornita e gestita da Google Cloud (un'immagine pubblica) oppure fornire e gestire la tua immagine Linux (immagine personalizzata).
Utilizza un'immagine personalizzata se la versione del sistema operativo certificata SAP che richiedi non è disponibile da Google Cloud come immagine pubblica. I seguenti passaggi, descritti in dettaglio come importare immagini disco di avvio su Compute Engine, riepilogano la procedura per l'utilizzo di un'immagine personalizzata:
- Prepara il disco di avvio in modo che possa essere avviato nell'ambiente Google Cloud Compute Engine e potrai accedervi dopo l'avvio.
- Crea e comprimi il file immagine del disco di avvio.
- Caricare il file immagine in Cloud Storage e importarlo in Compute Engine come nuova immagine personalizzata.
- Usa l'immagine importata per creare un'istanza di una macchina virtuale e assicurati che si avvii correttamente.
- Ottimizza l'immagine e installa l'ambiente Linux Linux in modo che l'immagine del sistema operativo importata possa comunicare con il server di metadati e utilizzare funzionalità aggiuntive di Compute Engine.
Quando l'immagine personalizzata è pronta, puoi utilizzarla quando crei le VM per il tuo sistema SAP HANA.
Se stai spostando un sistema operativo RHEL da un'installazione on-premise a Google Cloud, devi aggiungere Red Hat Cloud Access al tuo abbonamento Red Hat. Per ulteriori informazioni, consulta Red Hat Cloud Access.
Per ulteriori informazioni sulle immagini del sistema operativo fornite da Google Cloud, consulta Immagini.
Per ulteriori informazioni sull'importazione di un sistema operativo in Google Cloud come immagine personalizzata, consulta Importazione delle immagini del disco di avvio su Compute Engine.
Per ulteriori informazioni sui sistemi operativi supportati da SAP HANA, consulta:
- Directory hardware SAP HANA certificata e supportata
- Nota SAP 2235581 - SAP HANA: sistemi operativi supportati
Schermata di origine del sistema operativo sulle VM di Compute Engine
Il valore predefinito dell'orologio di sistema operativo è kvm-clock per SLES e TSC per le immagini RHEL.
Non è necessario modificare l'origine del sistema operativo del sistema operativo quando SAP HANA è in esecuzione su una VM di Compute Engine. Non ci sono differenze di prestazioni quando si utilizza kvm-clock o TSC come origine dell'orologio per le VM di Compute Engine con SAP HANA.
Se devi cambiare l'origine del sistema operativo in TSC, utilizza SSH per accedere alla VM ed eseguire i seguenti comandi:
echo "tsc" | sudo tee /sys/devices/system/clocksource/*/current_clocksource sudo cp /etc/default/grub /etc/default/grub.backup sudo sed -i '/GRUB_CMDLINE_LINUX/ s|"| clocksource=tsc"|2' /etc/default/grub sudo grub2-mkconfig -o /boot/grub2/grub.cfg
Archiviazione su disco permanente
Per l'archiviazione a blocchi permanente, puoi collegare i dischi permanenti o gli iperdischi permanenti di Compute Engine quando crei le tue VM o aggiungerle alle tue VM in un secondo momento.
Compute Engine offre diversi tipi di dischi permanenti e iperdischi basati sulla tecnologia di unità a stato solido (SSD) o di unità disco rigido standard (HDD). Ciascun tipo ha caratteristiche di rendimento diverse. Google Cloud gestisce l'hardware sottostante dei dischi per garantire la ridondanza dei dati e ottimizzare le prestazioni.
Per motivi legati alle prestazioni, i volumi SAP HANA /hana/data
e /hana/log
richiedono dischi permanenti basati su SSD o Hyperdisk. I dischi permanenti e gli iperdischi permanenti di Compute Engine basati su SSD certificati SAP per l'utilizzo con SAP HANA includono i seguenti tipi:
- Disco permanente SSD (
pd-ssd
)- Offre un'archiviazione a blocchi affidabile e ad alte prestazioni.
- Disco permanente bilanciato (
pd-balanced
)- Offre archiviazione a blocchi economica e affidabile.
- Utilizza il disco permanente bilanciato come soluzione consigliata per i volumi
/hana/shared
e/usr/sap
e per il disco di avvio.
- Hyperdisk Extreme (
hyperdisk-extreme
)- Fornisce opzioni IOPS e velocità effettiva massime superiori rispetto al disco permanente SSD.
- Selezioni le prestazioni di cui hai bisogno eseguendo il provisioning di IOPS, che determina anche la velocità effettiva. Per ulteriori informazioni, consulta la pagina Velocità effettiva.
- Puoi utilizzare Hyperdisk Extreme per i volumi
/hana/log
e/hana/data
quando sono richieste le prestazioni più elevate. Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme, consulta la pagina relativa al supporto dei tipi di macchine.
- Disco permanente con carico estremo (
pd-extreme
)- Sebbene il disco permanente estremo sia certificato per l'uso con SAP HANA, ti consigliamo di utilizzare Hyperdisk Extreme, che offre prestazioni maggiori. Se vuoi utilizzare dischi permanenti con carico estremo, assicurati di eseguire il provisioning in base alle informazioni riportate in Dimensioni minime per i dischi permanenti e gli hyperdisk basati su SSD.
Per il disco di avvio e altri volumi SAP HANA che non richiedono le stesse prestazioni elevate dei volumi /hana/data
e /hana/log
, puoi utilizzare i seguenti tipi di disco in un'istanza di produzione di SAP HANA:
- Per il volume
/hana/shared
o/usr/sap
, per mapparlo al suo disco, puoi utilizzare un disco permanente bilanciato (pd-balanced
). - Se salvi i backup su un disco, ti consigliamo di utilizzare un disco permanente standard (
pd-standard
) per il volume/hanabackup
. Se vuoi backup più rapidi, puoi utilizzare un disco permanente bilanciato. - Quando crei la VM host, utilizza un disco permanente bilanciato per il disco di avvio.
Nella figura precedente, la configurazione a sinistra utilizza un layout a disco diviso.
I volumi /hana/data
e /hana/log
si trovano su Hyperdisk separati e i volumi
/hana/shared
e /usr/sap
, che non richiedono prestazioni elevate, sono su singoli dischi permanenti bilanciati, che costano meno di un
Hyperdisk Extreme.
La configurazione a destra utilizza un layout a disco unificato, in cui i volumi /hana/data
, /hana/log
, /hana/shared
e /usr/sap
sono tutti montati su un unico Hyperdisk Extreme.
I dischi permanenti e gli iperdischi si trovano indipendentemente dalle tue VM, quindi puoi scollegarli o spostarli per conservare i dati, anche dopo aver eliminato le VM.
Nella console Google Cloud puoi vedere i dischi permanenti e gli iperdischi collegati alle tue istanze VM in Dischi aggiuntivi nella pagina Dettagli istanza VM di ogni istanza VM.
Per ulteriori informazioni sui diversi tipi di dischi e iperdischi permanenti di Compute Engine, sulle relative caratteristiche di prestazioni e su come utilizzarli, consulta la seguente documentazione di Compute Engine:
- Opzioni di archiviazione
- Informazioni sugli iperdischi
- Prestazioni di archiviazione a blocchi
- Altri fattori che influiscono sulle prestazioni
- Aggiunta o ridimensionamento di dischi permanenti a livello di zona
- Creazione di snapshot di dischi permanenti
- Eseguire la migrazione di un disco permanente in Hyperdisk Extreme
Dimensioni minime per i dischi permanenti e gli iperdischi basati su SSD
Quando applichi dimensioni a determinati dischi permanenti Compute Engine basati su SSD per SAP HANA, devi tenere conto non solo dei requisiti di archiviazione dell'istanza SAP HANA, ma anche delle prestazioni del disco permanente.
Entro i limiti, le prestazioni di un SSD o di un disco permanente bilanciato aumentano all'aumentare delle dimensioni del disco e del numero di vCPU. Se un SSD o un disco permanente bilanciato è troppo piccolo, potrebbe non fornire le prestazioni richieste da SAP HANA.
Le prestazioni di Hyperdisk Extreme non sono interessate dalla dimensione del disco. Le sue prestazioni sono determinate dalle IOPS di cui esegui il provisioning. Per informazioni sulle prestazioni di Hyperdisk Extreme, consulta Informazioni sugli Hyperdisk.
Un SSD da 550 GB o un disco permanente bilanciato da 943 GB offre una velocità effettiva sostenuta di 400 MB al secondo per letture e scritture, che è il minimo. Per informazioni generali sulle prestazioni dei dischi permanenti, vedi Prestazioni di archiviazione a blocchi.
La seguente tabella mostra le dimensioni consigliate per disco permanente SSD (pd-ssd
), disco permanente bilanciato (pd-balanced
) e Hyperdisk Extreme (hyperdisk-extreme
) per soddisfare i requisiti di prestazioni SAP HANA in un ambiente di produzione per ogni tipo di macchina Compute Engine certificato per SAP HANA. Le dimensioni minime per l'Hyperdisk Extreme, che si basano esclusivamente sulla quantità di memoria, sono incluse nella tabella come riferimento.
Le dimensioni nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA sui singoli dischi.
pd-balanced
dimensioni
Tipo di VM di Compute Engine | /hana/data dimensione (GB) |
/hana/log dimensione (GB) |
/hana/shared dimensione (GB) |
/usr/sap dimensione (GB) |
Total size (GB) (Dimensioni totali (GB)) |
---|---|---|---|---|---|
n1-highmem-32 |
599 | 104 | 208 | 32 | 943 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1.155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1.716 |
n2-highmem-32 |
527 | 128 | 256 | 32 | 943 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1.068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1.414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1.760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1.036 | 432 | 864 | 32 | 2364 |
m1-megamem-96 |
1.719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1.153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4.612 | 512 | 1024 | 32 | 6.180 |
m2-megamem-416 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1.171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6.252 |
m3-megamem-64 |
1.171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
pd-ssd
dimensioni
Tipo di VM di Compute Engine | /hana/data dimensione (GB) |
/hana/log dimensione (GB) |
/hana/shared dimensione (GB) |
/usr/sap dimensione (GB) |
Total size (GB) (Dimensioni totali (GB)) |
---|---|---|---|---|---|
n1-highmem-32 |
249 | 104 | 208 | 32 | 593 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1.155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1.716 |
n2-highmem-32 |
307 | 128 | 256 | 32 | 723 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1.068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1.414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1.760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1.036 | 432 | 864 | 32 | 2364 |
m1-megamem-96 |
1.719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1.153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4.612 | 512 | 1024 | 32 | 6.180 |
m2-megamem-416 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1.171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6.252 |
m3-megamem-64 |
1.171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
hyperdisk-extreme
dimensioni
Quando utilizzi Hyperdisk Extreme per ospitare i volumi /hana/data
e /hana/log
, assicurati di ospitare i volumi /hana/shared
e /usr/sap
su dischi permanenti bilanciati a parte. Questo perché i volumi /hana/shared
e
/usr/sap
non richiedono prestazioni elevate quanto i
volumi di dati e di log.
Tipo di VM di Compute Engine | /hana/data dimensione (GB) |
/hana/log dimensione (GB) |
/hana/shared dimensione (GB) |
/usr/sap dimensione (GB) |
Total size (GB) (Dimensioni totali (GB)) |
---|---|---|---|---|---|
n1-highmem-32 |
104 | 208 | 32 | ||
n1-highmem-64 |
499 | 208 | 416 | 32 | 1.155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1.716 |
n2-highmem-32 |
128 | 256 | 32 | ||
n2-highmem-48 |
460 | 192 | 384 | 32 | 1.068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1.414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1.760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1.036 | 432 | 864 | 32 | 2364 |
m1-megamem-96 |
1.719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1.153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4.612 | 512 | 1024 | 32 | 6.180 |
m2-megamem-416 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-208 |
7.065 | 512 | 1024 | 32 | 8.633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1.171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6.252 |
m3-megamem-64 |
1.171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
Dimensioni del disco per il montaggio di tutti i volumi SAP HANA su un singolo disco
Le dimensioni nella tabella seguente presuppongono che tu stia utilizzando un singolo disco per l'hosting dei volumi /hana/data
, /hana/log
, /hana/shared
e /usr/sap
.
Tipo di VM di Compute Engine | pd-balanced dimensione (GB) |
pd-ssd dimensione (GB) |
hyperdisk-extreme dimensione (GB) |
---|---|---|---|
n1-highmem-32 |
943 | 593 | Non applicabile (N/A) |
n1-highmem-64 |
1.155 | 1.155 | N/A |
n1-highmem-96 |
1.716 | 1.716 | N/A |
n2-highmem-32 |
943 | 723 | N/A |
n2-highmem-48 |
1.068 | 1.068 | N/A |
n2-highmem-64 |
1.414 | 1.414 | N/A |
n2-highmem-80 |
1.760 | 1.760 | N/A |
n2-highmem-96 |
2105 | 2105 | N/A |
n2-highmem-128 |
2364 | 2364 | N/A |
m1-megamem-96 |
3287 | 3287 | 3287 |
m1-ultramem-40 |
2626 | 2626 | N/A |
m1-ultramem-80 |
3874 | 3874 | 3874 |
m1-ultramem-160 |
6.180 | 6.180 | 6.180 |
m2-megamem-416 |
8.633 | 8.633 | 8.633 |
m2-ultramem-208 |
8.633 | 8.633 | 8.633 |
m2-ultramem-416 |
15.660 | 15.660 | 15.660 |
m2-hypermem-416 |
12.166 | 12.166 | 12.166 |
m3-ultramem-32 |
2667 | 2667 | N/A |
m3-ultramem-64 |
3910 | 3910 | 3910 |
m3-ultramem-128 |
6.252 | 6.252 | 6.252 |
m3-megamem-64 |
2667 | 2667 | 2667 |
m3-megamem-128 |
3910 | 3910 | 3910 |
Determinazione delle dimensioni del disco permanente o dell'hyperdisk
Calcola la quantità di spazio di archiviazione su disco permanente di cui hai bisogno per i volumi SAP HANA in base alla quantità di memoria contenuta nel tipo di macchina Compute Engine selezionato.
Le seguenti indicazioni sulle dimensioni dei dischi si riferiscono alle dimensioni minime consigliate da Google Cloud e SAP per i tuoi deployment per bilanciare prestazioni e costo totale di proprietà. Le dimensioni del disco possono essere aumentate fino al limite supportato dai tipi di disco sottostanti. Per informazioni sulle dimensioni minime richieste del disco, consulta la pagina Dimensioni minime per i dischi permanenti SSD.
Requisiti per le dimensioni del disco permanente per i sistemi di scale up
Per i sistemi di scale up SAP HANA, utilizza le seguenti formule per ogni volume:
/hana/data
: 1,2 x memoria/hana/log
: 0,5 x memoria o 512 GB, a seconda di quale delle due è più piccola/hana/shared
: 1 x memoria o 1024 GB, a seconda di quale sia la dimensione più piccola/usr/sap
: 32 GB/hanabackup
: 2 x memoria, allocazione facoltativa
Requisiti per le dimensioni del disco permanente per i sistemi che prevedono lo scale out
Per i sistemi con scale out di SAP HANA, utilizza la stessa formula dei sistemi di scale up di SAP HANA per i volumi /hana/data
, /hana/log
e /usr/sap
. Per il volume /hana/shared
, calcola le dimensioni del disco permanente o dell'Hyperdisk in base al numero di host worker nel deployment.
Per ogni quattro host host, aumenta le dimensioni del disco di 1 x memoria o 1 TB, a seconda di quale sia la più piccola. Ad esempio:
- Da 1 a 4 host worker: 1 x memoria o 1 TB, a seconda di quale sia la più piccola
- Da 5 a 8 host host: 2 x memoria o 2 TB, a seconda di quale sia la minore
- Da 9 a 12 host worker: 3 x memoria o 3 TB, a seconda di quale sia la più piccola
- Da 13 a 16 host worker: 4 x memoria o 4 TB, a seconda di quale sia la più piccola
Per determinare i requisiti di quota di archiviazione complessivi per i sistemi con scale out di SAP HANA, devi sommare le dimensioni dei dischi per ciascun tipo di disco utilizzato con tutti gli host nel sistema di scale out. Ad esempio, se hai posizionato /hana/data
e /hana/log
su pd-ssd
dischi permanenti, ma /hana/shared
e /usr/sap
su pd-balanced
su dischi permanenti, avrai bisogno di totali separati per pd-ssd
e pd-balanced
per richiedere quote separate.
Per un sistema di scale out SAP HANA con failover automatico dell'host, devi solo calcolare le dimensioni del disco permanente per gli host master e worker. Gli host in standby non hanno
i propri volumi /hana/data
, /hana/log
e /usr/sap
. In caso di errore, il failover automatico di SAP HANA smonta i volumi /hana/data
, /hana/log
e /usr/sap
dall'host non riuscito, montandoli su un host in standby. I volumi /hana/shared
e /hanabackup
per un host in standby vengono montati su una soluzione NFS con deployment separato.
Allocando ulteriore spazio di archiviazione su disco permanente
Seleziona un disco permanente o una dimensione permanente che non sia inferiore a quella minima elencata per il tipo di disco permanente o l'Hyperdisk in Dimensioni minime per SSD e dischi permanenti e bilanciamento del carico.
Se utilizzi SSD o dischi permanenti bilanciati, la dimensione minima può essere determinata dai requisiti di prestazioni SAP HANA anziché dai requisiti di archiviazione SAP HANA.
Ad esempio, se esegui SAP HANA su un'istanza VM n2-highmem-32
, con 256 GB di memoria, il requisito di archiviazione totale per i volumi SAP HANA è di 723 GB: 307 GB per il volume di dati, 128 GB per il volume di log, 256 GB per il volume condiviso e 32 GB per il volume /usr/sap
.
Tuttavia, se utilizzi un disco permanente bilanciato, la dimensione minima richiesta è 943 GB, a cui vengono assegnati altri 220 GB al volume dei dati per soddisfare le prestazioni richieste. Pertanto, se utilizzi un'istanza VM n2-highmem-32
con dischi permanenti bilanciati per eseguire SAP HANA, devi eseguire il provisioning di uno spazio di archiviazione su disco permanente di almeno 943 GB.
quindi devi dimensionare il disco permanente a partire da 943 GB. Il provisioning aggiuntivo di 220 GB viene applicato al volume dei dati per fornire le prestazioni richieste.
Applica qualsiasi spazio di archiviazione su disco permanente aggiuntivo al volume /hana/data
.
Per informazioni da SAP sul dimensionamento di SAP HANA, consulta l'articolo Sizing SAP HANA.
Prestazioni Hyperdisk Extreme
Hyperdisk Extreme offre opzioni IOPS e velocità effettiva massima più elevate per i volumi /hana/log
e /hana/data
rispetto agli altri dischi permanenti basati su SSD. Per ulteriori informazioni sul provisioning delle IOPS per Hyperdisk Extreme, consulta la pagina Velocità effettiva.
A differenza di altri dischi permanenti basati su SSD, quando utilizzi Hyperdisk Extreme con SAP HANA non devi preoccuparti delle prestazioni quando dimensioni l'Hyperdisk. Il dimensionamento di Hyperdisk Extreme si basa esclusivamente sui requisiti di archiviazione di SAP HANA. Per ulteriori informazioni sul dimensionamento dei dischi permanenti o degli iperdischi, consulta Determinazione delle dimensioni del disco permanente.
Il numero di IOPS di cui esegui il provisioning quando crei un Hyperdisk Extreme determina la velocità effettiva massima.
Il numero massimo di IOPS di cui puoi eseguire il provisioning può variare a seconda del tipo di macchina utilizzata. Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme, nonché le IOPS e la velocità effettiva massime che Hyperdisk Extreme può fornire con ogni tipo di macchina, consulta la pagina relativa al supporto dei tipi di macchine.
Dischi permanenti e iperdischi distribuiti dagli script di automazione del deployment
Quando esegui il deployment di un sistema SAP HANA tramite le configurazioni Terraform fornite da Google Cloud, lo script di deployment alloca dischi permanenti o hyperdisk per i volumi SAP nel seguente modo:
Per impostazione predefinita, viene eseguito il deployment di dischi separati per ciascuna delle seguenti directory:
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
.Facoltativamente, puoi scegliere di eseguire il deployment di un layout a disco singolo in cui un singolo disco permanente o un hyperHypersk ospita queste directory SAP. Inoltre, per i deployment con lo scale out di SAP HANA, la directory
/hana/shared
è ospitata da una soluzione NFS.Facoltativamente, un disco permanente HDD standard per la directory
/hanabackup
.
L'esempio seguente mostra in che modo Terraform mappa i volumi per SAP HANA su una VM n2-highmem-32
Compute Engine, con 256 GB di memoria.
hana-ssd-example:~ # lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data vg_hana_data -wi-ao---- 308.00g log vg_hana_log -wi-ao---- 128.00g shared vg_hana_shared -wi-ao---- 256.00g usrsap vg_hana_usrsap -wi-ao---- 32.00g backup vg_hanabackup -wi-ao---- 512.00g
Le dimensioni dei volumi per lo stesso tipo di macchina potrebbero essere leggermente diverse da quelle mostrate in questo esempio.
Quando utilizzi i modelli Deployment Manager forniti da Google Cloud per SAP HANA o quando decidi di eseguire il deployment di un layout a disco singolo utilizzando le configurazioni Terraform, lo script di deployment mappa le directory SAP HANA /hana/data
, /hana/log
, /usr/sap
e /hana/shared
al proprio volume logico per semplificare il ridimensionamento e mapparle sul disco permanente basato su SSD o sull'Hyperdisk in un singolo gruppo di volumi.
Terraform o Deployment Manager mappa la directory /hanabackup
a un volume logico in un gruppo di volumi separato, che viene quindi mappato a un disco permanente HDD standard (pd-standard
).
Archiviazione su disco permanente facoltativa per i backup
Quando archivi i backup di SAP HANA su un disco permanente, utilizza dischi permanenti standard di HDD. I dischi permanenti standard HDD sono efficienti e convenienti per la gestione di operazioni di lettura e scrittura sequenziali, ma non sono ottimizzati per gestire frequenze elevate di operazioni di I/O al secondo. SAP HANA utilizza IO sequenziale con blocchi di grandi dimensioni per il backup del database. I dischi permanenti standard HDD offrono un'opzione economica e ad alte prestazioni per questo scenario.
Le dimensioni del volume di backup SAP HANA sono progettate per fornire velocità effettiva di riferimento e burst ottimale e la capacità di contenere diversi set di backup. Conservare più set di backup nel volume di backup semplifica il recupero del tuo database, se necessario.
Per rendere disponibili i backup SAP HANA come risorsa di regione per il ripristino di emergenza, puoi utilizzare gli snapshot dei dischi permanenti di Compute Engine. Puoi programmare gli snapshot per eseguire regolarmente e automaticamente il backup del tuo disco permanente. Per saperne di più, consulta Snapshot di dischi permanenti.
Se utilizzi il livello di scalabilità dinamica SAP HANA, lo spazio di archiviazione di backup deve essere sufficientemente grande da contenere sia i dati in memoria sia i dati gestiti su disco dal server di suddivisione dinamica.
Puoi utilizzare altri meccanismi per archiviare i backup SAP HANA. Se utilizzi l'agente Cloud Storage Backint per SAP HANA, puoi eseguire il backup di SAP HANA direttamente su un bucket Cloud Storage, utilizzando l'utilizzo di un disco permanente per l'archiviazione dei backup.
Tiering dinamico SAP HANA
Il livello dinamico SAP HANA è certificato da SAP per l'uso in ambienti di produzione su Google Cloud. Il livello dinamico SAP HANA estende l'archiviazione dei dati SAP HANA archiviando i dati a cui si accede raramente su disco anziché in memoria.
Per ulteriori informazioni, consulta la pagina relativa al livellamento dinamico SAP HANA su Google Cloud.
Opzione SAP HANA Fast Restart
Per SAP HANA 2.0 SP04 e versioni successive, Google Cloud consiglia vivamente l'opzione SAP HANA Fast Restart.
La funzionalità di riavvio rapido di SAP HANA riduce il tempo di riavvio in caso di terminazione di SAP HANA, ma il sistema operativo rimane in esecuzione. Per ridurre il tempo di riavvio, SAP HANA utilizza la funzionalità di memoria permanente SAP HANA per preservare i frammenti di dati PRINCIPALI delle tabelle di archivi di colonne nella DRAM mappata al file system tmpfs
.
Inoltre, sulle VM delle famiglie di tipi di macchine ottimizzate per la memoria M2 e M3 di Compute Engine, SAP HANA Fast Restart migliora i tempi di ripristino se si verificano errori non corretti in memoria. Per ulteriori informazioni, consulta Recupero degli errori di memoria con il riavvio rapido sulle VM di Compute Engine.
Per informazioni sulla configurazione di SAP HANA Fast Restart, consulta le informazioni di configurazione nella guida al deployment dello scenario di deployment SAP HANA. Ad esempio, per uno scale up o scale out senza deployment in standby, consulta Configurazione di SAP HANA Fast Restart.
Impostazioni del sistema operativo obbligatorie per il riavvio rapido SAP HANA
Per utilizzare SAP HANA Fast Restart, il tuo sistema operativo deve essere ottimizzato come richiesto da SAP.
Se utilizzi i file di configurazione di Terraform o i modelli di Deployment Manager forniti da Google Cloud, le impostazioni del kernel vengono definite automaticamente.
Se non utilizzi i file di deployment forniti da Google Cloud, SAP fornisce indicazioni per la configurazione dei sistemi operativi RHEL e SLES per SAP HANA. Per il riavvio rapido di SAP HANA, presta particolare attenzione all'impostazione corretta di numa_balancing
e transparent_hugepage
.
Se usi RHEL, usa il profilo ottimizzato sap-hana
, se disponibile.
Per i passaggi di configurazione, vedi:
- Nota SAP 2292690 - SAP HANA DB: impostazioni consigliate del sistema operativo per RHEL 7
- Nota SAP 2777782 - SAP HANA DB: impostazioni del sistema operativo consigliate per RHEL 8
Se utilizzi SLES, usa lo strumento saptune
di SUSE per applicare la configurazione richiesta. Per applicare tutte le impostazioni SAP HANA consigliate, inclusi entrambi i parametri kernel precedenti, specifica il seguente comando saptune
:
saptune solution apply HANA
Per maggiori informazioni sulla configurazione di SLES per SAP HANA, vedi:
- Nota SAP 2205917 - SAP HANA DB: impostazioni consigliate per SLES 12 / SLES per applicazioni SAP 12
- Nota SAP 2684254 - SAP HANA DB: impostazioni consigliate per SLES 15 / SLES per applicazioni SAP 15
Ripristino di errori di memoria con il riavvio rapido sulle VM di Compute Engine
L'abilitazione del riavvio rapido SAP HANA sulle VM nelle famiglie M2 e M3 dei tipi di macchine ottimizzate per la memoria di Compute Engine riduce il tempo impiegato da SAP HANA per il ripristino dagli errori di memoria non corretti.
Sfruttando le capacità del processore Intel, i tipi di macchina M2 e M3 possono continuare a funzionare quando si verificano errori non corretti nel sottosistema memoria. Se la funzionalità Riavvio rapido SAP HANA è abilitata quando si verifica un errore di memoria, il processo SAP HANA interessato si riavvia, ma non è necessario ricaricare l'intero database, ma solo il blocco di file interessato.
Tipi di macchina che supportano il ripristino da errori di memoria
I seguenti tipi di macchina Compute Engine supportano il recupero dagli errori di memoria:
m3-ultramem-32
m3-ultramem-64
m3-ultramem-128
m3-megamem-64
m3-megamem-128
m2-ultramem-208
m2-ultramem-416
m2-megamem-416
m2-hypermem-416
Sistemi operativi richiesti per il ripristino da errori di memoria
Con le patch del kernel richieste, i seguenti sistemi operativi supportano il recupero in memoria degli errori con SAP HANA Fast Restart:
- SUSE Linux Enterprise Server (SLES) per SAP, 12 SP3 o versioni successive.
- Incluso nelle immagini pubbliche di Compute Engine con data di build v202103* o successiva.
- Se devi applicare le patch del kernel più recenti a un deployment esistente, segui la procedura di aggiornamento standard. Ad esempio,
esegui i seguenti comandi:
- aggiornamento sudo zypper
- aggiornamento sudo zypper
- Red Hat Enterprise Linux (RHEL) per SAP, 8.4 o versioni successive.
Opzioni del file server
Le opzioni del file server per SAP HANA su Google Cloud includono Filestore e NetApp Cloud Volumes Service for Google Cloud.
Per ulteriori informazioni su tutte le opzioni del file server per SAP su Google Cloud, consulta Soluzioni di condivisione file per SAP su Google Cloud.
Filestore
Per il volume /hana/shared
in una configurazione con scale out in una singola zona, ti suggeriamo di utilizzare il livello di servizio Filestore di base previsto per le risorse di zona. Per gli scenari in cui
è richiesta un'ulteriore resilienza, puoi utilizzare
Filestore Enterprise. Per saperne di più, consulta Componenti in un sistema di scale out SAP HANA su Google Cloud.
Servizio NetApp Cloud Volumes per Google Cloud
NetApp Cloud Volumes Service for Google Cloud è una piattaforma di servizi dati cloud-native completamente gestita che puoi utilizzare per creare un file system NFS per i sistemi di scale up SAP HANA su tutti i tipi di istanze Compute Engine certificate per SAP HANA.
Il servizio NetApp Cloud Volumes offre due tipi di servizio: CVS e CVS-Performance. Il tipo di servizio CVS_Performance offre livelli di servizio diversi. Devi utilizzare il tipo di servizio NetApp Cloud Volumes Service CVS-Performance (NetApp CVS-Performance) e il livello di servizio Extreme con SAP HANA.
Il supporto per NetApp CVS-Performance nei deployment con scale out è limitato a tipi di istanze Compute Engine specifiche, come indicato nella tabella in Tipi di macchine certificate per SAP HANA.
Con NetApp CVS-Performance puoi archiviare tutte le directory SAP HANA, incluse /hana/data
e /hana/logs
, in uno spazio di archiviazione condiviso invece di utilizzare i dischi permanenti di Compute Engine. Con la maggior parte degli altri sistemi di archiviazione condivisi, puoi inserire solo la directory /hana/shared
nello spazio di archiviazione condiviso.
Il supporto di SAP per NetApp CVS-Performance su Google Cloud è elencato nella directory hardware SAP HANA certificata e supportata.
Disponibilità regionale di NetApp CVS-Performance per SAP HANA
I volumi NetApp CVS-Performance devono trovarsi nella stessa regione delle istanze VM host.
Il supporto per SAP HANA di NetApp CVS-Performance non è disponibile in tutte le aree geografiche in cui è disponibile NetApp CVS-Performance.
Puoi utilizzare NetApp CVS-Performance con SAP HANA nelle seguenti regioni di Google Cloud:
Regione | Località |
---|---|
europe-west4 |
Eemshaven, Paesi Bassi, Europa |
us-east4 |
Ashburn, Virginia del Nord, USA |
us-west2 |
Los Angeles, California, USA |
Se ti interessa eseguire SAP HANA con NetApp CVS-Performance in una regione Google Cloud non elencata sopra, contatta il team di vendita.
Supporto del protocollo NFS
NetApp CVS-Performance supporta i protocolli NFSv3 e NFSv4.1 con SAP HANA su Google Cloud.
NFSv3 è consigliato per volumi configurati per consentire più connessioni TCP. NFSv4.1 non è ancora supportato con più connessioni TCP.
Requisiti di volume per il servizio NetApp Cloud Volumes con SAP HANA
I volumi CVS di NetApp devono trovarsi nella stessa regione delle istanze VM dell'host.
Per i volumi /hana/data
e /hana/log
, è richiesto il livello di servizio estremo di NetApp CVS-Performance. Puoi utilizzare il livello di servizio Premium per la directory /hana/shared
se si trova in un volume separato dalle directory /hana/data
e /hana/log
.
Per ottenere le migliori prestazioni con i sistemi SAP HANA di dimensioni maggiori di 1 TB, crea volumi separati per /hana/data
, /hana/log
e /hana/shared
.
Per soddisfare i requisiti di prestazioni di SAP HANA, le seguenti dimensioni minime del volume sono obbligatorie quando si esegue SAP HANA con NetApp CVS-Performance:
Directory | Dimensioni minime |
---|---|
|
1 TB |
|
2,5 TB |
|
4 TB |
Regola le dimensioni dei volumi per soddisfare i requisiti di velocità effettiva. La velocità effettiva minima per il livello di servizio estremo è di 128 MB al secondo per ogni TB, quindi la velocità effettiva per 4 TB di spazio su disco è di 512 MB al secondo.
Il provisioning di più spazio su disco per il volume /hana/data
può ridurre i tempi di avvio. Per il volume /hana/data
, consigliamo una dimensione pari a 1,5 volte la dimensione della memoria o 4 TB, a seconda di quale sia maggiore.
La dimensione minima per il volume /hanabackup
viene determinata dalla strategia di backup. Puoi anche utilizzare l'agente Cloud Storage Backint per SAP HANA per eseguire il backup del database direttamente in Cloud Storage.
Deployment di un sistema SAP HANA con NetApp CVS-Performance
Per eseguire il deployment di NetApp CVS-Performance con SAP HANA su Google Cloud, devi prima eseguire il deployment delle tue VM e installare SAP HANA. Puoi utilizzare i file di configurazione Terraform o i modelli di Deployment Manager forniti da Google Cloud per eseguire il deployment delle VM e di SAP HANA oppure puoi creare le istanze VM e installare manualmente SAP HANA.
Se utilizzi i file di configurazione di Terraform o i modelli di Deployment Manager, il deployment delle VM viene eseguito con il volume /hana/data
e /hana/log
mappati a dischi permanenti. Dopo aver montato i volumi NetApp CVS-Performance nelle VM, devi copiare il contenuto dei dischi permanenti, come descritto nei passaggi seguenti.
Per eseguire il deployment di SAP HANA con NetApp CVS-Performance utilizzando i file di deployment offerti da Google Cloud:
Esegui il deployment di SAP HANA con dischi permanenti seguendo le istruzioni che preferisci:
Crea i tuoi volumi NetApp CVS-Performance. Per istruzioni complete relative a NetApp, consulta la documentazione di NetApp Cloud Volumes Service for Google Cloud.
Monta NetApp CVS-Performance su un punto di montaggio temporaneo utilizzando il comando
mount
con le seguenti impostazioni:mount -t nfs -o options server:path mountpoint
Per options, utilizza le seguenti impostazioni:
rw,bg,hard,rsize=1048576,wsize=1048576,vers=3,tcp,nconnect=16,noatime,nolock
L'opzione
vers=3
indica NFSv3. L'opzionenconnect=16
specifica il supporto per più connessioni TCP.Arresta SAP HANA e tutti i servizi correlati che utilizzano i volumi di dischi permanenti collegati.
Copia il contenuto dei volumi del disco permanente nei volumi corrispondenti di NetApp CVS.
Scollega i dischi permanenti.
Rimonta i volumi CVS NetApp nei punti di montaggio permanenti aggiornando
/etc/fstab
con le seguenti impostazioni:server:path /mountpoint nfs options 0 0
Per options, utilizza le seguenti impostazioni:
rw,bg,hard,rsize=1048576,wsize=1048576,vers=3,tcp,nconnect=16,noatime,nolock
Per ulteriori informazioni sull'aggiornamento del file
/etc/fstab
, consulta la paginanfs
nel manuale Formati file di Linux.Per ottenere le migliori prestazioni, aggiorna la categoria
fileio
nel file SAP HANAglobal.ini
con le seguenti impostazioni suggerite:Parametro Valore async_read_submit
on
async_write_submit_active
on
async_write_submit_blocks
all
max_parallel_io_requests
128
max_parallel_io_requests[data]
128
max_parallel_io_requests[log]
128
num_completion_queues
4
num_completion_queues[data]
4
num_completion_queues[log]
4
num_submit_queues
8
num_submit_queues[data]
8
num_submit_queues[log]
8
Riavvia SAP HANA.
Dopo aver confermato che tutto funziona come previsto, elimina i dischi permanenti per evitare che ti vengano addebitati i relativi costi.
Identificazione degli utenti e accesso alle risorse
Quando pianifichi la sicurezza per un deployment SAP su Google Cloud, devi identificare:
- Gli account utente e le applicazioni che devono accedere alle risorse Google Cloud nel tuo progetto Google Cloud
- Le risorse Google Cloud specifiche nel tuo progetto a cui ogni utente deve accedere
Devi aggiungere ogni utente al tuo progetto aggiungendo il relativo ID Account Google al progetto come entità. Per un programma che utilizza le risorse Google Cloud, crei un account di servizio, che fornisce un'identità utente per il programma all'interno del tuo progetto.
Le VM di Compute Engine hanno un proprio account di servizio. Tutti i programmi eseguiti su una VM possono utilizzare l'account di servizio VM, purché l'account di servizio VM disponga delle autorizzazioni per le risorse necessarie per il programma.
Dopo aver identificato le risorse Google Cloud che ogni utente deve utilizzare, concedi a ciascun utente l'autorizzazione a utilizzare ogni risorsa assegnandogli ruoli specifici per la risorsa. Esamina i ruoli predefiniti forniti da IAM per ogni risorsa e assegna a ciascun utente i ruoli che forniscono autorizzazioni sufficienti per completare le attività o le funzioni dell'utente e altro ancora.
Se hai bisogno di un controllo più granulare o restrittivo sulle autorizzazioni rispetto ai ruoli IAM predefiniti, puoi creare ruoli personalizzati.
Per ulteriori informazioni sui ruoli IAM di cui i programmi SAP hanno bisogno su Google Cloud, consulta Identity and Access Management per i programmi SAP su Google Cloud.
Per una panoramica della gestione di identità e accessi per SAP su Google Cloud, consulta la panoramica di Identity and Access Management per SAP su Google Cloud.
Considerazioni sui prezzi e sulle quote per SAP HANA
Sei responsabile dei costi sostenuti per l'utilizzo delle risorse create seguendo questa guida al deployment. Usa il Calcolatore prezzi per stimare i costi effettivi.
Quote
SAP HANA richiede più CPU e memoria di molti carichi di lavoro su Google Cloud. Se hai un nuovo account Google Cloud o se non hai richiesto una quota maggiore, dovrai farlo per eseguire il deployment di SAP HANA.
La tabella seguente mostra i valori delle quote per i sistemi SAP HANA con scalabilità verso host singolo per tipo di istanza VM.
Per un sistema SAP HANA con scalabilità orizzontale o più sistemi con scale up, devi includere gli importi totali delle risorse per tutti i sistemi. Per indicazioni su come determinare i requisiti di archiviazione per i sistemi con scale out, consulta Determinazione delle dimensioni del disco permanente.
Visualizza la tua quota esistente e confrontala con i tuoi requisiti relativi alle risorse (CPU, memoria e spazio di archiviazione) per vedere quale aumento richiedere. Successivamente, potrai richiedere un aumento del limite di quota.
Sebbene il disco permanente estremo (pd-extreme
) sia ancora certificato per l'utilizzo con SAP
HANA, ti consigliamo di utilizzare Hyperdisk Extreme, che offre
prestazioni migliori. Se vuoi utilizzare dischi permanenti con carico estremo, devi eseguirne il provisioning utilizzando le dimensioni Hyperdisk Extreme.
Tipo di istanza | vCPU | Memoria | DP standard (facoltativo) | DP SSD | DP bilanciato | Hyperdisk Extreme |
---|---|---|---|---|---|---|
n1-highmem-32 |
32 | 208 GB | 448 GB | 593 GB | 943 GB | Non applicabile (N/A) |
n1-highmem-64 |
64 | 416 GB | 864 GB | 1.155 GB | 1.155 GB | N/A |
n1-highmem-96 |
96 | 624 GB | 1280 GB | 1.716 GB | 1.716 GB | N/A |
n2-highmem-32 |
32 | 256 GB | 544 GB | 723 GB | 943 GB | N/A |
n2-highmem-48 |
48 | 384 GB | 800 GB | 1068 GB | 1068 GB | N/A |
n2-highmem-64 |
64 | 512 GB | 1056 GB | 1414 GB | 1414 GB | N/A |
n2-highmem-80 |
80 | 640 GB | 1.312 GB | 1760 GB | 1760 GB | N/A |
n2-highmem-96 |
96 | 768 GB | 1.568 GB | 2105 GB | 2105 GB | N/A |
n2-highmem-128 |
128 | 864 GB | 1760 GB | 2364 GB | 2364 GB | N/A |
m1-megamem-96 |
96 | 1433 GB | 2898 GB | 3287 GB | 3287 GB | 3287 GB |
m1-ultramem-40 |
40 | 961 GB | 1954 GB | 2626 GB | 2626 GB | N/A |
m1-ultramem-80 |
80 | 1922 GB | 3876 GB | 3874 GB | 3874 GB | 3874 GB |
m1-ultramem-160 |
160 | 3844 GB | 7720 GB | 6180 GB | 6180 GB | 6180 GB |
m2-megamem-416 |
416 | 5888 GB | 11.832 GB | 8.633 GB | 8.633 GB | 8.633 GB |
m2-ultramem-208 |
208 | 5888 GB | 11.832 GB | 8.633 GB | 8.633 GB | 8.633 GB |
m2-ultramem-416 |
416 | 11.766 GB | 23.564 GB | 15.660 GB | 15.660 GB | 15.660 GB |
m2-hypermem-416 |
416 | 8832 GB | 17.696 GB | 12.166 GB | 12.166 GB | 12.166 GB |
m3-ultramem-32 |
32 | 976 GB | N/A | 2667 GB | 2667 GB | N/A |
m3-ultramem-64 |
64 | 1952 GB | N/A | 3910 GB | 3910 GB | 3910 GB |
m3-ultramem-128 |
128 | 3904 GB | N/A | 6252 GB | 6252 GB | 6252 GB |
m3-megamem-64 |
64 | 976 GB | N/A | 2667 GB | 2667 GB | 2667 GB |
m3-megamem-128 |
128 | 1952 GB | N/A | 3910 GB | 3910 GB | 3910 GB |
Licenze
Per eseguire SAP HANA su Google Cloud, è necessario utilizzare la propria licenza (BYOL).
Per ulteriori informazioni da SAP sulla gestione delle licenze SAP HANA, consulta le chiavi di licenza per il database SAP HANA.
Architetture di deployment
SAP HANA su Google Cloud supporta architetture di scale up e scale out.
Architettura di scale up
Il seguente diagramma mostra l'architettura di scale up. Nel diagramma, nota sia il deployment su Google Cloud che il layout del disco. Puoi utilizzare Cloud Storage per eseguire il backup dei backup locali disponibili in /hanabackup
. Le dimensioni di questa piastra da muro devono essere uguali o superiori a quelle della montatura dei dati.
Su Google Cloud, un'architettura di scale up host singolo SAP HANA può includere i seguenti componenti:
Un'istanza Compute Engine per il database SAP HANA con larghezza di banda di rete fino a 32 Gbps o fino a 100 Gbps su tipi di macchina selezionati utilizzando il networking a larghezza di banda elevata.
I seguenti dischi permanenti di Compute Engine:
Per i volumi
/hana/data
e/hana/log
, uno o più dischi permanenti supportati da un'archiviazione a stato solido (basata su SSD) e configurati in uno dei seguenti modi:Un disco permanente partizionato basato su SSD per entrambi i volumi.
Due dischi permanenti basati su SSD, uno per ogni volume.
I tipi di disco permanente basato su SSD includono i tipi di disco SSD, bilanciati ed persistenti. Per le prestazioni, i dischi permanenti bilanciati e SSD devono essere dimensionati secondo la tabella riportata nella sezione Dimensioni minime per i dischi permanenti e i dischi permanenti bilanciati.
Un disco permanente bilanciato per il disco di avvio.
Facoltativamente, un disco permanente standard per il backup del database SAP HANA.
Regole firewall di Compute Engine che limitano l'accesso alle istanze.
Una subnet facoltativa, ma consigliata, con una topologia personalizzata e intervalli IP nell'area geografica di Google Cloud che preferisci. Il database SAP HANA e le altre istanze Compute Engine vengono lanciate all'interno di questa subnet. Puoi utilizzare una subnet esistente per SAP HANA.
Componenti facoltativi:
- L'agente Cloud Storage di Backint per SAP HANA per il backup direttamente su Cloud Storage.
- L'agente di monitoraggio Google Cloud per SAP HANA.
- SAP HANA Cockpit o SAP HANA Studio su una piccola VM di Compute Engine.
Se esegui il provisioning del tuo sistema SAP HANA senza un IP pubblico, non è in grado di connettersi direttamente alle risorse tramite la rete Internet pubblica, quindi devi fornire un metodo indiretto per l'accesso.
Configurare l'accesso privato Google in modo che la tua VM possa accedere alle API Google Cloud.
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete Internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, vedi Utilizzare IAP per l'inoltro TCP.
Utilizza una VM di Compute Engine configurata come bastion host per l'accesso alla rete Internet pubblica.
Architetture di scale out
L'architettura di scale out è composta da un host master, da un numero di host worker e, facoltativamente, da uno o più host in standby. Gli host sono interconnessi tramite una rete che supporta l'invio di dati tra host con velocità fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionati utilizzando il networking a larghezza di banda elevata.
Man mano che la domanda dei carichi di lavoro aumenta, soprattutto quando si utilizza OLAP, un'architettura multi-host e scalabile può distribuire il carico tra tutti gli host.
Il seguente diagramma mostra un'architettura scale out su Google Cloud.
Gli host in standby supportano la soluzione di ripristino da errori automatici per l'host SAP HANA. Per ulteriori informazioni sul failover automatico dell'host su Google Cloud, consulta l'articolo Eseguire il failover automatico dell'host SAP su Google Cloud.
Il seguente diagramma mostra un'architettura di scale out con failover automatico dell'host su Google Cloud.
Strutture del disco per sistemi di scale out SAP HANA su Google Cloud
Ad eccezione degli host in standby, ogni host ha i propri volumi /hana/data
, /hana/log
e,
di solito, /usr/sap
su dischi permanenti basati su SSD, che forniscono
servizi IOPS e IO elevati e coerenti. L'host master funge anche da master NFS per i volumi /hana/shared
e /hanabackup
, montato su ciascun worker e host in standby.
Per un host in standby, i volumi /hana/data
e /hana/log
non vengono montati fino a quando non avviene un takeover.
Disponibilità elevata per i sistemi con scale out SAP HANA su Google Cloud
Le seguenti funzionalità aiutano a garantire l'alta disponibilità di un sistema di scale out SAP SAP HANA:
- Migrazione live di Compute Engine
- Riavvio automatico delle istanze di Compute Engine
- Failover automatico dell'host SAP HANA con un massimo di tre host standby SAP HANA
Per ulteriori informazioni sulle opzioni ad alta disponibilità in Google Cloud, consulta la guida alla pianificazione dell'alta disponibilità di SAP HANA.
In caso di evento di migrazione live o riavvio automatico delle istanze, i volumi /hana/shared
e /hanabackup
protetti per l'archiviazione permanente possono essere di nuovo online non appena viene avviata un'istanza.
Se utilizzi un host in standby, in caso di errore, il failover automatico di SAP HANA smonta i volumi /hana/data
e /hana/log
dall'host non riuscito e monta su di essi l'host in standby.
Componenti in un sistema di scale out SAP HANA su Google Cloud
Un'architettura di SAP HANA su più host su Google Cloud contiene i seguenti componenti:
1 istanza VM di Compute Engine per ogni host SAP HANA nel sistema, inclusi 1 host master, fino a 15 host worker e fino a 3 host facoltativi in standby.
Ogni VM utilizza lo stesso tipo di macchina Compute Engine. Per i tipi di macchina supportati da SAP HANA, consulta la sezione Tipi di macchine certificate per SAP HANA.
I seguenti dischi permanenti di Compute Engine:
- Ogni VM deve includere un disco permanente SSD, montato nella posizione corretta.
- Facoltativamente, se non stai eseguendo il deployment di un sistema di failover automatico dell'host SAP HANA, un disco permanente standard per il volume locale
/hanabackup
per VM.
Una soluzione NFS di cui è stato eseguito il deployment separatamente per i volumi
/hana/shared
e/hanabackup
con gli host worker e di standby. Puoi utilizzare Filestore o un'altra soluzione NFS.regole del firewall Compute Engine o altri controlli di accesso alla rete che limitano l'accesso alle istanze Compute Engine, consentendo al contempo la comunicazione tra le istanze e qualsiasi altra risorsa distribuita o remota richiesta dal tuo sistema SAP HANA.
Una subnet facoltativa, ma consigliata, con una topologia personalizzata e intervalli IP nell'area geografica di Google Cloud che preferisci. Il database SAP HANA e le altre istanze Compute Engine vengono lanciati all'interno di questa subnet. Se preferisci, puoi utilizzare una subnet esistente.
Componenti facoltativi:
- L'agente Cloud Storage di Backint per SAP HANA per il backup direttamente su Cloud Storage.
- L'agente di monitoraggio Google Cloud per SAP HANA.
- SAP HANA Cockpit o SAP HANA Studio su una piccola VM di Compute Engine.
Se esegui il provisioning del tuo sistema SAP HANA senza un IP pubblico, non è in grado di connettersi direttamente alle risorse tramite la rete Internet pubblica, quindi devi fornire un metodo indiretto per l'accesso.
Configura l'accesso privato Google in modo che la tua VM possa accedere alle API Google Cloud.
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete Internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, vedi Utilizzare IAP per l'inoltro TCP.
Utilizza una VM di Compute Engine configurata come bastion host per l'accesso alla rete Internet pubblica.
Automazione per deployment SAP HANA
Google Cloud fornisce i file di configurazione e i modelli di Deployment Manager Terraform che puoi utilizzare per automatizzare il deployment dell'infrastruttura Google Cloud e, facoltativamente, di SAP HANA.
Le opzioni di automazione del deployment fornite da Google Cloud supportano i seguenti scenari di deployment SAP HANA:
- Scale up
- Fai lo scale up in un cluster ad alta disponibilità a due nodi
- Scale out
- Scale out con nodi di standby automatico failover di SAP HANA
Per scoprire di più sull'automazione per gli scenari di deployment con scale up o scale out, consulta:
- Automazione del deployment per sistemi di scale up
- Automazione del deployment per sistemi con scale out
Automazione del deployment dell'istanza SAP HANA
Facoltativamente, puoi includere l'installazione di SAP HANA con il deployment automatizzato dell'infrastruttura Google Cloud.
Gli script di installazione forniti da Google Cloud dopo aver eseguito il deployment dell'infrastruttura.
Se qualsiasi problema impedisce l'installazione di un'istanza SAP HANA, di solito l'infrastruttura viene comunque sottoposta a deployment e configurata. Puoi quindi utilizzare l'infrastruttura di cui hai eseguito il deployment e installare manualmente SAP HANA o eliminare l'infrastruttura, correggere il problema ed eseguire nuovamente l'automazione del deployment finché l'istanza SAP HANA non è installata correttamente.
Quando utilizzi gli script di installazione utilizzati da Google Cloud per installare SAP HANA, devi fornire valori per determinati parametri. Se ometti questi parametri o non specifichi valori validi per tutti, lo script di installazione non riuscirà a installare l'istanza SAP HANA sull'infrastruttura di cui hai eseguito il deployment.
Quando utilizzi i file di configurazione di Terraform forniti da Google Cloud per installare SAP HANA, devi fornire valori validi per i seguenti argomenti:
sap_hana_deployment_bucket
,sap_hana_sid
,sap_hana_sidadm_uid
,sap_hana_sidadm_password
esap_hana_system_password
. Per ulteriori informazioni sugli argomenti Terraform, consulta la guida al deployment dello scale up di SAP HANA.Quando utilizzi i modelli di Deployment Manager forniti da Google Cloud per installare SAP HANA, devi fornire valori validi per i seguenti parametri di configurazione:
sap_hana_deployment_bucket
,sap_hana_sid
,sap_hana_instance_number
,sap_hana_sidadm_password
,sap_hana_system_password
esap_hana_scaleout_nodes
. Per ulteriori informazioni sulle proprietà di Deployment Manager, consulta Deployment Manager: guida al deployment per lo scale up di SAP HANA.
Gestione delle password
Per automatizzare l'installazione di SAP HANA sulle VM di Compute Engine di cui hai eseguito il deployment, devi specificare le password per l'utente SIDadm
e per l'utente database. Puoi specificare queste password nel file di configurazione Terraform nei modi seguenti:
(Consigliato) Per fornire le password agli script di installazione in modo sicuro, puoi creare i secret utilizzando Secret Manager, che è un servizio a pagamento di Google Cloud, e specificare i nomi dei secret come valori per gli argomenti
sap_hana_sidadm_password_secret
esap_hana_system_password_secret
.Per informazioni sui prezzi di Secret Manager, consulta Prezzi di Secret Manager.
In alternativa, puoi specificare le password in testo normale per gli argomenti
sap_hana_sidadm_password
esap_hana_system_password
.
VM personalizzate e deployment automatici
I file di configurazione e i modelli di Deployment Manager di Terraform non supportano la specifica delle VM personalizzate di Compute Engine.
Se devi utilizzare un tipo di VM personalizzato, devi prima eseguire il deployment di un piccolo tipo di VM predefinita e, una volta completato il deployment, personalizzarla in base alle tue esigenze.
Per ulteriori informazioni sulla modifica delle VM, consulta la pagina relativa alla modifica delle configurazioni delle VM per i sistemi SAP.
Automazione del deployment per sistemi di scale up
Google Cloud fornisce i file di configurazione di Terraform e i modelli di configurazione di Deployment Manager che puoi utilizzare per automatizzare il deployment dei sistemi di scale up host host SAP.
Gli script Terraform o Deployment Manager possono essere utilizzati per i seguenti scenari:
Un sistema SAP HANA autonomo e scalabile.
Consulta la guida al deployment di Terraform o Deployment Manager.
Un sistema SAP HANA con scalabilità attiva e standby su un cluster ad alta disponibilità di Linux.
Consulta la guida al deployment di Terraform o Deployment Manager.
Gli script Terraform o Deployment Manager possono eseguire il deployment di VM, dischi permanenti, SAP HANA e, nel caso del cluster ad alta disponibilità Linux, dei componenti ad alta disponibilità richiesti.
Gli script di Deployment Manager non eseguono il deployment dei seguenti componenti di sistema:
- Rete e subnet
- Regole del firewall
- Gateway NAT, bastion host o relative VM
- SAP HANA Studio o la sua VM
Ad eccezione di SAP HANA Studio o della relativa VM, puoi utilizzare Terraform per eseguire il deployment di tutti questi componenti di sistema.
Per informazioni sulla creazione di questi componenti, consulta la sezione Prerequisiti nelle seguenti guide:
- Terraform: guida al deployment per lo scale up di SAP HANA
- Deployment Manager: guida al deployment per lo scale up di SAP HANA
Automazione del deployment per sistemi a scale out
Google Cloud fornisce i file di configurazione e i modelli di configurazione di Deployment Manager di Terraform che puoi utilizzare per automatizzare il deployment dei sistemi di scale out multi-host SAP HANA.
- Per eseguire il deployment di un sistema che prevedono lo scale out che non includa l'failover automatico dell'host SAP HANA, consulta la Terraform: SAP HANA Deployment Guide o Deployment Manager: SAP HANA Deployment Guide.
- Per eseguire il deployment di un sistema con scale out che includa host in standby, consulta la pagina Terraform: SAP HANA Scale-Out System with Host Auto-Failover Deployment Guide o Deployment Manager: SAP HANA Scale-Out System with Host Auto-Failover Deployment Guide.
La configurazione Terraform o i modelli Deployment Manager possono eseguire il deployment di VM, dischi permanenti e SAP HANA. Possono anche mappare i punti di montaggio NFS ai volumi condivisi e di backup SAP HANA. Per i deployment con scalabilità verso più host, la configurazione Terraform o il modello Deployment Manager possono anche eseguire il deployment di nuove istanze Filestore per ospitare i volumi di SAP condivisi e di backup.
Gli script di Deployment Manager non eseguono il deployment dei seguenti componenti di sistema:
- Rete e subnet
- Regole del firewall
- Gateway NAT, bastion host o relative VM
- SAP HANA Studio o la sua VM
Ad eccezione di SAP HANA Studio o della relativa VM, puoi utilizzare Terraform per eseguire il deployment di tutti questi componenti di sistema.
Soluzioni di condivisione file per deployment con più host su più host
La configurazione Terraform fornita da Google Cloud per il deployment con più livelli host host SAP HANA, per impostazione predefinita, crea esportazioni NFS per i volumi /hana/shared
e /hanabackup
sull'istanza VM SAP HANA principale e condivide i volumi con i nodi worker.
Tuttavia, se vuoi utilizzare una soluzione NFS per la condivisione dei volumi /hana/shared
e /hanabackup
con i tuoi host worker, puoi utilizzare una delle seguenti opzioni:
Per associare una soluzione NFS esistente di cui hai eseguito il deployment su Google Cloud, devi specificare i punti di montaggio NFS dei volumi
/hana/shared
e/hanabackup
rispettivamente negli argomentisap_hana_shared_nfs
esap_hana_backup_nfs
nel file di configurazione Terraform.Per eseguire il deployment di nuove istanze Filestore e associare le relative condivisioni file ai volumi
/hana/shared
e/hanabackup
, devi definire una risorsagoogle_filestore_instance
e specificare i nomi delle condivisioni file agli argomentisap_hana_shared_nfs_resource
esap_hana_backup_nfs_resource
, rispettivamente, nel file di configurazione Terraform.
Per visualizzare un esempio, consulta la configurazione di esempio.
Assistenza
Per problemi con l'infrastruttura o i servizi Google Cloud, contatta l'assistenza clienti. Puoi trovare i dati di contatto nella pagina Panoramica dell'assistenza nella console Google Cloud. Se l'assistenza clienti stabilisce che un problema risiede nei tuoi sistemi SAP, contatta l'assistenza SAP.
Per problemi relativi ai prodotti SAP, registra la richiesta di assistenza con l'assistenza SAP. SAP valuta il ticket di assistenza e, se sembra essere un problema di infrastruttura di Google Cloud, trasferisce il ticket al componente Google Cloud BC-OP-LNX-GOOGLE o BC-OP-NT-GOOGLE.
Requisiti per l'assistenza
Prima di poter ricevere assistenza per i sistemi SAP e l'infrastruttura e i servizi Google Cloud che utilizzano, devi soddisfare i requisiti minimi del piano di assistenza.
Per ulteriori informazioni sui requisiti minimi di assistenza per SAP su Google Cloud, consulta:
- Assistenza per SAP su Google Cloud
- Nota SAP 2456406 (è necessario un account utente SAP)
Passaggi successivi
- Per ulteriori informazioni da SAP sul livello dinamico SAP HANA dinamico, consulta la pagina Livello dinamico SAP HANA.