Best Practices für die Oracle auf Bare-Metal-Lösung
Wenn Sie Oracle-Datenbanken auf der Bare-Metal-Lösung implementieren, möchten Sie Ihre Umgebung vermutlich möglichst einfach und mit so wenigen Problemen wie möglich aufzurufen. Damit Sie dieses Ziel erreichen, haben wir Feedback von Kunden, unseren Lösungsarchitekten und Supportmitarbeitern gesammelt, die Oracle-Datenbanken auf der Bare-Metal-Lösung implementiert haben. Die folgenden Informationen sind Empfehlungen von diesen Experten, damit Sie Ihre eigene Oracle-Datenbankumgebung auf Bare-Metal-Lösung so erfolgreich wie möglich einrichten können.
Softwarebereitstellung
Für die erfolgreiche Bereitstellung von Oracle-Software empfehlen wir die Verwendung des Bare-Metal-Lösungs-Toolkits. Das Toolkit bietet mehrere Ansible- und JSON-Skripts, die Ihnen bei der Installation der Oracle-Software auf Bare-Metal-Lösung helfen. Weitere Informationen zum Bare-Metal-Lösungs-Toolkit und zum Installieren von Oracle-Datenbanken in einer Bare-Metal-Lösung-Umgebung finden Sie im Nutzerhandbuch für das Toolkit.
Betriebssystem
Wenn Sie Ihr Betriebssystem auf einem Bare-Metal-Lösungsserver einrichten, sollten Sie die folgenden Aktionen ausführen.
NTP-Server validieren
Alle Bare-Metal-Lösungsserver sollten mit einer Zeitquelle synchronisiert werden. Wählen Sie die physische oder virtuelle NTP-Serveroption aus, die Ihren Anforderungen am besten entspricht.
Wenn Ihre Server NTP für die Zeitsynchronisierung verwenden, prüfen Sie mit dem Befehl timedatectl
oder ntpstat
, ob der Server mit einer Zeitquelle synchronisiert ist. Die folgenden Beispiele zeigen die Ausgabe dieser Befehle für einen Server, der erfolgreich synchronisiert wird:
timedatectl show -p NTPSynchronized
NTPSynchronized=yes
synchronised to NTP server (216.239.35.8) at stratum 3
time correct to within 49 ms
polling server every 1024 s
Details zur CPU-Anzahl und zum Arbeitsspeicher für Oracle-VM ansehen
Verwenden Sie den Befehl xm info
, um Informationen zu einem Oracle-VM-Host (OVM), einschließlich Details zu CPU und Arbeitsspeicher, aufzurufen. Beispiel:
/usr/sbin/xm info
Weitere Informationen finden Sie in der Oracle-Dokumentation zum Aufrufen von Hostinformationen.
/etc/fstab
-Einstellungen auf die richtigen Bereitstellungsoptionen prüfen
Wenn Sie verhindern möchten, dass der Bootvorgang angehalten wird, konfigurieren Sie immer die von Ihnen erstellten Nicht-Root-Bereitstellungspunkte (z. B. /u01
und /u02
) mit der Bereitstellungsoption nofail
anstelle der Standardeinstellungen. In seltenen Fällen sind die zugrunde liegenden Speichergeräte möglicherweise nicht verfügbar, wenn ein Host neu gestartet wird. Mit der Bereitstellungsoption nofail
kann der Bootvorgang fortgesetzt werden, wenn der Server die Speichergeräte nicht anzeigen kann.
Das folgende Beispiel zeigt die empfohlenen Einstellungen für die Bereitstellungspunkte /u01
und /u02
in der Datei /etc/fstab
:
/dev/mapper/3600a098038314352513f4f765339624c1 /u01 xfs nofail 0 0
/dev/mapper/3600a374927591837194d4j371563816c1 /u02 xfs nofail 0 0
Sie können die Bereitstellungsoption von defaults
in nofail
ändern, ohne dass sich dies auf ein Betriebssystem auswirkt. Um die neuen Einstellungen anzuwenden, müssen Sie jedoch Ihren Server neu starten.
Einstellungen des Shell-Limits prüfen
Das Bare-Metal-Lösungs-Toolkit konfiguriert Shell-Limits, um Oracle RAC zu konfigurieren. Sie können diese Validierung überspringen, wenn Sie das Bare-Metal-Lösungs-Toolkit verwendet und die Shell-Limits nicht geändert haben. Shell-Limits müssen für alle Betriebssystemkonten festgelegt werden, die eine Oracle-Software haben, einschließlich Grid Infrastructure. Oracle empfiehlt für Linux die folgenden Einstellungen:
Limit | Weicher Limitwert | Harter Limitwert |
---|---|---|
Dateien öffnen | 1.024 | 65.536 |
Maximale Nutzerprozesse | 16.384 | 16.384 |
Stackgröße | 10240 | 32.768 |
Maximaler gesperrter Arbeitsspeicher | Mindestens 90% des Arbeitsspeichers | Mindestens 90% des Arbeitsspeichers |
Prüfen Sie mit dem Befehl ulimit
die weichen und harten Shell-Limits. Geben Sie beispielsweise diesen Befehl ein, um das weiche Shell-Limit zu prüfen:
ulimit -S -n -u -s -l
Die folgende Ausgabe zeigt die korrekten Soft Shell-Limiteinstellungen für ein System mit 384 GB Arbeitsspeicher:
open files (-n) 1024
max user processes (-u) 16384
stack size (kbytes, -s) 10240
max locked memory (kbytes, -l) 355263678
Prüfen Sie mit dem folgenden Befehl die harten Shell-Limits:
ulimit -H -n -u -s -l
Die folgende Ausgabe zeigt die korrekten Hartschalenlimits für ein System mit 384 GB Arbeitsspeicher:
open files (-n) 65536
max user processes (-u) 16384
stack size (kbytes, -s) 32768
max locked memory (kbytes, -l) 355263678
Wenn eines der Shell-Limits nicht korrekt festgelegt ist, ändern Sie die Einträge in der Datei /etc/security/limits.conf
wie im folgenden Beispiel gezeigt:
oracle soft nofile 1024
oracle hard nofile 65536
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft stack 10240
oracle hard stack 32768
oracle soft memlock 355263678
oracle hard memlock 355263678
grid soft nofile 1024
grid hard nofile 65536
grid soft nproc 2047
grid hard nproc 16384
grid soft stack 10240
grid hard stack 32768
grid soft memlock 355263678
grid hard memlock 355263678
grep MemTotal /proc/meminfo
MemTotal: 16092952 kB
Änderung von Multipath-Einstellungen vermeiden
Wenn Sie die Mehrpfadeinstellungen ändern möchten, konfigurieren Sie das Attribut path_grouping_policy
nicht, wenn Sie multipath.conf
zum Erstellen von Aliasnamen für Geräte verwenden. Eine solche Änderung überschreibt die im Definitionsabschnitt devices
festgelegte Standardrichtlinie.
Im Normalbetrieb sollte der Befehl multipath -ll
einen Status wie im folgenden Beispiel anzeigen. Jedes Gerät enthält zwei aktive Pfade, die sich im Bereitschaftszustand befinden.
3600a0980383143524f2b50476d59554e dm-7 NETAPP ,LUN C-Mode
size=xxxG features='4 queue_if_no_path pg_init_retries 50 retain_attached_hw_handle' hwhandler='1 alua' wp=rw
|-+- policy='service-time 0' prio=50 status=active
| |- 14:0:3:2 sdf 8:80 active ready running
| `- 16:0:5:2 sdv 65:80 active ready running
`-+- policy='service-time 0' prio=10 status=enabled
|- 14:0:2:2 sdc 8:32 active ready running
`- 16:0:3:2 sdq 65:0 active ready running
Jumbo Frames verwenden
Um eine Fragmentierung von Paketen bei der Übertragung von einem Server zu einem anderen in einer RAC-Umgebung zu verhindern, empfiehlt Oracle, Ihre Serverschnittstellen mit Jumbo-Frames zu konfigurieren. Jumbo Frames haben eine MTU-Größe von 9.000 Byte und sind groß genug, um Oracle-Datenbankblockgrößen von 8.192 Byte zu unterstützen.
So konfigurieren Sie Jumbo-Frames auf Servern der Bare-Metal-Lösung für Oracle RAC:
Rufen Sie die Einstellungen des privaten Netzwerks der Bare-Metal-Lösung auf, um zu prüfen, ob Jumbo-Frames konfiguriert wurden:
gcloud bms networks describe NETWORK_NAME --project=PROJECT_ID --region=REGION | grep jumboFramesEnabled
Beispielausgabe:
jumboFramesEnabled: true
Ermitteln Sie die Netzwerkschnittstellen und ihre
mtu
-Größe:ip link show | grep mtu
Beispielausgabe:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000 2: enp55s0f1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 3: enp55s0f2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 4: enp55s0f3: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 5: enp17s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 6: enp17s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 7: enp173s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 8: enp173s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 9: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 10: bond1.117@bond1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 11: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 12: bond0.118@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 13: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default qlen 1000 14: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN mode DEFAULT group default qlen 1000
Fügen Sie mithilfe von Berechtigungen auf Root-Ebene
MTU=9000
der Schnittstellenkonfigurationsdatei für alle Server in der Bare-Metal-Lösungsumgebung hinzu, die Jumbo-Frames verwenden. Sie finden die Datei unter/etc/sysconfig/network-scripts/ifcfg-interface_name
.Beispielausgabe:
BONDING_OPTS="lacp_rate=1 miimon=100 mode=802.3ad xmit_hash_policy=1" TYPE=Bond BONDING_MASTER=yes PROXY_METHOD=none BROWSER_ONLY=no DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=no IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=bond1 UUID=0e7da685-64bf-44f3-812f-9846d747a801 DEVICE=bond1 ONBOOT=yes AUTOCONNECT_SLAVES=yes MTU=9000
Starten Sie die Netzwerkdienste neu, damit die Änderungen wirksam werden:
service network restart
Führen Sie einen
ping
-Befehl aus, um die neue MTU-Konfiguration zu testen:ping -c 2 -M do -s 8972 svr001 PING svr001 (172.16.1.10) 8972(9000) bytes of data. 8980 bytes from svr001 (172.16.1.10): icmp_seq=1 ttl=64 time=0.153 ms 8980 bytes from svr001 (172.16.1.10): icmp_seq=2 ttl=64 time=0.151 ms --- svr001 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1001ms rtt min/avg/max/mdev = 0.151/0.152/0.153/0.001 ms
Oracle RMAN-Sicherungen und Auswirkungen auf die Latenz
Wenn der Oracle RMAN-Sicherungsprozess nicht durch den Parameter RATE
begrenzt ist, kann er den Speicherdurchsatz oder IOPS auf das Leistungslimit für ein Speicher-Volume übertragen. Dies führt dazu, dass die Speicher-E/A gedrosselt wird, wodurch sich die Latenz auf dem Speicher-Volume erhöht.
Wir empfehlen, den Kanalparameter RATE
zu implementieren, um die Bandbreite oder den Durchsatz zu begrenzen, die der Oracle RMAN verwenden kann.
Weitere Informationen finden Sie in der Oracle-Dokumentation: 23.2.1.4 RATE-Kanalparameter
Automatische Speicherverwaltung von Oracle
Unser Cloud Customer Care-Team und mehrere Kunden der Bare-Metal-Lösung haben den Umgebungen ihrer Bare-Metal-Lösungen die automatische Speicherverwaltung (Oracle Automatische Speicherverwaltung) hinzugefügt. Mit ihrer gesammelten Erfahrung und Weisheit haben wir die folgende Liste von Best Practices zusammengestellt, die Ihnen helfen sollen, Ihre eigene ASM-Laufwerksgruppe erfolgreich zu installieren. Unser Ziel ist es, Ihnen dabei zu helfen, die beste Speicherleistung für Ihre Bare-Metal-Lösungsumgebung zu erzielen.
- Einheitliche LUN-Größe verwenden
- Maximal zwei ASM-Laufwerksgruppen erstellen
- ASM-Laufwerksgruppen über alle LUNs in allen Volumes hinweg entfernen
- LUNs und Volumes mit denselben Leistungsmerkmalen in derselben Laufwerksgruppe verwenden
- Speicher-Volumes nicht für mehrere RAC-Cluster freigeben
- Erforderliche IOPS und Durchsatzkapazität vor dem Erstellen von ASM-Laufwerksgruppen kennen
- Die Mehrpfadkonfiguration unverändert lassen
- Wichtige Einstellungen für ASM konfigurieren
- ASM-Laufwerksgruppe mit externer Redundanz erstellen
- Server der Bare-Metal-Lösung nach dem Erstellen des ASM-Laufwerks neu starten
Einheitliche LUN-Größe verwenden
Die ausgewählte LUN-Größe sollte der Wachstumseinheit entsprechen. ASM funktioniert am besten mit LUNs, die dieselbe Größe und ähnliche Leistungsmerkmale haben. Für sehr große Datenbanken empfehlen wir eine LUN-Größe von 2 TB, um die Leistung zu optimieren.
Maximal zwei ASM-Laufwerksgruppen erstellen
Sie sollten Datendateien und eine Kopie der REDO
-Logs an eine einzelne DATA
-Laufwerksgruppe senden. Optional können Sie eine zweite FRA
-Laufwerksgruppe erstellen, um Sicherungen und Archivlogs auf dem Laufwerk zu speichern. Wenn Sie REDO
-Logs auf einem extrem robusten Speicher speichern, benötigen Sie nicht zwei Kopien.
REDO
-Logschreibvorgänge sind latenzempfindlich. Daher sollten Sie REDO
-Logs nur dann multiplizieren, wenn das Leistungsprofil der Laufwerksgruppe FRA
mit dem Leistungsprofil der Laufwerksgruppe DATA
übereinstimmt.
Stripe-ASM-Laufwerksgruppen über alle LUNs in allen Volumes hinweg
Führen Sie beim Erstellen von ASM-Laufwerksgruppen ein Striping der Laufwerksgruppe für alle LUNs aller Volumes durch. Wenn Ihre LUNs zu einem einzelnen Volume gehören, müssen Sie beim Erstellen einer Laufwerksgruppe alle LUNs in das Volume aufnehmen. Wenn ein Volume beispielsweise die Anzahl von LUNs bei X
hat, sollten Sie beim Erstellen der Laufwerksgruppe alle X
-LUNs verwenden.
Diese Empfehlung gilt auch für die Verwendung mehrerer Volumes, da die Dienstqualität für Volumes beschränkt ist. Wenn Sie mehrere Volumes für einen erhöhten Durchsatz (> 900 Mbit/s) verwenden, müssen Sie beim Erstellen der Laufwerksgruppe alle LUNs aus jedem Volume einbeziehen, um die erforderliche Leistung zu erzielen.
LUNs und Volumes mit denselben Leistungsmerkmalen in derselben Laufwerksgruppe verwenden
Wenn Sie mehrere Volumes zur Verbesserung des Durchsatzes verwenden, verwenden Sie beim Erstellen von ASM-Laufwerksgruppen dieselbe Volume-Größe und dieselben Leistungsmerkmale.
Mischen Sie nicht LUNs aus Volumes mit unterschiedlichen Leistungsmerkmalen. Wenn Sie LUNs und Volumes mit unterschiedlichen Leistungsprofilen in dieselbe Laufwerkgruppe aufnehmen, können Laufwerke, die E/A-Vorgänge ausführen, möglicherweise eine viel niedrigere Leistungsobergrenze und Latenzspitzen verursachen.
Wenn Sie beispielsweise eine ASM-Laufwerksgruppe mit zwei ungleichen Volumes (1 × 16 TiB und 1 × 5 TiB) erstellen, können die E/A-Vorgänge, die von den Laufwerken im 5 TB-Volume ausgeführt werden, zu einer erhöhten Latenz führen. Das 5-TiB-Volume hat einen viel niedrigeren Durchsatz und eine viel niedrigere IOPS-Obergrenze, sodass es die Drosselungsstufe schon lange vor der Drosselungsstufe für das 16-TiB-Volume erreicht hätte.
Speicher-Volumes nicht für mehrere RAC-Cluster freigeben
Stellen Sie für jeden RAC-Cluster ein eindeutiges Speicher-Volume bereit. Verwenden Sie nicht dasselbe Speicher-Volume für mehrere RAC-Cluster. Da Speichergeräte die Dienstqualität auf Volume-Ebene anwenden, minimiert diese Vorgehensweise die Wahrscheinlichkeit, dass verrauschte Nachbarn um einen einzelnen Pool von IOPS und Durchsatz konkurrieren.
Wenn ein einzelnes Volume beispielsweise acht LUNs hat, weisen Sie einige der LUNs nicht einem RAC-Datenbankcluster und die verbleibenden LUNs einem anderen RAC-Datenbankcluster zu. Stellen Sie stattdessen zwei separate Speicher-Volumes bereit und weisen Sie jedes Volume einem separaten, dedizierten RAC-Cluster pro Volume zu.
Vor dem Erstellen von ASM-Laufwerksgruppen die erforderlichen IOPS und Durchsatzkapazitäten kennen
Achten Sie auf die Spitzenleistungszahlen für Ihre lokale Umgebung. Generieren Sie dazu in Stunden mit Arbeitslasten AWR-Berichte, um die Spitzen-IOPS- und Durchsatzwerte Ihres Systems aufzuzeichnen. Sie können auch unser Oracle Database Assessment Tool verwenden, um Ihre Spitzenleistungszahlen zu ermitteln.
Sehen Sie in unserer Speicherleistungstabelle für die Bare-Metal-Lösung nach, um die Speicherkapazität zu berechnen, die Sie Ihren ASM-Laufwerksgruppen zuweisen müssen, um die erforderliche Leistung zu erzielen. Wenn Sie höhere Durchsatzanforderungen (> 768 Mbit/s) haben, können Sie mehrere Volumes erstellen und die ASM-Laufwerksgruppe auf allen LUNs und allen Volumes löschen.
Die Mehrpfadkonfiguration bleibt unverändert.
Sie sollten den standardmäßigen group_pathing_policy
in der Datei /etc/multipath.conf
nicht ändern. Sie sollten immer den Standardwert group_pathing_policy=group_by_prio
verwenden, um bei Fehlern des Speicherpfads die Entfernung von RAC-Knoten zu vermeiden.
Weitere Informationen dazu, wie Sie die Mehrpfadkonfiguration beibehalten, finden Sie unter Ändern der Mehrpfadeinstellungen vermeiden.
Wichtige Einstellungen für ASM konfigurieren
Wenn Sie Oracle Grid Infrastructure 12.1.0.2 oder höher unter Linux verwenden, richten Sie ASM mit ASMFD oder UDEV ein.
Verwenden Sie für frühere Versionen von Oracle Grid Infrastructure ASMLib.
Wenn Sie verhindern möchten, dass Oracle ASM zuerst Ihr ASM-Gerät mit einem einzelnen Pfad auswählt, legen Sie die Scanreihenfolge so fest:
ORACLEASM_SCANORDER="dm" ORACLEASM_SCANEXCLUDE="sd"
Wir benötigen diese Einstellung, da die Speicherumgebung der Bare-Metal-Lösung DM-Geräte verwendet, die Sie in
/proc/partitions
ansehen können.Führen Sie den folgenden Befehl als Root-Nutzer aus, um zu prüfen, ob ASMLib für die Verwaltung Ihrer ASM-Laufwerke konfiguriert ist:
/usr/sbin/oracleasm configure | grep SCAN
Wenn Sie ASMLib verwenden, sieht die Ausgabe so aus:
ORACLEASM_SCANBOOT=true ORACLEASM_SCANORDER="dm" ORACLEASM_SCANEXCLUDE="sd" ORACLEASM_SCAN_DIRECTORIES=""
ASM-Laufwerksgruppe mit externer Redundanz erstellen
Der von der Bare-Metal-Lösung bereitgestellte Speicher verwendet NETAPP RAID-DP. Dies ist eine Form von RAID 6, die Daten auch dann schützt, wenn zwei Laufwerke ausfallen. Daher empfehlen wir die Verwendung externer Redundanz für ASM.
Server der Bare-Metal-Lösung nach dem Erstellen des ASM-Laufwerks neu starten
Nachdem Sie Ihre ASM-Laufwerksgruppen erstellt haben, sollten Sie alle Server der Bare-Metal-Lösung im Cluster neu starten, damit sowohl die ASM-Instanz als auch die Laufwerksgruppen nach dem Neustart online sind. Befolgen Sie diesen proaktiven Schritt, damit Probleme vermieden werden, die auftreten können, nachdem der Datenbankcluster auf der ASM-Laufwerksgruppe erstellt wurde.
Oracle RAC
In diesem Abschnitt werden Best Practices für die Installation von Oracle Real Application Cluster (RAC) in einer Bare-Metal-Lösung erläutert.
Länge des Oracle Grid Infrastructure-Clusternamens
Verwenden Sie einen Clusternamen, der nicht länger als 15 Zeichen ist.
Ein Clustername, der länger als 15 Zeichen ist, führt dazu, dass das Skript root.sh
fehlschlägt.
Tunnel-VNC-Betrachter über SSH
Beliebige Server wie VNC Viewer werden von der Standardfirewall des Betriebssystems des Bare-Metal-Lösungsservers blockiert. Tunneln Sie daher entweder X Window oder den VNC-Viewer über SSH:
ssh -L 5901:localhost:5901 bms-host
vncviewer localhost:1
Ausreichend Speicherplatz für das Root-Dateisystem
Achten Sie darauf, dass das Root-Dateisystem (/) genügend freien Speicherplatz hat. Server der Bare-Metal-Lösung haben ein 20-GB-Root-Dateisystem, das möglicherweise nicht ausreicht.
Prüfen Sie auf dem Server Ihrer Bare-Metal-Lösung die Größe des Stammdateisystems „/“. Die Standardgröße beträgt 20 GB, was möglicherweise nicht ausreicht. Wenn die Größe 20 GB beträgt, erhöhen Sie sie.
Nameserver als Ersatz für Cloud DNS verwenden
Wenn Sie Cloud DNS nicht verwenden möchten, installieren Sie Ihren eigenen Nameserver, um Host-IP-Adressen auf dem Server der Bare-Metal-Lösung aufzulösen. Die Oracle Grid-Infrastruktur verwendet den Befehl nslookup
, um den Namen des DNS-Servers abzurufen.
Für den Befehl nslookup
wird die Datei /etc/hosts
nicht verwendet.
Gehen Sie so vor:
Installieren Sie
dnsmasq
.yum makecache yum install dnsmasq
Öffnen Sie die Datei
/etc/dnsmasq.conf
im Bearbeitungsmodus.vi /etc/dnsmasq.conf
Fügen Sie in der Datei
/etc/dnsmasq.conf
die folgenden Zeilen hinzu:port=53 domain-needed bogus-priv strict-order expand-hosts domain=localdomain address=/.localdomain/127.0.0.1 address=//127.0.0.1 listen-address=127.0.0.1 resolv-file=/etc/dnsmasq-resolv.conf
Bearbeiten Sie die Dateien
/etc/dnsmasq-resolv.conf
und/etc/resolv.conf
so, dass sie nur die folgende Zeile enthalten:nameserver 127.0.0.1
Starten Sie den Dienst
dnsmasq
:systemctl restart dnsmasq systemctl status dnsmasq
Führen Sie auf beiden Knoten den Befehl
nslookup
aus.nslookup at-2811641-svr001 Server: 127.0.0.1 Address: 127.0.0.1#53 Name: at-2811641-svr001 Address: 192.168.1.10 nslookup at-2811641-svr002 Server: 127.0.0.1 Address: 127.0.0.1#53 Name: at-2811641-svr002 Address: 192.168.1.11
NTP installieren
Achten Sie beim Installieren von NTP darauf, dass alle RAC-Knoten mit der Zeit Ihres Jump-Hosts oder Ihres internen NTP-Servers synchronisiert werden. Gehen Sie so vor:
NTP installieren
yum install ntp
Starten Sie den Dienst
ntpd
.systemctl start ntpd
Fügen Sie der Datei
/etc/ntp.conf
die folgende Zeile hinzu, um eine Synchronisierung mit dem Bastion Host zu erstellen, in diesem Fall10.x.x.x
. Sie können auch Ihren internen NTP-Server verwenden. In diesem Fall ist192.x.x.x
der Server Ihrer Bare-Metal-Lösung.restrict 192.x.x.x mask 255.255.255.0 nomodify notrap server 10.x.x.x prefer
Um die Synchronisierung zu starten, aktualisieren Sie den Zeitserver, damit die Synchronisierung gestartet wird.
ntpdate -qu SERVER_NAME
Stammskript jeweils nur auf einem Knoten ausführen
Führen Sie das Stammskript root.sh
immer auf jeweils einem Knoten aus. Wenn die Ausführung auf dem ersten Knoten fehlschlägt, fahren Sie nicht mit dem nächsten Knoten fort.
Localhost
klären
Da der Server der Bare-Metal-Lösung das Localhost
nicht zur Datei /etc/hosts
hinzufügt, lösen Sie Localhost
manuell in 127.0.0.1
auf.
Für ausreichende Ressourcenlimits sorgen
Prüfen Sie vor der Installation von Oracle RAC auf dem Server der Bare-Metal-Lösung, ob die Ressourcenlimits für den Nutzer root
und oracle
ausreichen.
Mit dem Befehl ulimit
können Sie die Limits prüfen.
Legen Sie die Variable ORACLEASM_SCANORDER
fest:
Wenn Sie Oracle ASMLib verwenden und verhindern möchten, dass Oracle ASM zuerst Ihr ASM-Gerät mit einem einzelnen Pfad auswählt, legen Sie die Scanreihenfolge so fest:
ORACLEASM_SCANORDER="dm"
ORACLEASM_SCANEXCLUDE="sd"
Wir benötigen diese Einstellung, da die Speicherumgebung der Bare-Metal-Lösung DM-Geräte verwendet, die Sie in der Datei /proc/partitions
ansehen können.
Oracle ist eine eingetragene Marke von Oracle und/oder seinen Tochterunternehmen.