Jumbo Frames für Oracle RAC auf Bare-Metal-Lösung konfigurieren
Übersicht
Um eine Fragmentierung der Pakete zu vermeiden, während sie in einer RAC-Umgebung von einem Knoten zu einem anderen Knoten übertragen werden, empfiehlt Oracle die Konfiguration von Jumbo Frames (MTU-Größe 9000). Dieses Dokument enthält Schritte zum Erstellen von Jumbo Frames (MTU 9000) auf Bare-Metal-Lösungsservern für Oracle RAC.
Hinweise
Die Konfiguration sollte vor der Installation von Oracle RAC durchgeführt werden.
Die Konfiguration muss für alle Knoten des Clusters konsistent sein.
Partner Interconnect unterstützt noch keine Jumbo Frames. (Google Cloud -> Bare-Metal-Lösungskommunikation kann keine Jumbo Frames verwenden).
Nur Bare-Metal-Lösungen für Bare-Metal-Lösungen können Jumbo Frames verwenden.
Konfigurationsschritte
Führen Sie den folgenden Befehl aus, um die Netzwerkschnittstellen und die
mtu
-Größe der Interconnect-Verbindung zu identifizieren:ip link show | grep mtu
Beispielausgabe:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000 2: enp55s0f1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 3: enp55s0f2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 4: enp55s0f3: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 5: enp17s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 6: enp17s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 7: enp173s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 8: enp173s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 9: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 10: bond1.117@bond1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 11: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 12: bond0.118@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 13: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default qlen 1000 14: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN mode DEFAULT group default qlen 1000
Bearbeiten Sie die Schnittstellenkonfigurationsdateien als Root auf allen Knoten und fügen Sie
MTU=9000
hinzu. Die Datei finden Sie unter/etc/sysconfig/network-scripts/ifcfg-interface_name
.Beispielausgabe:
BONDING_OPTS="lacp_rate=1 miimon=100 mode=802.3ad xmit_hash_policy=1" TYPE=Bond BONDING_MASTER=yes PROXY_METHOD=none BROWSER_ONLY=no DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=no IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=bond1 UUID=0e7da685-64bf-44f3-812f-9846d747a801 DEVICE=bond1 ONBOOT=yes AUTOCONNECT_SLAVES=yes MTU=9000
Starten Sie die Netzwerkdienste neu, damit die Änderungen wirksam werden.
service network restart
Testen Sie
MTU configuration
mitping
.ping -c 2 -M do -s 8972 svr001-priv PING svr001-priv (172.16.1.10) 8972(9000) bytes of data. 8980 bytes from svr001-priv (172.16.1.10): icmp_seq=1 ttl=64 time=0.153 ms 8980 bytes from svr001-priv (172.16.1.10): icmp_seq=2 ttl=64 time=0.151 ms --- svr001-priv ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1001ms rtt min/avg/max/mdev = 0.151/0.152/0.153/0.001 ms