Jumbo Frames für Oracle RAC auf Bare-Metal-Lösung konfigurieren

Übersicht

Um eine Fragmentierung der Pakete zu vermeiden, während sie in einer RAC-Umgebung von einem Knoten zu einem anderen Knoten übertragen werden, empfiehlt Oracle die Konfiguration von Jumbo Frames (MTU-Größe 9000). Dieses Dokument enthält Schritte zum Erstellen von Jumbo Frames (MTU 9000) auf Bare-Metal-Lösungsservern für Oracle RAC.

Hinweise

  1. Die Konfiguration sollte vor der Installation von Oracle RAC durchgeführt werden.

  2. Die Konfiguration muss für alle Knoten des Clusters konsistent sein.

  3. Partner Interconnect unterstützt noch keine Jumbo Frames. (Google Cloud -> Bare-Metal-Lösungskommunikation kann keine Jumbo Frames verwenden).

  4. Nur Bare-Metal-Lösungen für Bare-Metal-Lösungen können Jumbo Frames verwenden.

Konfigurationsschritte

  1. Führen Sie den folgenden Befehl aus, um die Netzwerkschnittstellen und die mtu-Größe der Interconnect-Verbindung zu identifizieren:

    ip link show | grep mtu
    

    Beispielausgabe:

    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    2: enp55s0f1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    3: enp55s0f2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    4: enp55s0f3: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    5: enp17s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
    6: enp17s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000
    7: enp173s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
    8: enp173s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000
    9: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    10: bond1.117@bond1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    11: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    12: bond0.118@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    13: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default qlen 1000
    14: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN mode DEFAULT group default qlen 1000
    
  2. Bearbeiten Sie die Schnittstellenkonfigurationsdateien als Root auf allen Knoten und fügen Sie MTU=9000 hinzu. Die Datei finden Sie unter /etc/sysconfig/network-scripts/ifcfg-interface_name.

    Beispielausgabe:

    BONDING_OPTS="lacp_rate=1 miimon=100 mode=802.3ad xmit_hash_policy=1"
    TYPE=Bond
    BONDING_MASTER=yes
    PROXY_METHOD=none
    BROWSER_ONLY=no
    DEFROUTE=yes
    IPV4_FAILURE_FATAL=no
    IPV6INIT=no
    IPV6_AUTOCONF=yes
    IPV6_DEFROUTE=yes
    IPV6_FAILURE_FATAL=no
    IPV6_ADDR_GEN_MODE=stable-privacy
    NAME=bond1
    UUID=0e7da685-64bf-44f3-812f-9846d747a801
    DEVICE=bond1
    ONBOOT=yes
    AUTOCONNECT_SLAVES=yes
    MTU=9000
    
  3. Starten Sie die Netzwerkdienste neu, damit die Änderungen wirksam werden.

    service network restart
    
  4. Testen Sie MTU configuration mit ping.

     ping -c 2 -M do -s 8972 svr001-priv
     PING svr001-priv (172.16.1.10) 8972(9000) bytes of data.
     8980 bytes from svr001-priv (172.16.1.10): icmp_seq=1 ttl=64 time=0.153 ms
     8980 bytes from svr001-priv (172.16.1.10): icmp_seq=2 ttl=64 time=0.151 ms
    
    --- svr001-priv ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 0.151/0.152/0.153/0.001 ms