Configurer les trames géantes pour Oracle RAC sur solution Bare Metal

Présentation

Afin d'éviter la fragmentation des paquets lors de leur transfert d'un nœud à un autre dans un environnement RAC, Oracle recommande de configurer les trames géantes (taille MTU de 9000). Ce document explique comment créer des trames géantes (MTU de 9000) sur des serveurs de solution Bare Metal pour Oracle RAC.

Remarques

  1. La configuration doit être effectuée avant l'installation d'Oracle RAC.

  2. La configuration doit être cohérente sur tous les nœuds du cluster.

  3. L'interconnexion partenaire n'est pas encore compatible avec les trames géantes. (Google Cloud -> la communication avec une solution Bare Metal ne peut pas utiliser les trames géantes).

  4. Seule la communication de solution Bare Metal à solution Bare Metal permet l'utilisation des trames géantes.

Étapes de configuration.

  1. Identifiez les interfaces réseau et la taille mtu de l'interconnexion en exécutant la commande suivante :

    ip link show | grep mtu
    

    Exemple de résultat :

    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    2: enp55s0f1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    3: enp55s0f2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    4: enp55s0f3: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
    5: enp17s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
    6: enp17s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000
    7: enp173s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
    8: enp173s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000
    9: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    10: bond1.117@bond1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    11: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    12: bond0.118@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    13: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default qlen 1000
    14: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN mode DEFAULT group default qlen 1000
    
  2. Modifiez les fichiers de configuration de l'interface en tant qu'utilisateur racine sur tous les nœuds et ajoutez MTU=9000. Le fichier se trouve à l'adresse /etc/sysconfig/network-scripts/ifcfg-interface_name.

    Exemple de résultat :

    BONDING_OPTS="lacp_rate=1 miimon=100 mode=802.3ad xmit_hash_policy=1"
    TYPE=Bond
    BONDING_MASTER=yes
    PROXY_METHOD=none
    BROWSER_ONLY=no
    DEFROUTE=yes
    IPV4_FAILURE_FATAL=no
    IPV6INIT=no
    IPV6_AUTOCONF=yes
    IPV6_DEFROUTE=yes
    IPV6_FAILURE_FATAL=no
    IPV6_ADDR_GEN_MODE=stable-privacy
    NAME=bond1
    UUID=0e7da685-64bf-44f3-812f-9846d747a801
    DEVICE=bond1
    ONBOOT=yes
    AUTOCONNECT_SLAVES=yes
    MTU=9000
    
  3. Redémarrez les services réseau pour que les modifications soient appliquées.

    service network restart
    
  4. Testez MTU configuration en utilisant ping.

     ping -c 2 -M do -s 8972 svr001-priv
     PING svr001-priv (172.16.1.10) 8972(9000) bytes of data.
     8980 bytes from svr001-priv (172.16.1.10): icmp_seq=1 ttl=64 time=0.153 ms
     8980 bytes from svr001-priv (172.16.1.10): icmp_seq=2 ttl=64 time=0.151 ms
    
    --- svr001-priv ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 0.151/0.152/0.153/0.001 ms