Configurer les trames géantes pour Oracle RAC sur solution Bare Metal
Présentation
Afin d'éviter la fragmentation des paquets lors de leur transfert d'un nœud à un autre dans un environnement RAC, Oracle recommande de configurer les trames géantes (taille MTU de 9000). Ce document explique comment créer des trames géantes (MTU de 9000) sur des serveurs de solution Bare Metal pour Oracle RAC.
Remarques
La configuration doit être effectuée avant l'installation d'Oracle RAC.
La configuration doit être cohérente sur tous les nœuds du cluster.
L'interconnexion partenaire n'est pas encore compatible avec les trames géantes. (Google Cloud -> la communication avec une solution Bare Metal ne peut pas utiliser les trames géantes).
Seule la communication de solution Bare Metal à solution Bare Metal permet l'utilisation des trames géantes.
Étapes de configuration.
Identifiez les interfaces réseau et la taille
mtu
de l'interconnexion en exécutant la commande suivante :ip link show | grep mtu
Exemple de résultat :
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000 2: enp55s0f1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 3: enp55s0f2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 4: enp55s0f3: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000 5: enp17s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 6: enp17s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 7: enp173s0f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 8: enp173s0f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond1 state UP mode DEFAULT group default qlen 1000 9: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 10: bond1.117@bond1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 11: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 12: bond0.118@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000 13: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default qlen 1000 14: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN mode DEFAULT group default qlen 1000
Modifiez les fichiers de configuration de l'interface en tant qu'utilisateur racine sur tous les nœuds et ajoutez
MTU=9000
. Le fichier se trouve à l'adresse/etc/sysconfig/network-scripts/ifcfg-interface_name
.Exemple de résultat :
BONDING_OPTS="lacp_rate=1 miimon=100 mode=802.3ad xmit_hash_policy=1" TYPE=Bond BONDING_MASTER=yes PROXY_METHOD=none BROWSER_ONLY=no DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=no IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=bond1 UUID=0e7da685-64bf-44f3-812f-9846d747a801 DEVICE=bond1 ONBOOT=yes AUTOCONNECT_SLAVES=yes MTU=9000
Redémarrez les services réseau pour que les modifications soient appliquées.
service network restart
Testez
MTU configuration
en utilisantping
.ping -c 2 -M do -s 8972 svr001-priv PING svr001-priv (172.16.1.10) 8972(9000) bytes of data. 8980 bytes from svr001-priv (172.16.1.10): icmp_seq=1 ttl=64 time=0.153 ms 8980 bytes from svr001-priv (172.16.1.10): icmp_seq=2 ttl=64 time=0.151 ms --- svr001-priv ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1001ms rtt min/avg/max/mdev = 0.151/0.152/0.153/0.001 ms