Clustering dans Looker

Ce tutoriel explique la méthode recommandée pour créer une configuration Looker en cluster pour des instances hébergées par le client.

Présentation

Les déploiements de Looker hébergés par le client peuvent s'exécuter sur un nœud unique ou en cluster:

  • La configuration par défaut de l'application Looker à nœud unique comporte tous les services qui composent l'application Looker s'exécutant sur un seul serveur.
  • Une configuration Looker en cluster est une configuration plus complexe, impliquant généralement des serveurs de base de données, des équilibreurs de charge et plusieurs serveurs exécutant l'application Looker. Dans une application Looker en cluster, chaque nœud est un serveur qui exécute une instance Looker unique.

Une entreprise souhaite exécuter Looker en tant que cluster pour deux raisons principales:

  • Équilibrage de charge
  • Amélioration de la disponibilité et du basculement

Selon les problèmes de scaling, un cluster Looker en cluster peut ne pas fournir la solution. Par exemple, si un petit nombre de requêtes volumineuses utilisent la mémoire système, la seule solution consiste à augmenter la mémoire disponible pour le processus Looker.

Autres solutions d'équilibrage de charge

Avant d'équilibrer la charge de Looker, envisagez d'augmenter la mémoire et éventuellement le nombre de processeurs d'un seul serveur exécutant Looker. Looker recommande de configurer une surveillance détaillée des performances pour l'utilisation de la mémoire et du CPU afin de s'assurer que le serveur Looker est correctement dimensionné par rapport à sa charge de travail.

Les requêtes volumineuses nécessitent davantage de mémoire pour améliorer les performances. Le clustering peut améliorer les performances lorsque de nombreux utilisateurs exécutent de petites requêtes.

Pour les configurations comportant jusqu'à 50 utilisateurs qui utilisent Looker légèrement, Looker recommande d'exécuter un seul serveur équivalent à une instance AWS EC2 de grande taille (M4.large: 8 Go de RAM, 2 cœurs de processeur). Pour les configurations comportant davantage d'utilisateurs ou d'utilisateurs expérimentés actifs, vérifiez si le processeur augmente le nombre d'utilisateurs ou si les utilisateurs constatent une lenteur dans l'application. Dans ce cas, déplacez Looker vers un serveur plus important ou exécutez une configuration Looker en cluster.

Amélioration de la disponibilité et du basculement

L'exécution de Looker dans un environnement en cluster peut atténuer les temps d'arrêt en cas de panne. La haute disponibilité est particulièrement importante si l'API Looker est utilisée dans des systèmes d'entreprise de base ou si Looker est intégré dans des produits destinés aux clients.

Dans une configuration Looker en cluster, un serveur proxy ou un équilibreur de charge réachemine le trafic lorsqu'il détermine qu'un nœud est indisponible. Looker gère automatiquement les nœuds qui quittent et rejoignent le cluster.

Composants requis

Les composants suivants sont requis pour une configuration Looker en cluster:

  • Base de données d'application MySQL
  • Nœuds Looker (serveurs exécutant le processus Java de Looker)
  • Équilibreur de charge
  • Système de fichiers partagé
  • Version appropriée des fichiers JAR de l'application Looker

Le schéma suivant illustre les interactions entre les composants. De manière générale, un équilibreur de charge répartit le trafic réseau entre les nœuds Looker en cluster. Les nœuds communiquent chacun avec une base de données d'application MySQL partagée, un répertoire de stockage partagé et les serveurs Git de chaque projet LookML.

Base de données d'application MySQL

Looker utilise une base de données d'application (souvent appelée base de données interne) pour stocker les données d'application. Lorsque Looker s'exécute en tant qu'application à nœud unique, il utilise normalement une base de données HyperSQL en mémoire.

Dans une configuration Looker en cluster, l'instance Looker de chaque nœud doit pointer vers une base de données transactionnelle partagée (l'application partagée ou la base de données interne). La prise en charge de la base de données d'application pour Looker en cluster est la suivante:

  • Seul MySQL est compatible avec la base de données d'application pour les instances Looker en cluster. Amazon Aurora et MariaDB ne sont pas pris en charge.
  • Les versions 5.7+ et 8.0+ de MySQL sont prises en charge.
  • Les bases de données en cluster telles que Galera ne sont pas compatibles.

Looker ne gère pas la maintenance ni les sauvegardes de cette base de données. Toutefois, étant donné que la base de données héberge la quasi-totalité des données de configuration de l'application Looker, elle doit être provisionnée en tant que base de données haute disponibilité et sauvegardée au moins une fois par jour.

Nœuds Looker

Chaque nœud est un serveur sur lequel est exécuté le processus Java de Looker. Les serveurs du cluster Looker doivent pouvoir communiquer entre eux et avec la base de données de l'application Looker. Les ports par défaut sont répertoriés dans la section Ouvrir les ports permettant aux nœuds de communiquer de cette page.

Équilibreur de charge

Pour équilibrer la charge ou rediriger les requêtes vers les nœuds disponibles, un équilibreur de charge ou un serveur proxy (par exemple, NGINX ou AWS ELB) est nécessaire pour diriger le trafic vers chaque nœud Looker. L'équilibreur de charge gère les vérifications de l'état. En cas de défaillance d'un nœud, l'équilibreur de charge doit être configuré de manière à rediriger le trafic vers les nœuds opérationnels restants.

Lorsque vous choisissez et configurez l'équilibreur de charge, assurez-vous qu'il peut être configuré pour fonctionner uniquement en couche 4. L'ELB classique d'Amazon en est un exemple. De plus, l'équilibreur de charge doit avoir un délai avant expiration long (3 600 secondes) pour éviter la fermeture des requêtes.

Système de fichiers partagé

Vous devez utiliser un système de fichiers partagé compatible avec POSIX (tel que NFS, AWS EFS, Gluster, BeeGFS, Lustre ou bien d'autres). Looker utilise le système de fichiers partagé comme dépôt pour différentes informations utilisées par tous les nœuds du cluster.

Application Looker (exécutable JAR)

Vous devez utiliser un fichier JAR de l'application Looker Looker 3.56 ou version ultérieure.

Looker recommande vivement que chaque nœud d'un cluster exécute la même version et le même correctif de Looker, comme indiqué dans la section Démarrer Looker sur les nœuds sur cette page.

Configurer le cluster

Les tâches suivantes sont requises:

  1. Installer Looker
  2. Configurer une base de données d'application MySQL
  3. Configurer le système de fichiers partagé
  4. Partagez le dépôt de clés SSH (selon votre cas).
  5. Ouvrir les ports permettant aux nœuds de communiquer
  6. Démarrer Looker sur les nœuds

Installation de Looker

Assurez-vous que Looker est installé sur chaque nœud à l'aide des fichiers JAR de l'application Looker et des instructions de la page de documentation Procédure d'installation hébergée par le client.

Configurer une base de données d'application MySQL

Pour une configuration Looker en cluster, la base de données de l'application doit être une base de données MySQL. Si vous disposez d'une instance Looker existante hors cluster qui utilise HyperSQL pour la base de données d'application, vous devez migrer les données d'application des données HyperSQL vers votre nouvelle base de données d'application MySQL partagée.

Consultez la page de documentation Migrer vers MySQL pour en savoir plus sur la sauvegarde de Looker, puis sur la migration de la base de données de l'application de HyperSQL vers MySQL.

Configurer le système de fichiers partagé

Seuls des types de fichiers spécifiques (fichiers de modèle, clés de déploiement, plug-ins et éventuellement fichiers manifestes d'application) appartiennent au système de fichiers partagé. Pour configurer le système de fichiers partagé:

  1. Sur le serveur qui stockera le système de fichiers partagé, vérifiez que vous avez accès à un autre compte pouvant su au compte utilisateur Looker.
  2. Sur le serveur du système de fichiers partagé, connectez-vous au compte utilisateur Looker.
  3. Si Looker est en cours d'exécution, arrêtez votre configuration Looker.
  4. Si vous faisiez des clusterings à l'aide de scripts Linux inotify, arrêtez ces scripts, supprimez-les de Cron, puis supprimez-les.
  5. Créez un partage réseau et installez-le sur chaque nœud du cluster. Assurez-vous qu'il est configuré pour être installé automatiquement sur chaque nœud, et que l'utilisateur Looker peut le lire et y écrire. Dans l'exemple suivant, le partage réseau est nommé /mnt/looker-share.
  6. Sur un nœud, copiez vos clés de déploiement et déplacez vos plug-ins ainsi que les répertoires looker/models et looker/models-user-*, qui stockent vos fichiers de modèle, vers votre partage réseau. Exemple :

    mv looker/models /mnt/looker-share/
    mv looker/models-user-* /mnt/looker-share/
    
  7. Pour chaque nœud, ajoutez le paramètre --shared-storage-dir à LOOKERARGS. Spécifiez le partage réseau, comme illustré dans cet exemple:

    --shared-storage-dir /mnt/looker-share
    

    LOOKERARGS doit être ajouté à $HOME/looker/lookerstart.cfg pour que les paramètres ne soient pas affectés par les mises à jour. Si vos LOOKERARGS ne sont pas répertoriés dans ce fichier, quelqu'un les a peut-être ajoutés directement au script shell $HOME/looker/looker.

    Chaque nœud du cluster doit écrire dans un répertoire /log unique ou au moins dans un fichier journal unique.

Partager le dépôt de clés SSH

  • Vous créez un cluster de système de fichiers partagé à partir d'une configuration Looker existante, et
  • Vous avez des projets créés dans Looker 4.6 ou une version antérieure.

Configurez le dépôt de clés SSH à partager:

  1. Sur le serveur de fichiers partagé, créez un répertoire nommé ssh-share. Exemple : /mnt/looker-share/ssh-share.

    Assurez-vous que le répertoire ssh-share appartient à l'utilisateur Looker et que les autorisations sont définies sur 700. Assurez-vous également que les répertoires situés au-dessus du répertoire ssh-share (comme /mnt et /mnt/looker-share) ne sont pas accessibles en écriture ou accessibles en écriture de groupe.

  2. Sur l'un des nœuds, copiez le contenu de $HOME/.ssh dans le nouveau répertoire ssh-share. Exemple :

    cp $HOME/.ssh/* /mnt/looker-share/ssh-share

  3. Pour chaque nœud, effectuez une sauvegarde du fichier SSH existant et créez un lien symbolique vers le répertoire ssh-share. Exemple :

    cd $HOME
    mv .ssh .ssh_bak
    ln -s /mnt/looker-share/ssh-share .ssh
    

    Assurez-vous d'effectuer cette étape pour chaque nœud.

Ouvrir les ports permettant aux nœuds de communiquer

Les nœuds Looker en cluster communiquent entre eux via HTTPS avec des certificats autosignés et un schéma d'authentification supplémentaire basé sur la rotation des secrets dans la base de données de l'application.

Les ports par défaut qui doivent être ouverts entre les nœuds du cluster sont 1551 et 61616. Vous pouvez configurer ces ports à l'aide des indicateurs de démarrage répertoriés ici. Nous vous recommandons vivement de limiter l'accès réseau à ces ports afin de n'autoriser le trafic qu'entre les hôtes du cluster.

Démarrer Looker sur les nœuds

Redémarrez le serveur sur chaque nœud avec les indicateurs de démarrage requis.

Options de démarrage disponibles

Le tableau suivant présente les options de démarrage disponibles, y compris celles requises pour démarrer ou rejoindre un cluster:

Option Requis ? Valeurs Objectif
--clustered Oui Ajoutez une option pour spécifier que ce nœud s'exécute en mode cluster.
-H ou --hostname Oui 10.10.10.10 Nom d'hôte que les autres nœuds utilisent pour contacter ce nœud, comme l'adresse IP du nœud ou le nom d'hôte de son système. Ils doivent être différents des noms d'hôte de tous les autres nœuds du cluster.
-n Non 1551 Port pour la communication entre les nœuds. La valeur par défaut est 1551. Tous les nœuds doivent utiliser le même numéro de port pour la communication entre nœuds.
-q Non 61616 Port utilisé pour la mise en file d'attente des événements à l'échelle du cluster. La valeur par défaut est 61616.
-d Oui /path/to/looker-db.yml Chemin d'accès au fichier contenant les identifiants pour la base de données de l'application Looker.
--shared-storage-dir Oui /path/to/mounted/shared/storage L'option doit pointer vers le répertoire partagé configuré plus tôt sur cette page, qui contient les répertoires looker/model et looker/models-user-*.

Exemple de LOOKERARGS et spécification des identifiants de la base de données

Placez les indicateurs de démarrage de Looker dans un fichier lookerstart.cfg, situé dans le même répertoire que les fichiers JAR de Looker.

Par exemple, vous pouvez indiquer à Looker:

  • Pour utiliser le fichier nommé looker-db.yml comme identifiant de base de données,
  • qu'il s'agit d'un nœud en cluster ;
  • que les autres nœuds du cluster contactent cet hôte à l'adresse IP 10.10.10.10.

Vous devez spécifier:

LOOKERARGS="-d looker-db.yml --clustered -H 10.10.10.10"

Le fichier looker-db.yml contient les identifiants de la base de données, par exemple:

host: your.db.hostname.com
username: db_user
database: looker
dialect: mysql
port: 3306
password: secretPassword

De plus, si votre base de données MySQL nécessite une connexion SSL, le fichier looker-db.yml requiert également les éléments suivants:

ssl: true

Si vous ne souhaitez pas stocker la configuration sur le disque dans le fichier looker-db.yml, vous pouvez configurer la variable d'environnement LOOKER_DB pour qu'elle contienne une liste de clés et de valeurs pour chaque ligne du fichier looker-db.yml. Exemple :

export LOOKER_DB="dialect=mysql&host=localhost&username=root&password=&database=looker&port=3306"

Rechercher vos clés de déploiement SSH Git

L'emplacement où Looker stocke les clés de déploiement SSH Git dépend de la version dans laquelle le projet a été créé:

  • Pour les projets créés avant Looker 4.8, les clés de déploiement sont stockées dans le répertoire SSH intégré du serveur, ~/.ssh.
  • Pour les projets créés dans Looker 4.8 ou version ultérieure, les clés de déploiement sont stockées dans un répertoire contrôlé par Looker, ~/looker/deploy_keys/PROJECT_NAME.

Modifier un cluster Looker

Après avoir créé un cluster Looker, vous pouvez ajouter ou supprimer des nœuds sans modifier les autres nœuds en cluster.

Mettre à jour un cluster vers une nouvelle version de Looker

Les mises à jour peuvent impliquer des modifications du schéma de la base de données interne de Looker qui ne seraient pas compatibles avec les versions précédentes de Looker. Il existe deux méthodes pour mettre à jour Looker.

Méthode plus sûre

  1. Créer une sauvegarde de la base de données de l'application
  2. Arrêtez tous les nœuds du cluster.
  3. Remplacez les fichiers JAR sur chaque serveur.
  4. Démarrez chaque nœud un par un.

Méthode plus rapide

Pour effectuer la mise à jour à l'aide de cette méthode plus rapide, mais moins complète:

  1. Créer une instance répliquée de la base de données d'application Looker
  2. Démarrez un nouveau cluster pointant vers l'instance répliquée.
  3. Faire pointer le serveur proxy ou l'équilibreur de charge vers les nouveaux nœuds. Vous pourrez ensuite arrêter les anciens nœuds.