Exécuter un environnement Airflow local avec l'outil de CLI de développement local Composer

Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1

Cette section explique comment créer, configurer et exécuter un environnement Airflow local à l'aide de l'outil CLI Composer Local Development.

À propos de l'outil CLI de développement local Composer

L'outil CLI de développement local Composer simplifie le développement de DAG Apache Airflow pour Cloud Composer en exécutant un environnement Airflow en local. Cet environnement Airflow local utilise une image de compilation Airflow utilisée par une version spécifique de Cloud Composer.

Vous pouvez créer un environnement Airflow local basé sur un environnement Cloud Composer existant. Dans ce cas, l'environnement Airflow local récupère la liste des packages PyPI installés et les noms des variable d'environnement de votre environnement Cloud Composer.

Vous pouvez utiliser cet environnement Airflow local à des fins de test et de développement, par exemple pour tester un nouveau code DAG, des packages PyPI ou des options de configuration Airflow.

Avant de commencer

  • L'outil de CLI de développement local Composer crée des environnements Airflow locaux dans un répertoire où vous exécutez la commande composer-dev create. Pour accéder ultérieurement à votre environnement Airflow local, exécutez les commandes de l'outil dans le chemin d'accès où vous avez créé l'environnement local. Toutes les données de l'environnement local sont stockées dans un sous-répertoire au chemin d'accès où vous avez créé l'environnement local : ./composer/<local_environment_name>.

  • Votre ordinateur doit disposer de suffisamment d'espace disque pour stocker les images de compilation Airflow. L'outil CLI de développement local Composer stocke un fichier image pour chaque build Airflow. Par exemple, si vous disposez de deux environnements Airflow locaux avec des versions d'Airflow différentes, l'outil CLI Composer Local Development stocke deux images de versions d'Airflow.

  • L'outil CLI de développement local Composer utilise une sortie colorée. Vous pouvez désactiver la sortie colorée avec la variable NO_COLOR=1 : NO_COLOR=1 composer-dev <other commands>.

  • Si vous n'avez qu'un seul environnement local, vous pouvez omettre son nom de toutes les commandes composer-dev, à l'exception de run-airflow-cmd.

  • Installez les dépendances de l'outil CLI de développement local Composer :

  • Installez Docker. Docker doit être installé et exécuté dans le système local. Pour vérifier que Docker est en cours d'exécution, vous pouvez exécuter n'importe quelle commande Docker CLI, telle que docker ps.

Configurer les identifiants

Si vous ne l'avez pas encore fait, obtenez de nouveaux identifiants utilisateur à utiliser comme identifiants par défaut de l'application :

gcloud auth application-default login

Connectez-vous à gcloud CLI à l'aide de votre compte Google :

gcloud auth login

Tous les appels d'API effectués par l'outil CLI de développement local Composer et les DAG sont exécutés à partir du compte que vous utilisez dans gcloud CLI. Par exemple, si un DAG de votre environnement Airflow local lit le contenu d'un bucket Cloud Storage, ce compte doit disposer des autorisations nécessaires pour accéder au bucket. Cela diffère des environnements Cloud Composer, où le compte de service d'un environnement effectue les appels.

Installer l'outil CLI de développement local Composer

Clonez le dépôt de l'interface de ligne de commande Composer Local Development :

git clone https://github.com/GoogleCloudPlatform/composer-local-dev.git

Dans le répertoire de premier niveau du dépôt cloné, exécutez la commande suivante :

pip install .

Selon la configuration de votre pip, il est possible que le chemin d'installation de l'outil ne figure pas dans la variable PATH. Dans ce cas, pip affiche un message d'avertissement. Vous pouvez utiliser les informations de ce message d'avertissement pour ajouter ce répertoire à la variable PATH dans votre système d'exploitation.

Créer un environnement Airflow local avec une image de compilation Airflow

Pour lister les images de compilation Airflow disponibles, exécutez la commande suivante :

composer-dev list-available-versions --include-past-releases --limit 10

Pour créer un environnement Airflow local avec des paramètres par défaut, exécutez la commande suivante :

composer-dev create \
  --from-image-version IMAGE_VERSION \
  LOCAL_ENVIRONMENT_NAME

Autres paramètres :

composer-dev create \
  --from-image-version IMAGE_VERSION \
  --project PROJECT_ID \
  --port WEB_SERVER_PORT \
  --dags-path LOCAL_DAGS_PATH \
  LOCAL_ENVIRONMENT_NAME

Remplacez :

  • IMAGE_VERSION par le nom de l'image de compilation Airflow.
  • PROJECT_ID par l'ID du projet.
  • WEB_SERVER_PORT avec le port sur lequel le serveur Web Airflow doit écouter.
  • LOCAL_DAGS_PATH par le chemin d'accès à un répertoire local où se trouvent les fichiers DAG.
  • LOCAL_ENVIRONMENT_NAME par le nom de cet environnement Airflow local.

Exemple :

composer-dev create \
  --from-image-version composer-3-airflow-2.10.5-build.12 \
  example-local-environment

Créer un environnement Airflow local à partir d'un environnement Cloud Composer

Seules les informations suivantes sont extraites d'un environnement Cloud Composer :

  • Version spécifique d'Airflow utilisée par votre environnement.

  • Liste des packages PyPI personnalisés installés dans votre environnement.

  • Liste commentée des noms des variables d'environnement définies dans votre environnement.

Les autres informations et paramètres de configuration de l'environnement, tels que les fichiers DAG, l'historique des exécutions de DAG, les variables Airflow et les connexions, ne sont pas copiés depuis votre environnement Cloud Composer.

Pour créer un environnement Airflow local à partir d'un environnement Cloud Composer existant :

composer-dev create LOCAL_ENVIRONMENT_NAME \
    --from-source-environment ENVIRONMENT_NAME \
    --location LOCATION \
    --project PROJECT_ID \
    --port WEB_SERVER_PORT \
    --dags-path LOCAL_DAGS_PATH

Remplacez :

  • LOCAL_ENVIRONMENT_NAME par le nom de l'environnement Airflow local.
  • ENVIRONMENT_NAME par le nom de l'environnement Cloud Composer.
  • LOCATION par la région où se trouve l'environnement Cloud Composer.
  • PROJECT_ID par l'ID du projet.
  • WEB_SERVER_PORT par un port pour le serveur Web Airflow local.
  • LOCAL_DAGS_PATH par le chemin d'accès à un répertoire local où se trouvent les DAG.

Exemple :

composer-dev create example-local-environment \
  --from-source-environment example-environment \
  --location us-central1 \
  --project example-project \
  --port 8081 \
  --dags-path example_directory/dags

Démarrer un environnement Airflow local

Pour démarrer un environnement Airflow local, exécutez la commande suivante :

composer-dev start LOCAL_ENVIRONMENT_NAME

Remplacez :

  • LOCAL_ENVIRONMENT_NAME par le nom d'un environnement Airflow local.

Arrêter ou redémarrer un environnement Airflow local

Lorsque vous redémarrez un environnement Airflow local, l'outil CLI de développement local Composer redémarre le conteneur Docker dans lequel l'environnement s'exécute. Tous les composants Airflow sont arrêtés, puis redémarrés. Par conséquent, toutes les exécutions de DAG qui ont lieu lors d'un redémarrage sont marquées comme ayant échoué .

Pour redémarrer ou démarrer un environnement Airflow local arrêté, exécutez la commande suivante :

composer-dev restart LOCAL_ENVIRONMENT_NAME

Remplacez :

  • LOCAL_ENVIRONMENT_NAME par le nom d'un environnement Airflow local.

Pour arrêter un environnement Airflow local, exécutez la commande suivante :

composer-dev stop LOCAL_ENVIRONMENT_NAME

Ajouter et mettre à jour des DAG

Les DAG sont stockés dans le répertoire que vous avez spécifié dans le paramètre --dags-path lorsque vous avez créé votre environnement Airflow local. Par défaut, ce répertoire est ./composer/<local_environment_name>/dags. Vous pouvez obtenir le répertoire utilisé par votre environnement avec la commande describe.

Pour ajouter et mettre à jour des DAG, modifiez les fichiers de ce répertoire. Vous n'avez pas besoin de redémarrer votre environnement Airflow local.

Afficher les journaux de l'environnement Airflow local

Vous pouvez afficher les journaux récents d'un conteneur Docker qui exécute votre environnement Airflow local. Vous pouvez ainsi surveiller les événements liés aux conteneurs et vérifier les journaux Airflow pour détecter les erreurs telles que les conflits de dépendances causés par l'installation de packages PyPI.

Pour afficher les journaux d'un conteneur Docker qui exécute votre environnement Airflow local, exécutez la commande suivante :

composer-dev logs LOCAL_ENVIRONMENT_NAME --max-lines 10

Pour suivre le flux de journaux, omettez l'argument --max-lines :

composer-dev logs LOCAL_ENVIRONMENT_NAME

Exécuter une commande de CLI Airflow

Vous pouvez exécuter des commandes de CLI Airflow dans votre environnement Airflow local.

Pour exécuter une commande de CLI Airflow :

composer-dev run-airflow-cmd LOCAL_ENVIRONMENT_NAME \
  SUBCOMMAND SUBCOMMAND_ARGUMENTS

Exemple :

composer-dev run-airflow-cmd example-local-environment dags list -o table

Configurer des environnements Airflow locaux

L'outil CLI de développement local Composer stocke les paramètres de configuration d'un environnement Airflow local, tels que les variables d'environnement et les exigences de package PyPI dans le répertoire de l'environnement local (./composer/<local_environment_name>).

La configuration est appliquée lorsqu'un environnement Airflow local est démarré. Par exemple, si vous ajoutez des exigences de package PyPI conflictuelles, l'outil de ligne de commande Composer Local Development signale des erreurs lorsque vous démarrez l'environnement local.

Les connexions Airflow sont stockées dans la base de données de l'environnement Airflow local. Vous pouvez les configurer en exécutant une commande CLI Airflow ou en stockant les paramètres de connexion dans des variables d'environnement. Pour en savoir plus sur la création et la configuration des connexions, consultez Gérer les connexions dans la documentation Airflow.

Obtenir la liste et l'état des environnements Airflow locaux

Pour lister tous les environnements Airflow locaux disponibles et afficher leur état :

composer-dev list

Pour décrire un environnement spécifique et obtenir des informations telles que la version de l'image, le chemin d'accès aux DAG et l'URL du serveur Web d'un environnement :

composer-dev describe LOCAL_ENVIRONMENT_NAME

Remplacez :

  • LOCAL_ENVIRONMENT_NAME par le nom de l'environnement Airflow local.

Lister les images utilisées par les environnements Airflow locaux

Pour lister toutes les images utilisées par l'outil Composer Local Development CLI, exécutez la commande suivante :

docker images --filter=reference='*/cloud-airflow-releaser/*/*'

Installer des plug-ins et modifier des données

Les plug-ins et les données d'un environnement Airflow local sont extraits des répertoires de l'environnement local : ./composer/<local_environment_name>/data et ./composer/<local_environment_name>/plugins.

Pour modifier le contenu des répertoires /data et /plugins, ajoutez ou supprimez des fichiers dans ces répertoires. Docker propage automatiquement les modifications apportées aux fichiers à votre environnement Airflow local.

L'outil CLI de développement local Composer ne permet pas de spécifier un répertoire différent pour les données et les plug-ins.

Configurer les variables d'environnement

Pour configurer les variables d'environnement, modifiez le fichier variables.env dans le répertoire de l'environnement : ./composer/<local_environment_name>/variables.env.

Le fichier variables.env doit contenir des définitions clé/valeur, une ligne pour chaque variable d'environnement. Pour modifier les options de configuration Airflow, utilisez le format AIRFLOW__SECTION__KEY. Pour en savoir plus sur les variables d'environnement disponibles, consultez la documentation de référence sur la configuration d'Airflow.

EXAMPLE_VARIABLE=True
ANOTHER_VARIABLE=test
AIRFLOW__WEBSERVER__DAG_DEFAULT_VIEW=graph

Pour appliquer les modifications, redémarrez votre environnement Airflow local.

Installer ou supprimer des packages PyPI

Pour installer ou supprimer des packages PyPI, modifiez le fichier requirements.txt dans le répertoire de l'environnement : ./composer/<local_environment_name>/requirements.txt.

Les exigences doivent respecter le format spécifié dans PEP-508, où chaque exigence est spécifiée en minuscules et consiste en un nom de package avec des options et des spécificateurs de version facultatifs.

Pour appliquer les modifications, redémarrez votre environnement Airflow local.

Passer à une autre image de build Airflow

Vous pouvez utiliser n'importe quelle image de compilation Airflow avec l'outil CLI Composer Local Development et passer d'une image à l'autre. Cette approche est différente de la mise à niveau de votre environnement Cloud Composer, car les paramètres de configuration de votre environnement Airflow local sont appliqués au démarrage.

Par exemple, après la publication d'une nouvelle version d'Airflow, vous pouvez faire en sorte que votre environnement l'utilise, tout en conservant la configuration existante de l'environnement Airflow local.

Pour modifier l'image d'environnement utilisée par votre environnement Airflow local :

  1. Modifiez le fichier de configuration de l'environnement local : ./composer/<local_environment_name>/config.json.

  2. Modifiez la valeur du paramètre composer_image_version. Pour afficher les valeurs disponibles, vous pouvez lister les images disponibles.

  3. Pour appliquer les modifications, redémarrez votre environnement Airflow local.

Supprimer un environnement Airflow local

Attention : Assurez-vous d'avoir enregistré toutes les données requises de l'environnement, telles que les journaux et la configuration.

Pour supprimer un environnement Airflow local, exécutez la commande suivante :

composer-dev remove LOCAL_ENVIRONMENT_NAME

Si l'environnement est en cours d'exécution, ajoutez l'indicateur --force pour forcer sa suppression.

Supprimer des images Docker

Pour supprimer toutes les images téléchargées par l'outil CLI Composer Local Development, exécutez la commande suivante :

docker rmi $(docker images --filter=reference='*/cloud-airflow-releaser/*/*' -q)

Dépannage

Cette section fournit des solutions aux problèmes courants.

Impossible de démarrer un environnement local sur macOS

Si vous avez installé le package composer-dev dans un répertoire auquel Docker ne peut pas accéder, il est possible que votre environnement local ne démarre pas.

Par exemple, si Python est installé dans le répertoire /opt, comme lorsque vous l'installez avec la configuration Homebrew par défaut sur macOS, le package composer-dev est également installé dans le répertoire /opt. Étant donné que Docker respecte les règles du bac à sable d'Apple, le répertoire /opt n'est pas disponible par défaut. De plus, vous ne pouvez pas l'ajouter via l'interface utilisateur (Paramètres > Ressources > Partage de fichiers).

Dans ce cas, l'outil CLI Composer Local Development génère un message d'erreur semblable à l'exemple suivant :

Failed to create container with an error: 400 Client Error for ...
Bad Request ("invalid mount config for type "bind": bind source path does not exist:
/opt/homebrew/lib/python3.9/site-packages/composer_local_dev/docker_files/entrypoint.sh

Possible reason is that composer-dev was installed in the path that is
not available to Docker. See...")

Vous pouvez utiliser l'une des solutions suivantes :

  • Installez Python ou le package composer-dev dans un autre répertoire afin que Docker puisse accéder au package.
  • Modifiez manuellement le fichier ~/Library/Group\ Containers/group.com.docker/settings.json et ajoutez /opt à filesharingDirectories.

Étapes suivantes