Accéder à l'API REST Airflow

Cloud Composer 1 | Cloud Composer 2

Apache Airflow dispose d'une interface d'API REST qui vous permet d'effectuer des tâches telles que l'obtention d'informations sur les exécutions et les tâches DAG, la mise à jour des DAG, l'obtention de la configuration Airflow, l'ajout et la suppression de connexions et la création de listes d'utilisateurs.

Pour obtenir un exemple d'utilisation de l'API REST Airflow avec Cloud Functions, consultez la page Déclencher des DAG avec Cloud Functions.

Versions de l'API REST Airflow

Les versions suivantes de l'API REST Airflow sont disponibles dans Cloud Composer 2 :

  • Airflow 2 utilise l'API REST stable. L'API REST expérimentale est obsolète dans Airflow.

  • Vous pouvez toujours utiliser l'API REST expérimentale dans Airflow 2 si vous l'activez via un remplacement de configuration Airflow, comme décrit plus loin.

Avant de commencer

Activez l'API Cloud Composer

Activer l'API

Activer la version stable de l'API REST Airflow

L'API REST stable est déjà activée par défaut dans Airflow 2.

Cloud Composer utilise son propre backend d'authentification d'API.

L'autorisation fonctionne de la manière standard fournie par Airflow. Lorsqu'un nouvel utilisateur accorde des autorisations via l'API, le compte de l'utilisateur obtient le rôle Op par défaut.

Vous pouvez activer ou désactiver l'API REST stable, ou modifier le rôle utilisateur par défaut en remplaçant les options de configuration Airflow suivantes :

Section Clé Valeur Notes
api (Airflow 2.2.5 et versions antérieures) auth_backend
(Airflow 2.3.0 et versions ultérieures) auth_backends
airflow.composer.api.backend.composer_auth Pour désactiver l'API REST stable, passez à airflow.api.auth.backend.deny_all.
api composer_auth_user_registration_role Op Vous pouvez spécifier n'importe quel autre rôle.

Activer l'API REST Airflow expérimentale

Par défaut, la fonctionnalité d'authentification de l'API est désactivée dans l'API expérimentale. Le serveur Web Airflow refuse toutes les requêtes que vous effectuez.

Pour activer la fonctionnalité d'authentification des API et l'API expérimentale Airflow 2, remplacez l'option de configuration Airflow suivante :

Section Clé Valeur Notes
api (Airflow 2.2.5 et versions antérieures) auth_backend
(Airflow 2.3.0 et versions ultérieures) auth_backends
airflow.api.auth.backend.default La valeur par défaut est airflow.composer.api.backend.composer_auth.
api enable_experimental_api True La valeur par défaut est False.

Une fois que vous avez défini cette option de configuration sur airflow.api.auth.backend.default, le serveur Web Airflow accepte toutes les requêtes API sans authentification. Même si le serveur Web Airflow lui-même ne nécessite pas d'authentification, il est toujours protégé par Identity-Aware Proxy, qui fournit sa propre couche d'authentification.

Autoriser les appels d'API à l'API REST Airflow à l'aide du contrôle des accès du serveur Web

Selon la méthode utilisée pour appeler l'API REST Airflow, la méthode appelante peut utiliser une adresse IPv4 ou IPv6. N'oubliez pas de débloquer le trafic IP vers l'API REST Airflow à l'aide du contrôle des accès au serveur Web.

Utilisez l'option de configuration par défaut (All IP addresses have access (default)) si vous ne savez pas à partir de quelles adresses IP vos appels à l'API REST Airflow seront envoyés.

Effectuer des appels vers l'API REST Airflow

Cette section fournit un exemple de script Python que vous pouvez utiliser pour déclencher des DAG avec la version stable de l'API REST Airflow.

Placez le contenu de l'exemple suivant dans un fichier nommé composer2_airflow_rest_api.py, puis indiquez l'URL de l'interface utilisateur Airflow, le nom du DAG et la configuration d'exécution du DAG dans les valeurs des variables.

from __future__ import annotations

from typing import Any

import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests

# Following GCP best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])

def make_composer2_web_server_request(
    url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
    """
    Make a request to Cloud Composer 2 environment's web server.
    Args:
      url: The URL to fetch.
      method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
        'PATCH', 'DELETE')
      **kwargs: Any of the parameters defined for the request function:
                https://github.com/requests/requests/blob/master/requests/api.py
                  If no timeout is provided, it is set to 90 by default.
    """

    authed_session = AuthorizedSession(CREDENTIALS)

    # Set the default timeout, if missing
    if "timeout" not in kwargs:
        kwargs["timeout"] = 90

    return authed_session.request(method, url, **kwargs)

def trigger_dag(web_server_url: str, dag_id: str, data: dict) -> str:
    """
    Make a request to trigger a dag using the stable Airflow 2 REST API.
    https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html

    Args:
      web_server_url: The URL of the Airflow 2 web server.
      dag_id: The DAG ID.
      data: Additional configuration parameters for the DAG run (json).
    """

    endpoint = f"api/v1/dags/{dag_id}/dagRuns"
    request_url = f"{web_server_url}/{endpoint}"
    json_data = {"conf": data}

    response = make_composer2_web_server_request(
        request_url, method="POST", json=json_data
    )

    if response.status_code == 403:
        raise requests.HTTPError(
            "You do not have a permission to perform this operation. "
            "Check Airflow RBAC roles for your account."
            f"{response.headers} / {response.text}"
        )
    elif response.status_code != 200:
        response.raise_for_status()
    else:
        return response.text

if __name__ == "__main__":
    # TODO(developer): replace with your values
    dag_id = "your-dag-id"  # Replace with the ID of the DAG that you want to run.
    dag_config = {
        "your-key": "your-value"
    }  # Replace with configuration parameters for the DAG run.
    # Replace web_server_url with the Airflow web server address. To obtain this
    # URL, run the following command for your environment:
    # gcloud composer environments describe example-environment \
    #  --location=your-composer-region \
    #  --format="value(config.airflowUri)"
    web_server_url = (
        "https://example-airflow-ui-url-dot-us-central1.composer.googleusercontent.com"
    )

    response_text = trigger_dag(
        web_server_url=web_server_url, dag_id=dag_id, data=dag_config
    )

    print(response_text)

Par exemple, la configuration ci-dessous n'est pas correcte

  web_server_url = (
    "https://example-airflow-ui-url-dot-us-central1.composer.googleusercontent.com/"
  )

Accéder à l'API REST Airflow à l'aide d'un compte de service

La base de données Airflow limite la longueur du champ de l'adresse e-mail à 64 caractères. Les comptes de service ont parfois des adresses e-mail comportant plus de 64 caractères. Il n'est pas possible de créer des utilisateurs Airflow pour ces comptes de service de la manière habituelle. S'il n'existe aucun utilisateur Airflow pour un compte de service de ce type, l'accès à l'API REST Airflow génère des erreurs HTTP 401 et 403.

Pour contourner ce problème, vous pouvez préenregistrer un utilisateur Airflow pour un compte de service. Pour ce faire, utilisez accounts.google.com:NUMERIC_USER_ID comme nom d'utilisateur et n'importe quelle chaîne unique comme adresse e-mail.

  1. Pour obtenir NUMERIC_USER_ID pour un compte de service, exécutez la commande suivante :

    gcloud iam service-accounts describe \
      SA_NAME@PROJECT_ID.iam.gserviceaccount.com \
      --format="value(oauth2ClientId)"
    

    Remplacez :

    • SA_NAME par le nom du compte de service
    • PROJECT_ID par l'ID du projet.
  2. Créez un utilisateur Airflow doté du rôle Op pour le compte de service :

    Interface utilisateur d'Airflow

    1. Accédez à l'interface utilisateur d'Airflow.

    2. Accédez à Sécurité > Répertorier les utilisateurs, puis cliquez sur Ajouter un enregistrement. Votre utilisateur Airflow doit disposer du rôle Admin pour ouvrir cette page.

    3. Spécifiez accounts.google.com:NUMERIC_USER_ID comme nom d'utilisateur. Remplacez NUMERIC_USER_ID par l'ID utilisateur obtenu à l'étape précédente.

    4. Spécifiez un identifiant unique comme adresse e-mail. Vous pouvez utiliser n'importe quelle chaîne unique.

    5. Spécifiez le rôle de l'utilisateur. Par exemple, Op.

    6. Assurez-vous que la case Est actif ? est cochée.

    7. Indiquez le prénom et le nom de l'utilisateur. Vous pouvez utiliser n'importe quelle chaîne.

    8. Cliquez sur Enregistrer.

    gcloud

    Exécutez la commande de CLI Airflow suivante :

    gcloud composer environments run ENVIRONMENT_NAME \
        --location LOCATION \
        users create -- \
        -u accounts.google.com:NUMERIC_USER_ID \
        -e UNIQUE_ID  \
        -f UNIQUE_ID \
        -l - -r Op --use-random-password
    

    Remplacez :

    • ENVIRONMENT_NAME par le nom de l'environnement.
    • LOCATION par la région dans laquelle se trouve l'environnement.
    • NUMERIC_USER_ID par l'ID utilisateur obtenu à l'étape précédente.
    • UNIQUE_ID par l'identifiant de l'utilisateur Airflow. Vous pouvez utiliser n'importe quelle chaîne unique.
  3. Une fois que vous avez créé un utilisateur Airflow pour un compte de service, un appelant qui s'est authentifié en tant que compte de service est reconnu comme un utilisateur préinscrit et est connecté à Airflow.

Mise à l'échelle du composant de l'API REST Airflow

L'API REST Airflow et les points de terminaison de l'interface utilisateur Airflow sont exécutés dans le composant, à savoir le serveur Web Airflow. Si vous utilisez l'API REST de façon intensive, envisagez d'augmenter les paramètres de processeur et de mémoire pour ajuster les ressources du serveur Web Airflow en fonction de la charge attendue.

Étapes suivantes