Accedere all'API REST Airflow

Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1

Apache Airflow ha un'interfaccia API REST che puoi utilizzare per eseguire attività come recuperare informazioni su esecuzioni e attività DAG, aggiornare i DAG, recuperare la configurazione di Airflow, aggiungere ed eliminare connessioni ed elencare gli utenti.

Per un esempio di utilizzo dell'API REST di Airflow con le funzioni Cloud Run, consulta Attivazione dei DAG con le funzioni Cloud Run.

Versioni dell'API REST Airflow

  • Airflow 2 utilizza l'API REST stabile.
  • L'API REST sperimentale è deprecata da Airflow.

Configurare l'API REST Airflow stabile

L'API REST stabile è abilitata per impostazione predefinita in Airflow 2. Cloud Composer utilizza il proprio backend di autenticazione API.

L'autorizzazione funziona nel modo standard fornito da Airflow. Quando un nuovo utente si autorizza tramite l'API, il suo account ottiene il ruolo Op per impostazione predefinita.

Puoi attivare o disattivare l'API REST stabile o modificare il ruolo utente predefinito sostituendo le seguenti opzioni di configurazione di Airflow:

Sezione Chiave Valore Note
api (Airflow 2.2.5 e versioni precedenti) auth_backend
(Airflow 2.3.0 e versioni successive) auth_backends
airflow.composer.api.backend.composer_auth Per disattivare l'API REST stabile, passa a airflow.api.auth.backend.deny_all
api composer_auth_user_registration_role Op Puoi specificare qualsiasi altro ruolo.

Consenti le chiamate API all'API REST di Airflow utilizzando il controllo dell'accesso al server web

A seconda del metodo utilizzato per chiamare l'API REST di Airflow, il metodo del chiamante può utilizzare un indirizzo IPv4 o IPv6. Ricordati di sbloccare il traffico IP verso l'API REST Airflow utilizzando il controllo dell'accesso al server web.

Utilizza l'opzione di configurazione predefinita, ovvero All IP addresses have access (default), se non sai con certezza da quali indirizzi IP verranno inviate le chiamate all'API REST di Airflow.

Effettuare chiamate all'API REST Airflow

Questa sezione fornisce uno script Python di esempio che puoi utilizzare per attivare i DAG con l'API REST Airflow stabile.

Inserisci i contenuti del seguente esempio in un file denominato composer2_airflow_rest_api.py, quindi imposta le seguenti variabili:

  • dag_id: nome di un DAG, come definito nel file di origine del DAG.
  • dag_config: configurazione per l'esecuzione del DAG.
  • web_server_url: l'URL del server web Airflow. Il formato è https://<web-server-id>.composer.googleusercontent.com.

from __future__ import annotations

from typing import Any

import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests


# Following GCP best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])


def make_composer2_web_server_request(
    url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
    """
    Make a request to Cloud Composer 2 environment's web server.
    Args:
      url: The URL to fetch.
      method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
        'PATCH', 'DELETE')
      **kwargs: Any of the parameters defined for the request function:
                https://github.com/requests/requests/blob/master/requests/api.py
                  If no timeout is provided, it is set to 90 by default.
    """

    authed_session = AuthorizedSession(CREDENTIALS)

    # Set the default timeout, if missing
    if "timeout" not in kwargs:
        kwargs["timeout"] = 90

    return authed_session.request(method, url, **kwargs)


def trigger_dag(web_server_url: str, dag_id: str, data: dict) -> str:
    """
    Make a request to trigger a dag using the stable Airflow 2 REST API.
    https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html

    Args:
      web_server_url: The URL of the Airflow 2 web server.
      dag_id: The DAG ID.
      data: Additional configuration parameters for the DAG run (json).
    """

    endpoint = f"api/v1/dags/{dag_id}/dagRuns"
    request_url = f"{web_server_url}/{endpoint}"
    json_data = {"conf": data}

    response = make_composer2_web_server_request(
        request_url, method="POST", json=json_data
    )

    if response.status_code == 403:
        raise requests.HTTPError(
            "You do not have a permission to perform this operation. "
            "Check Airflow RBAC roles for your account."
            f"{response.headers} / {response.text}"
        )
    elif response.status_code != 200:
        response.raise_for_status()
    else:
        return response.text




if __name__ == "__main__":
    # TODO(developer): replace with your values
    dag_id = "your-dag-id"  # Replace with the ID of the DAG that you want to run.
    dag_config = {
        "your-key": "your-value"
    }  # Replace with configuration parameters for the DAG run.
    # Replace web_server_url with the Airflow web server address. To obtain this
    # URL, run the following command for your environment:
    # gcloud composer environments describe example-environment \
    #  --location=your-composer-region \
    #  --format="value(config.airflowUri)"
    web_server_url = (
        "https://example-airflow-ui-url-dot-us-central1.composer.googleusercontent.com"
    )

    response_text = trigger_dag(
        web_server_url=web_server_url, dag_id=dag_id, data=dag_config
    )

    print(response_text)

Accedere all'API REST di Airflow utilizzando un account di servizio

Il database Airflow limita la lunghezza del campo email a 64 caratteri. A volte gli indirizzi email dei service account sono più lunghi di 64 caratteri. Non è possibile creare utenti Airflow per questi account di servizio nel modo consueto. Se non esiste un utente Airflow per un account di questo tipo, l'accesso all'API REST di Airflow genera gli errori HTTP 401 e 403.

Come soluzione alternativa, puoi preregistrare un utente Airflow per un account di servizio. Per farlo, utilizza accounts.google.com:NUMERIC_USER_ID come nome utente e qualsiasi stringa univoca come indirizzo email.

  1. Per ottenere NUMERIC_USER_ID per un account di servizio, esegui:

    gcloud iam service-accounts describe \
      SA_NAME@PROJECT_ID.iam.gserviceaccount.com \
      --format="value(oauth2ClientId)"
    

    Sostituisci:

    • SA_NAME con il nome dell'account di servizio.
    • PROJECT_ID con l'ID progetto.
  2. Crea un utente Airflow con il ruolo Op per l'account di servizio:

    UI di Airflow

    1. Vai all'interfaccia utente di Airflow.

    2. Vai a Sicurezza > Elenca utenti e fai clic su Aggiungi un nuovo record. L'utente Airflow deve disporre del ruolo Admin per aprire questa pagina.

    3. Specifica accounts.google.com:NUMERIC_USER_ID come nome dell'utente. Sostituisci NUMERIC_USER_ID con l'ID utente ottenuto nel passaggio precedente.

    4. Specifica un identificatore univoco come indirizzo email. Puoi utilizzare qualsiasi stringa univoca.

    5. Specifica il ruolo per l'utente. Ad esempio, Op.

    6. Assicurati che la casella di controllo È attivo? sia selezionata.

    7. Specifica il nome e il cognome dell'utente. Puoi utilizzare qualsiasi stringa.

    8. Fai clic su Salva.

    gcloud

    Esegui il seguente comando dell'interfaccia a riga di comando Airflow:

    gcloud composer environments run ENVIRONMENT_NAME \
        --location LOCATION \
        users create -- \
        -u accounts.google.com:NUMERIC_USER_ID \
        -e UNIQUE_ID  \
        -f UNIQUE_ID \
        -l - -r Op --use-random-password
    

    Sostituisci:

    • ENVIRONMENT_NAME con il nome dell'ambiente.
    • LOCATION con la regione in cui si trova l'ambiente.
    • NUMERIC_USER_ID con l'ID utente ottenuto nel passaggio precedente.
    • UNIQUE_ID con l'identificatore dell'utente Airflow. Puoi utilizzare qualsiasi stringa univoca.
  3. Dopo aver creato un utente Airflow per un account di servizio, un chiamante autenticato come account di servizio viene riconosciuto come utente preregistrato e ha eseguito l'accesso ad Airflow.

Scalabilità del componente dell'API REST Airflow

L'API REST di Airflow e gli endpoint dell'interfaccia utente di Airflow vengono eseguiti all'interno del server web di Airflow. Se utilizzi l'API REST in modo intensivo, ti consigliamo di aumentare la quantità di CPU e memoria a disposizione del server web Airflow in base al carico previsto.

Passaggi successivi