Accedere all'API REST Airflow

Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1

Apache Airflow ha un'interfaccia API REST che puoi utilizzare per eseguire attività come ottenere informazioni sulle esecuzioni di DAG e sulle attività, aggiornare i DAG, ottenere la configurazione di Airflow, aggiungere ed eliminare connessioni ed elencare gli utenti.

Per un esempio di utilizzo dell'API REST di Airflow con le funzioni Cloud Run, consulta Attivazione dei DAG con le funzioni Cloud Run.

Versioni dell'API REST Airflow

  • Airflow 2 utilizza l'API REST stabile.
  • L'API REST sperimentale è obsoleta per Airflow.

Configura l'API REST stabile di Airflow

L'API REST stabile è abilitata per impostazione predefinita in Airflow 2. Cloud Composer utilizza il proprio backend di autenticazione API.

L'autorizzazione funziona nel modo standard fornito da Airflow. Quando un nuovo utente autorizza tramite l'API, il suo account riceve per impostazione predefinita il ruolo Op.

Puoi attivare o disattivare l'API REST stabile o modificare il ruolo utente predefinito eseguendo l'override delle seguenti opzioni di configurazione di Airflow:

Sezione Chiave Valore Note
api (Airflow 2.2.5 e versioni precedenti) auth_backend
(Airflow 2.3.0 e versioni successive) auth_backends
airflow.composer.api.backend.composer_auth Per disattivare l'API REST stabile, passa a airflow.api.auth.backend.deny_all
api composer_auth_user_registration_role Op Puoi specificare qualsiasi altro ruolo.

Consenti chiamate API all'API REST Airflow utilizzando controllo dell'accesso al server web

A seconda del metodo utilizzato per chiamare l'API REST di Airflow, il metodo del chiamante può utilizzare un indirizzo IPv4 o IPv6. Ricorda di sbloccare il traffico IP verso l'API REST Airflow utilizzando il controllo dell'accesso al server web.

Utilizza l'opzione di configurazione predefinita, ovvero All IP addresses have access (default), se non sai da quali indirizzi IP verranno inviate le chiamate all'API REST di Airflow.

Eseguire chiamate all'API REST Airflow

Questa sezione fornisce uno script Python di esempio che puoi utilizzare per attivare i DAG con l'API REST stabile di Airflow.

Inserisci i contenuti dell'esempio seguente in un file denominato composer2_airflow_rest_api.py, quindi imposta le seguenti variabili:

  • dag_id: il nome di un DAG, come definito nel file di origine DAG.
  • dag_config: configurazione per l'esecuzione del DAG.
  • web_server_url: l'URL del server web Airflow. Il formato è https://<web-server-id>.composer.googleusercontent.com.

from __future__ import annotations

from typing import Any

import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests


# Following GCP best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])


def make_composer2_web_server_request(
    url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
    """
    Make a request to Cloud Composer 2 environment's web server.
    Args:
      url: The URL to fetch.
      method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
        'PATCH', 'DELETE')
      **kwargs: Any of the parameters defined for the request function:
                https://github.com/requests/requests/blob/master/requests/api.py
                  If no timeout is provided, it is set to 90 by default.
    """

    authed_session = AuthorizedSession(CREDENTIALS)

    # Set the default timeout, if missing
    if "timeout" not in kwargs:
        kwargs["timeout"] = 90

    return authed_session.request(method, url, **kwargs)


def trigger_dag(web_server_url: str, dag_id: str, data: dict) -> str:
    """
    Make a request to trigger a dag using the stable Airflow 2 REST API.
    https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html

    Args:
      web_server_url: The URL of the Airflow 2 web server.
      dag_id: The DAG ID.
      data: Additional configuration parameters for the DAG run (json).
    """

    endpoint = f"api/v1/dags/{dag_id}/dagRuns"
    request_url = f"{web_server_url}/{endpoint}"
    json_data = {"conf": data}

    response = make_composer2_web_server_request(
        request_url, method="POST", json=json_data
    )

    if response.status_code == 403:
        raise requests.HTTPError(
            "You do not have a permission to perform this operation. "
            "Check Airflow RBAC roles for your account."
            f"{response.headers} / {response.text}"
        )
    elif response.status_code != 200:
        response.raise_for_status()
    else:
        return response.text




if __name__ == "__main__":
    # TODO(developer): replace with your values
    dag_id = "your-dag-id"  # Replace with the ID of the DAG that you want to run.
    dag_config = {
        "your-key": "your-value"
    }  # Replace with configuration parameters for the DAG run.
    # Replace web_server_url with the Airflow web server address. To obtain this
    # URL, run the following command for your environment:
    # gcloud composer environments describe example-environment \
    #  --location=your-composer-region \
    #  --format="value(config.airflowUri)"
    web_server_url = (
        "https://example-airflow-ui-url-dot-us-central1.composer.googleusercontent.com"
    )

    response_text = trigger_dag(
        web_server_url=web_server_url, dag_id=dag_id, data=dag_config
    )

    print(response_text)

Accedere all'API REST di Airflow utilizzando un account di servizio

Il database Airflow nelle versioni di Airflow precedenti alla 2.3.0 limita la lunghezza del campo email a 64 caratteri. A volte gli account di servizio hanno indirizzi email più lunghi di 64 caratteri. Non è possibile creare utenti Airflow per questi service account nel solito modo. Se non esiste un utente Airflow per unaccount di serviziot, l'accesso all'API REST di Airflow genera errori HTTP 401 e 403.

Come soluzione alternativa, puoi preregistrare un utente Airflow per un account di servizio. Per farlo, utilizza accounts.google.com:NUMERIC_USER_ID come nome utente e una stringa univoca come email.

  1. Per ottenere NUMERIC_USER_ID per un account di servizio, esegui:

    gcloud iam service-accounts describe \
      SA_NAME@PROJECT_ID.iam.gserviceaccount.com \
      --format="value(oauth2ClientId)"
    

    Sostituisci:

    • SA_NAME con il nome del account di servizio.
    • PROJECT_ID con l'ID progetto.
  2. Crea un utente Airflow con il ruolo Op per il account di servizio:

    UI di Airflow

    1. Vai alla UI di Airflow.

    2. Vai a Sicurezza > Elenca utenti e fai clic su Aggiungi un nuovo record. L'utente Airflow deve disporre del ruolo Admin per aprire questa pagina.

    3. Specifica accounts.google.com:NUMERIC_USER_ID come nome utente. Sostituisci NUMERIC_USER_ID con l'ID utente ottenuto nel passaggio precedente.

    4. Specifica un identificatore univoco come email. Puoi utilizzare qualsiasi stringa univoca.

    5. Specifica il ruolo per l'utente. Ad esempio, Op.

    6. Assicurati che la casella di controllo È attivo? sia selezionata.

    7. Specifica il nome e il cognome dell'utente. Puoi utilizzare qualsiasi stringa.

    8. Fai clic su Salva.

    gcloud

    Esegui questo comando della CLI di Airflow:

    gcloud composer environments run ENVIRONMENT_NAME \
        --location LOCATION \
        users create -- \
        -u accounts.google.com:NUMERIC_USER_ID \
        -e UNIQUE_ID  \
        -f UNIQUE_ID \
        -l - -r Op --use-random-password
    

    Sostituisci:

    • ENVIRONMENT_NAME con il nome dell'ambiente.
    • LOCATION con la regione in cui si trova l'ambiente.
    • NUMERIC_USER_ID con l'ID utente ottenuto nel passaggio precedente.
    • UNIQUE_ID con l'identificatore dell'utente Airflow. Puoi utilizzare qualsiasi stringa univoca.
  3. Dopo aver creato un utente Airflow per un account di servizio, un chiamante autenticato comeaccount di serviziot viene riconosciuto come utente preregistrato e accede ad Airflow.

Scalare il componente API REST Airflow

Gli endpoint dell'API REST Airflow e della UI di Airflow vengono eseguiti all'interno del server web di Airflow. Se utilizzi l'API REST in modo intensivo, valuta la possibilità di aumentare la quantità di CPU e memoria disponibile per il server web Airflow in base al carico previsto.

Passaggi successivi