在 Monitoring 信息中心内使用关键指标监控环境健康状况和性能

Cloud Composer 1 |Cloud Composer 2 |Cloud Composer 3

本页介绍了如何使用监控信息中心内的关键指标来监控 Cloud Composer 环境的整体健康状况和性能。

简介

本教程重点介绍 Cloud Composer 监控的关键指标,这些指标可以很好地概述环境级运行状况和性能。

Cloud Composer 提供多种指标, 环境状态。本教程中的监控指南基于 (针对 Monitoring 信息中心上显示的指标) 使用 Cloud Composer

在本教程中,您将了解可用作环境性能和运行状况问题主要指标的关键指标,以及将每个指标解读为纠正措施以保持环境健康的指南。您还需要为每项服务 运行示例 DAG 并使用这些指标和提醒来优化 环境性能

目标

费用

本教程使用 Google Cloud 的以下收费组件:

完成本教程后,您可以删除所创建的资源以避免继续计费。如需了解详情,请参阅清理

准备工作

本部分介绍了在开始本教程之前必须执行的操作。

创建和配置项目

在本教程中,您需要 project。 按以下方式配置项目:

  1. 在 Google Cloud 控制台中,选择或创建项目

    前往“项目选择器”

  2. 确保您的项目已启用结算功能。 了解如何检查项目是否已启用结算功能

  3. 确保您的 Google Cloud 项目用户具有以下角色,以便创建必要的资源:

    • Environment and Storage Object Administrator (roles/composer.environmentAndStorageObjectAdmin)
    • Compute Admin (roles/compute.admin)
    • Monitoring Editor (roles/monitoring.editor)

为您的项目启用 API

Enable the Cloud Composer API.

Enable the API

创建 Cloud Composer 环境

创建一个 Cloud Composer 2 环境

在此过程中 您授予 Cloud Composer v2 API Service Agent Extension (roles/composer.ServiceAgentV2Ext) 角色分配给 Composer Service Agent 。Cloud Composer 使用此账号执行操作 Google Cloud 项目中的资源。

探索环境级健康状况和性能的关键指标

本教程重点介绍了可帮助您全面了解 环境的整体健康状况和性能。

Google Cloud 控制台中的监控信息中心包含各种指标和图表,可用于监控环境中的趋势,以及识别 Airflow 组件和 Cloud Composer 资源的问题。

每个 Cloud Composer 环境都有自己的 Monitoring 信息中心。

熟悉以下关键指标,并在“监控”信息中心内找到每个指标:

  1. 在 Google Cloud 控制台中,前往环境页面。

    转到“环境”

  2. 在环境列表中,点击您的环境名称。环境详情页面会打开。

  3. 转到监控标签页。

  4. 选择概览部分,然后在以下位置找到环境概览项 查看信息中心 环境运行状况(Airflow 监控 DAG)指标。

    • 此时间轴显示 Cloud Composer 环境的运行状况。环境运行状况栏的绿色 表示环境良好,而环境不佳则用红色表示。

    • 每隔几分钟,Cloud Composer 就会执行一个名为 airflow_monitoring。如果活跃性 DAG 运行成功完成, 健康状况为True。如果活跃性 DAG 运行失败(例如,由于 Pod 被驱逐、外部进程终止或维护),则运行状况为 False

  5. 选择 SQL 数据库部分,在信息中心内找到数据库健康状况项目,然后观察数据库健康状况指标。

    • 此时间轴显示了 您的环境的 Cloud SQL 实例。绿色数据库 运行状况栏表示连接正常,而连接失败则表示 以红色表示

    • Airflow 监控 pod 会定期对数据库执行 ping 操作。如果可以建立连接,则报告运行状态 True,否则报告 False

  6. Database health 项中,观察数据库 CPU 使用率数据库内存用量指标。

    • 数据库 CPU 使用率图表通过 您环境的 Cloud SQL 数据库实例与 可用数据库的总 CPU 限制。

    • “数据库内存用量”图表显示了您环境中的 Cloud SQL 数据库实例的内存用量与可用数据库内存总限制值之间的对比情况。

  7. 选择调度器部分,在信息中心内找到调度器心跳项目,然后观察调度器心跳指标。

    • 此时间轴显示了 Airflow 调度器的健康状况。 检查红色区域,以识别 Airflow 调度器问题。如果您的环境有多个调度程序,只要至少有一个调度程序响应,则检测信号状态为正常。

    • 如果上次收到的心跳时间早于当前时间超过 30 秒(默认值),则系统会认为调度程序处于不健康状态。

  8. 选择 DAG 统计信息部分,找到已终止的僵尸任务 项目,并查看 Zombie tasks killed 指标。

    • 这张图显示了小程序中终止的僵尸任务数量 。僵尸任务通常是由外部终止 Airflow 进程的影响(例如,任务进程被终止时)。

    • Airflow 调度程序会定期终止僵尸任务,这些任务应反映在此图表中。

  9. 选择工作器部分,在信息中心内找到工作器容器重启项,然后观察工作器容器重启指标。

    • 图表显示了各个工作器容器的重启总次数。容器重启次数过多可能会影响您的服务或将其用作依赖项的下游其他服务的可用性。

了解关键指标的基准值和可能的纠正措施

以下列表介绍了可能表明存在问题的基准值,并提供了您可以采取的纠正措施来解决这些问题。

  • 环境健康情况(Airflow 监控 DAG)

    • 在 4 小时的时间段内,成功率低于 90%

    • 失败可能意味着 Pod 被驱逐或工作器终止,因为环境过载或故障。环境中的红色区域 健康状况时间轴通常与其他健康状况条中的红色区域相关 各个环境组件的影响。查看 Monitoring 信息中心中的其他指标,找出根本原因。

  • 数据库运行状况

    • 在 4 小时的时间段内,成功率低于 95%

    • 故障表示与 Airflow 的连接存在问题 这可能是由于数据库崩溃或停机引起, 数据库过载(例如,由于 CPU 或内存 或连接数据库期间的延迟较高)。这些问题最常由 DAG 不太理想所致,例如 DAG 使用许多全局定义的 Airflow 或环境变量时。查看 SQL 数据库资源使用指标,找出根本原因。您还可以检查调度程序日志,看看是否存在与数据库连接相关的错误

  • 数据库 CPU 和内存用量

    • 12 小时内平均 CPU 或内存用量超过 80%

    • 数据库可能已过载。分析 DAG 之间的相关性 运行和出现数据库 CPU 或内存用量高峰。

  • 调度程序检测信号

    • 在 4 小时的时间段内,成功率低于 90%

    • 向调度器分配更多资源,或将调度器数量从 1 增加到 2(推荐)。

  • 已终止的僵尸任务

    • 每 24 小时内只能执行一项僵尸任务

    • 僵尸任务最常见的原因是环境集群中的 CPU 或内存资源不足。查看工作器资源使用情况 并为工作器分配更多资源,或者 延长僵尸任务的超时时长 让调度器在将任务视为僵尸前等待更长时间。

  • 工作器容器重启

    • 每 24 小时重启多次

    • 最常见的原因是缺少工作器内存或存储空间。调查 消耗工作器资源,以及分配更多内存或存储空间 。如果资源不足不是原因,请参阅排查 Worker 重启问题,并使用日志查询找出 Worker 重启的原因。

创建通知渠道

按照创建通知渠道中所述的说明创建电子邮件通知渠道。

如需详细了解通知渠道,请参阅管理通知渠道

创建提醒政策

根据本教程前几部分提供的基准创建提醒政策,以便持续监控指标的值,并在这些指标违反条件时接收通知。

控制台

您可以点击 Monitoring 信息中心中相应项角落的铃铛图标,为其中显示的每个指标设置提醒:

为 Monitoring 信息中心内显示的指标创建提醒
图 1. 为监控信息中心中显示的指标创建提醒(点击可放大)
  1. 在 Monitoring 信息中心内找到要监控的每个指标,然后点击指标项角落的铃铛图标。通过 创建提醒政策页面即会打开。

  2. 转换数据部分中,执行以下操作:

    1. 按照指标的提醒政策配置中所述的方式配置每个时间序列内部分。

    2. 点击下一步,然后按照指标的提醒政策配置中所述的方式配置配置提醒触发器部分。

  3. 点击下一步

  4. 配置通知。展开通知渠道菜单 并选择您在 上一步。

  5. 点击 OK(确定)。

  6. 为提醒政策命名部分,填写提醒政策名称。 字段。为每个指标使用描述性名称。使用“为提醒政策命名”值,如指标的提醒政策配置中所述。

  7. 点击下一步

  8. 查看提醒政策,然后点击创建政策

环境健康状况(Airflow 监控 DAG)指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 健康状况良好
  • API:composer.googleapis.com/environment/healthy
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时序内:

    • 滚动窗口:自定义
    • 自定义值:4
    • 自定义单位:小时
    • 滚动窗口函数:true 分数
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:低于阈值
    • 阈值:90
    • 条件名称:环境健康状况
  • 配置通知并完成提醒:

    • 将提醒政策命名为“Airflow Environment Health”

数据库运行状况指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 数据库健康状况
  • API:composer.googleapis.com/environment/database_health
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时序内:

    • 滚动窗口:自定义
    • 自定义值:4
    • 自定义单位:小时
    • 滚动窗口函数:true 分数
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:低于阈值
    • 阈值:95
    • 条件名称:数据库健康状况
  • 配置通知并最终确定提醒:

    • 将提醒政策命名为:Airflow Database Health

数据库 CPU 使用率指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 数据库 CPU 利用率
  • API:composer.googleapis.com/environment/database/cpu/utilization
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时间序列内:

    • 滚动窗口:自定义
    • 自定义值:12
    • 自定义单位:小时
    • 滚动窗口函数:平均值
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:高于阈值
    • 阈值:80
    • 条件名称:数据库 CPU 使用条件
  • 配置通知并最终确定提醒:

    • 将提醒政策命名为:Airflow Database CPU Usage

数据库 CPU 使用率指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 数据库内存用量
  • API:composer.googleapis.com/environment/database/memory/utilization
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时间序列内:

    • 滚动窗口:自定义
    • 自定义值:12
    • 自定义单位:小时
    • 滚动窗口函数:平均值
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:高于阈值
    • 阈值:80
    • 条件名称:数据库内存用量条件
  • 配置通知并最终确定提醒:

    • 将提醒政策命名为:Airflow Database Memory Usage

调度器检测信号指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 调度程序心跳
  • API:composer.googleapis.com/environment/scheduler_heartbeat_count
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时间序列内:

    • 滚动窗口:自定义
    • 自定义值:4
    • 自定义单位:小时
    • 滚动窗口函数:count
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:低于阈值
    • 阈值:216

      1. 您可以在 Metrics Explorer 查询编辑器中运行用于汇总值 _scheduler_heartbeat_count_mean 的查询,以获取此数值。
    • 条件名称:调度器检测信号条件

  • 配置通知并完成提醒:

    • 为提醒政策命名:Airflow 调度程序检测信号

“已终止的僵尸任务”指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 已终止的僵尸任务
  • API:composer.googleapis.com/environment/zombie_task_killed_count
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时序内:

    • 滚动窗口:1 天
    • 滚动窗口函数:sum
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:高于阈值
    • 阈值:1
    • 条件名称:僵尸任务条件
  • 配置通知并完成提醒:

    • 为提醒政策命名:Airflow 僵尸任务

工作器容器重启指标 - 提醒政策配置

  • 指标名称:Cloud Composer 环境 - 已终止的僵尸任务
  • API:composer.googleapis.com/environment/zombie_task_killed_count
  • 过滤条件:

    environment_name = [ENVIRONMENT_NAME]
    location = [CLUSTER_LOCATION]
    
  • 转换数据 > 在每个时序内:

    • 滚动窗口:1 天
    • 滚动窗口函数:sum
  • 配置提醒触发器:

    • 条件类型:阈值
    • 提醒触发器:任何时序违反
    • 阈值位置:高于阈值
    • 阈值:1
    • 条件名称:僵尸任务条件
  • 配置通知并完成提醒:

    • 将提醒政策命名为“Airflow Zombie Tasks”。

Terraform

运行 Terraform 脚本,该脚本会根据本教程中提供的关键指标及其各自的基准,创建电子邮件通知渠道并上传提醒政策:

  1. 将 Terraform 示例文件保存到本地计算机上。
  2. 替换以下内容:

    • PROJECT_ID:您的项目的项目 ID。例如 example-project
    • EMAIL_ADDRESS:在触发提醒时必须发送通知的电子邮件地址。
    • ENVIRONMENT_NAME:您的 Cloud Composer 环境的名称。例如 example-composer-environment
    • CLUSTER_NAME:您的环境集群名称,可在 Google Cloud 控制台中的“环境配置”>“资源”>“GKE 集群”下找到。
resource "google_monitoring_notification_channel" "basic" {
  project      = "PROJECT_ID"
  display_name = "Test Notification Channel"
  type         = "email"
  labels = {
    email_address = "EMAIL_ADDRESS"
  }
  # force_delete = false
}

resource "google_monitoring_alert_policy" "environment_health_metric" {
  project      = "PROJECT_ID"
  display_name = "Airflow Environment Health"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Environment health condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/healthy\" AND resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_LT"
      threshold_value = 0.9
      aggregations {
        alignment_period   = "14400s"
        per_series_aligner = "ALIGN_FRACTION_TRUE"
      }
    }
  }

}

resource "google_monitoring_alert_policy" "database_health_metric" {
  project      = "PROJECT_ID"
  display_name = "Airflow Database Health"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Database health condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/database_health\" AND resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_LT"
      threshold_value = 0.95
      aggregations {
        alignment_period   = "14400s"
        per_series_aligner = "ALIGN_FRACTION_TRUE"
      }
    }
  }
}

resource "google_monitoring_alert_policy" "alert_database_cpu_usage" {
  project      = "PROJECT_ID"
  display_name = "Airflow Database CPU Usage"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Database CPU usage condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/database/cpu/utilization\" AND resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_GT"
      threshold_value = 80
      aggregations {
        alignment_period   = "43200s"
        per_series_aligner = "ALIGN_MEAN"
      }
    }
  }
}

resource "google_monitoring_alert_policy" "alert_database_memory_usage" {
  project      = "PROJECT_ID"
  display_name = "Airflow Database Memory Usage"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Database memory usage condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/database/memory/utilization\" AND resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_GT"
      threshold_value = 80
      aggregations {
        alignment_period   = "43200s"
        per_series_aligner = "ALIGN_MEAN"
      }
    }
  }
}

resource "google_monitoring_alert_policy" "alert_scheduler_heartbeat" {
  project      = "PROJECT_ID"
  display_name = "Airflow Scheduler Heartbeat"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Scheduler heartbeat condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/scheduler_heartbeat_count\" AND resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_LT"
      threshold_value = 216 // Threshold is 90% of the average for composer.googleapis.com/environment/scheduler_heartbeat_count metric in an idle environment
      aggregations {
        alignment_period   = "14400s"
        per_series_aligner = "ALIGN_COUNT"
      }
    }
  }
}

resource "google_monitoring_alert_policy" "alert_zombie_task" {
  project      = "PROJECT_ID"
  display_name = "Airflow Zombie Tasks"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Zombie tasks condition"
    condition_threshold {
      filter     = "resource.type = \"cloud_composer_environment\" AND metric.type=\"composer.googleapis.com/environment/zombie_task_killed_count\" AND  resource.label.environment_name=\"ENVIRONMENT_NAME\""
      duration   = "60s"
      comparison = "COMPARISON_GT"
      threshold_value = 1
      aggregations {
        alignment_period   = "86400s"
        per_series_aligner = "ALIGN_SUM"
      }
    }
  }
}

resource "google_monitoring_alert_policy" "alert_worker_restarts" {
  project      = "PROJECT_ID"
  display_name = "Airflow Worker Restarts"
  combiner     = "OR"
  notification_channels = [google_monitoring_notification_channel.basic.name] // To manually add a notification channel add it with the syntax "projects/[PROJECT_ID]/notificationChannels/[CHANNEL_ID]"
  conditions {
    display_name = "Worker container restarts condition"
    condition_threshold {
      filter     = "resource.type = \"k8s_container\" AND (resource.labels.cluster_name = \"CLUSTER_NAME\" AND resource.labels.container_name = monitoring.regex.full_match(\"airflow-worker|base\") AND resource.labels.pod_name = monitoring.regex.full_match(\"airflow-worker-.*|airflow-k8s-worker-.*\")) AND metric.type = \"kubernetes.io/container/restart_count\""

      duration   = "60s"
      comparison = "COMPARISON_GT"
      threshold_value = 1
      aggregations {
        alignment_period   = "86400s"
        per_series_aligner = "ALIGN_RATE"
      }
    }
  }
}

测试提醒政策

本部分介绍了如何测试创建的提醒政策以及如何解读结果。

上传示例 DAG

本教程中提供的示例 DAG memory_consumption_dag.py 模拟了 需要较高的工作器内存利用率DAG 包含 4 个任务,每个任务都会将数据写入一个示例字符串,并消耗 380 MB 的内存。示例 DAG 已安排每 2 分钟运行一次,并会在您将其上传到 Composer 环境后自动开始运行。

将以下示例 DAG 上传到您在前面步骤中创建的环境:

from datetime import datetime
import sys
import time

from airflow import DAG
from airflow.operators.python import PythonOperator


def ram_function():
    data = ""
    start = time.time()
    for i in range(38):
        data += "a" * 10 * 1000**2
        time.sleep(0.2)
        print(f"{i}, {round(time.time() - start, 4)}, {sys.getsizeof(data) / (1000 ** 3)}")
    print(f"Size={sys.getsizeof(data) / (1000 ** 3)}GB")
    time.sleep(30 - (time.time() - start))
    print(f"Complete in {round(time.time() - start, 2)} seconds!")


with DAG(
    dag_id="memory_consumption_dag",
    start_date=datetime(2023, 1, 1, 1, 1, 1),
    schedule="1/2 * * * *",
    catchup=False,
) as dag:
    for i in range(4):
        PythonOperator(
            task_id=f"task_{i+1}",
            python_callable=ram_function,
            retries=0,
            dag=dag,
        )

解读 Monitoring 中的提醒和指标

示例 DAG 开始运行后,请等待大约 10 分钟,然后评估测试结果:

  1. 查看您的电子邮件邮箱,以确认是否收到了来自 主题行以 [ALERT] 开头的 Google 云提醒。 此消息的内容包含提醒政策突发事件详细信息。

  2. 点击电子邮件通知中的查看突发事件按钮。您 已重定向到 Metrics Explorer。查看提醒的详细信息 突发事件:

    提醒突发事件的详细信息
    图 2.提醒突发事件的详细信息(点击可放大)

    “突发事件指标”图表显示您创建的指标超出了 1 的阈值,这意味着 Airflow 检测到并终止了多个僵尸任务。

  3. 在 Cloud Composer 环境中,转到监控标签页。 打开 DAG 统计信息部分,然后找到已终止的僵尸任务 图表:

    僵尸任务图
    图 3. 僵尸任务图表(点击可放大)

    该图显示,Airflow 在 运行示例 DAG 的前 10 分钟。

  4. 根据基准和纠正措施,最常见的原因 缺乏工作器内存或 CPU。通过分析工作器资源利用率,找出僵尸任务的根本原因。

    打开 Monitoring 信息中心的“Workers”(工作器)部分,然后查看工作器的 CPU 和内存用量指标:

    工作器 CPU 和内存使用情况指标
    图 4. 工作器 CPU 和内存使用情况指标(点击可放大)

    “工作器总 CPU 用量”图表表明,工作器 CPU 用量始终低于可用总上限的 50%,因此可用的 CPU 足够。工作器内存用量图表显示,运行 示例 DAG 导致达到可分配内存上限,该上限等于 图表上显示的总内存限额的近 75% (GKE 会预留前 4 GiB 的 25% 的内存, 在每个节点上额外增加 100 MiB 内存来处理 Pod 逐出)。

    由此您可以断定,工作器缺少内存资源来运行 已成功创建 DAG 示例。

优化环境并评估其性能

根据对工作器资源利用率的分析,您需要分配更多 向工作器分配内存,确保 DAG 中的所有任务都成功完成。

  1. 在 Composer 环境中,打开 DAG 标签页,点击示例 DAG 的名称 (memory_consumption_dag),然后点击暂停 DAG

  2. 分配额外的工作器内存:

    1. 在“环境配置”标签页中,找到资源 > 工作负载配置,然后点击修改

    2. 工作器项中,提高内存上限。在本教程中 使用 3.25 GB。

    3. 保存更改,然后等待几分钟,让工作器重启。

  3. 打开 DAG 标签页,点击示例 DAG 的名称 (memory_consumption_dag),然后点击取消暂停 DAG

前往监控,并验证在您更新了工作器资源限制后,是否没有出现新的僵尸任务:

更改内存限制后的僵尸任务图
图 5.更改内存限制后僵尸任务图表(点击可放大)

摘要

在本教程中,您了解了环境层面的关键运行状况和 性能指标,如何为每个指标设置提醒政策,以及如何 将每项指标解读为纠正措施。然后,您运行了一个示例 DAG 借助警报确定环境健康问题的根本原因 和 Monitoring 图表,并通过分配更多内存来优化您的环境 。不过,建议您先优化 DAG 以减少工作器资源消耗,因为资源无法超出特定阈值。

清理

为避免系统因资源向您的 Google Cloud 账号收取费用 您可以删除包含这些资源的项目 或者保留项目而删除各个资源。

删除项目

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

删除各个资源

如果您打算探索多个教程和快速入门,重复使用项目可以帮助您避免超出项目配额上限。

控制台

  1. 删除 Cloud Composer 环境。在此过程中,您还会删除环境的存储桶。
  2. 删除每项提醒政策 您在 Cloud Monitoring 中创建的应用。

Terraform

  1. 确保您的 Terraform 脚本不包含项目仍需要的资源的条目。例如,您可能希望让某些 API 保持启用状态,并保留分配的 IAM 权限(如果您已向 Terraform 脚本添加了此类定义)。
  2. 运行 terraform destroy
  3. 手动删除环境的存储桶。Cloud Composer 不会自动删除该存储桶。您可以从 Google Cloud 控制台或 Google Cloud CLI。

后续步骤