환경 업데이트

Cloud Composer 1 | Cloud Composer 2

이 페이지에서는 환경을 업데이트하는 방법을 설명합니다.

업데이트 작업 정보

새로운 확장 및 성능 매개변수 지정 또는 커스텀 PyPI 패키지 설치와 같이 환경 매개변수를 변경하면 환경이 업데이트됩니다.

이 작업이 완료된 후 변경사항이 환경에 제공됩니다.

단일 Cloud Composer 환경에서는 한 번에 하나만 업데이트 작업을 시작할 수 있습니다. 다른 환경 작업을 시작하려면 업데이트 작업이 완료될 때까지 기다려야 합니다.

업데이트가 Airflow 태스크 실행에 미치는 영향

커스텀 PyPI 패키지 설치와 같은 업데이트 작업을 실행하면 환경의 모든 Airflow 스케줄러 및 작업자가 다시 시작되고 현재 실행 중인 모든 태스크가 종료됩니다. 업데이트 작업이 완료되면 Airflow가 DAG에 대한 재시도를 구성하는 방법에 따라 이러한 태스크를 재시도하도록 예약합니다.

Terraform을 사용한 업데이트

Terraform이 업데이트 대신 새 환경을 만드는지 확인하려면 terraform apply 전에 terraform plan을 실행합니다.

시작하기 전에

환경 업데이트

환경 업데이트에 대한 자세한 내용은 특정 업데이트 작업에 대한 다른 문서 페이지를 참조하세요. 예를 들면 다음과 같습니다.

환경 세부정보 보기

콘솔

  1. Google Cloud 콘솔에서 환경 페이지로 이동합니다.

    환경으로 이동

  2. 환경 목록에서 환경 이름을 클릭합니다. 환경 세부정보 페이지가 열립니다.

gcloud

다음 gcloud 명령어를 실행합니다.

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

다음과 같이 바꿉니다.

  • ENVIRONMENT_NAME을 환경 이름으로 바꿉니다.
  • LOCATION을 환경이 위치한 리전으로 바꿉니다.

API

environments.get API 요청을 생성합니다.

예를 들면 다음과 같습니다.

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

환경 리소스에 대해 terraform state show 명령어를 실행합니다.

환경의 Terraform 리소스 이름은 해당 환경의 이름과 다를 수 있습니다.

terraform state show google_composer_environment.RESOURCE_NAME

다음과 같이 바꿉니다.

  • RESOURCE_NAME을 환경의 리소스 이름으로 바꿉니다.

업데이트 변경사항 롤백

드물지만 시간 초과 등으로 인해 업데이트 작업이 중단되고 Airflow 웹 서버와 같이 모든 환경 구성요소에서 요청된 변경사항이 롤백될 수 있습니다.

예를 들어 업데이트 작업에 따라 추가 PyPI 모듈을 설치 또는 제거하거나, 새로운 Airflow 또는 Cloud Composer 환경 변수를 다시 정의 또는 정의하거나, 일부 Airflow 관련 매개변수를 변경할 수 있습니다.

이러한 상황은 Cloud Composer 클러스터의 자동 확장 또는 유지보수 작업과 같은 다른 작업이 진행 중일 때 업데이트 작업이 트리거된 경우에 발생할 수 있습니다.

이러한 경우에는 작업을 반복하는 것이 좋습니다.

업데이트 또는 업그레이드 작업 기간

대부분의 업데이트 또는 업그레이드 작업에서는 Airflow 스케줄러, 작업자, 웹 서버와 같은 Airflow 구성요소를 다시 시작해야 합니다.

구성요소가 다시 시작된 경우 이를 초기화해야 합니다. 초기화 중에 Airflow 스케줄러와 작업자는 환경 버킷에서 /dags/plugins 폴더 콘텐츠를 다운로드합니다. Airflow 스케줄러와 작업자에 파일을 동기화하는 프로세스는 즉시 수행되지 않으며 이러한 폴더에 있는 모든 객체의 총 크기와 개수에 따라 달라집니다.

각각 /dags/plugins 폴더에 있는 DAG 및 플러그인 파일만 유지하고 다른 모든 파일은 삭제하는 것이 좋습니다. /dags/plugins 폴더에 데이터가 너무 많으면 Airflow 구성요소 초기화가 느려지고 일부 경우에 초기화가 불가능해질 수 있습니다.

/dags/plugins 폴더에서 데이터를 30MB 미만으로 유지하고 데이터가 100MB를 초과하지 않도록 하는 것이 좋습니다.

자세한 내용은 다음을 참조하세요.

GKE 노드의 머신 유형 업그레이드

기존 default-pool을 삭제하고 원하는 머신 유형으로 새 default-pool을 만들어 환경의 GKE 클러스터의 머신 유형을 수동으로 업그레이드할 수 있습니다.

환경을 만들 때 Cloud Composer 환경에서 발생하는 컴퓨팅 유형에 따라 적합한 머신 유형을 지정하는 것이 좋습니다.

리소스 집약적인 컴퓨팅 작업을 실행하는 경우 GKE 오퍼레이터를 사용해야 할 수 있습니다.

업그레이드 후에도 이전 머신 유형이 환경 세부정보에 나열됩니다. 예를 들어 환경 세부정보 페이지에 새 머신 유형이 반영되지 않습니다.

콘솔

머신 유형을 업그레이드하려면 다음 안내를 따르세요.

  1. Google Cloud 콘솔에서 환경 페이지로 이동합니다.

    환경으로 이동

  2. 환경 목록에서 환경 이름을 클릭합니다. 환경 세부정보 페이지가 열립니다.

  3. 기본 노드 풀에 대한 정보를 가져옵니다.

    1. 환경 구성 탭으로 이동합니다.

    2. 클러스터 세부정보 보기 링크를 클릭합니다.

    3. 노드 섹션의 클러스터 페이지에서 default-pool을 클릭합니다.

    4. 노드 풀 세부정보 페이지에서 default-pool의 모든 정보를 기록합니다. 환경에서 새 기본 노드 풀을 만들 때 이 정보를 사용합니다.

  4. default-pool을 삭제하려면 다음 안내를 따르세요.

    1. 노드 풀 세부정보 페이지에서 뒤로 화살표를 클릭하여 환경의 클러스터 페이지로 돌아갑니다.

    2. 노드 풀 섹션에서 default-pool의 휴지통 아이콘을 클릭합니다. 삭제를 클릭하여 작업을 확인합니다.

  5. default-pool을 만들려면 다음 안내를 따르세요.

    1. 클러스터 페이지에서 노드 풀 추가를 클릭합니다.

    2. 이름에 default-pool을 입력합니다. 환경의 워크플로가 이 풀에서 실행될 수 있도록 default-pool 이름을 사용해야 합니다.

    3. 크기 및 노드 설정을 입력합니다.

    4. (기본 Compute Engine 서비스 계정만 해당) 액세스 범위에서 모든 Cloud API에 대한 전체 액세스 허용을 선택합니다.

    5. 저장을 클릭합니다.

  6. 워크로드가 균일하지 않게 배포되면 airflow-worker 배포 크기를 0으로 줄이고 다시 확장합니다.

다음 단계