Memperbarui lingkungan

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Halaman ini menjelaskan cara memperbarui lingkungan.

Tentang operasi update

Saat Anda mengubah parameter lingkungan, seperti menentukan parameter penskalaan dan performa baru, atau menginstal paket PyPI kustom, lingkungan Anda akan diperbarui.

Setelah operasi ini selesai, perubahan akan tersedia di lingkungan Anda.

Untuk satu lingkungan Cloud Composer, Anda hanya dapat memulai satu operasi update dalam satu waktu. Anda harus menunggu operasi update selesai sebelum memulai operasi lingkungan yang lain.

Batas CPU pemicu

Cloud Composer di versi 2.4.4 memperkenalkan pendekatan penskalaan performa yang berbeda untuk komponen Airflow triggerer yang berlaku untuk semua versi Cloud Composer 2.

Sebelum versi 2.4.4, lingkungan Cloud Composer dapat menggunakan maksimum 1 atau 2 pemicu. Setelah perubahan, Anda dapat memiliki hingga 10 pemicu per lingkungan, tetapi setiap pemicu dibatasi hingga maksimum 1 vCPU.

Operasi update lingkungan akan gagal jika lingkungan Anda dikonfigurasi dengan lebih dari 1 vCPU per pemicu. Anda harus menyesuaikan konfigurasi agar memenuhi batas 1 vCPU untuk melakukan pembaruan pada komponen lain.

Untuk informasi selengkapnya, lihat:

Pengaruh update terhadap pelaksanaan tugas Airflow

Saat Anda menjalankan operasi update, seperti menginstal paket PyPI kustom, semua penjadwal dan pekerja Airflow di lingkungan Anda akan memulai ulang, dan semua tugas yang sedang berjalan akan dihentikan. Setelah operasi update selesai, Airflow menjadwalkan tugas ini untuk dicoba ulang, bergantung pada cara Anda mengonfigurasi percobaan ulang untuk DAG.

Mengupdate dengan Terraform

Jalankan terraform plan sebelum terraform apply untuk melihat apakah Terraform membuat lingkungan baru, bukan mengupdatenya.

Sebelum memulai

  • Pastikan akun Anda, akun layanan lingkungan Anda, dan akun Agen Layanan Cloud Composer di project Anda memiliki izin yang diperlukan:

  • Perintah gcloud composer environments update dihentikan saat operasi selesai. Anda dapat menggunakan flag --async agar tidak perlu menunggu hingga operasi selesai.

Mengupdate lingkungan

Untuk mengetahui informasi selengkapnya tentang cara mengupdate lingkungan, lihat halaman dokumentasi lainnya tentang operasi update tertentu. Contoh:

Lihat detail lingkungan

Konsol

  1. Di Konsol Google Cloud, buka halaman Environments.

    Buka Lingkungan

  2. Pada daftar lingkungan, klik nama lingkungan Anda. Halaman Detail lingkungan akan terbuka.

gcloud

Jalankan perintah gcloud berikut:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Ganti:

  • ENVIRONMENT_NAME dengan nama lingkungan.
  • LOCATION dengan region tempat lingkungan berada.

API

Buat permintaan environments.get API.

Contoh:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Jalankan perintah terraform state show untuk resource lingkungan Anda.

Nama resource Terraform lingkungan Anda mungkin berbeda dengan nama lingkungan Anda.

terraform state show google_composer_environment.RESOURCE_NAME

Ganti:

  • RESOURCE_NAME dengan nama resource lingkungan Anda.

Melakukan roll back perubahan update

Pada beberapa situasi yang jarang terjadi, operasi update mungkin terhenti (misalnya, karena waktu tunggu habis) dan perubahan yang diminta mungkin tidak di-roll back di semua komponen lingkungan (seperti server web Airflow).

Misalnya, operasi update mungkin menginstal atau menghapus modul PyPI tambahan, menentukan ulang atau menentukan variabel lingkungan Airflow atau Cloud Composer baru, atau mengubah beberapa parameter terkait Airflow.

Situasi tersebut dapat terjadi jika operasi update dipicu saat operasi lain sedang berlangsung, misalnya penskalaan otomatis pada cluster Cloud Composer atau operasi pemeliharaan.

Dalam situasi seperti ini, sebaiknya ulangi operasi.

Durasi operasi update atau upgrade

Sebagian besar operasi update atau upgrade memerlukan memulai ulang komponen Airflow, seperti penjadwal Airflow, pekerja, dan server web.

Setelah dimulai ulang, komponen harus diinisialisasi. Selama inisialisasi, penjadwal dan pekerja Airflow akan mendownload konten folder /dags dan /plugins dari bucket lingkungan. Proses sinkronisasi file ke penjadwal dan pekerja Airflow tidak instan dan bergantung pada ukuran total serta jumlah semua objek di folder ini.

Sebaiknya hanya simpan file DAG dan plugin di folder /dags dan /plugins (masing-masing) dan hapus semua file lainnya. Terlalu banyak data dalam folder /dags dan /plugins dapat memperlambat inisialisasi komponen Airflow dan dalam kasus tertentu dapat membuat inisialisasi tidak dapat dilakukan.

Sebaiknya simpan data kurang dari 30 MB di folder /dags dan /plugins, dan pastikan tidak melebihi ukuran data 100 MB.

Untuk informasi selengkapnya, lihat juga:

Langkah selanjutnya