Halaman ini menjelaskan cara menyiapkan file Avro yang Anda ekspor dari database non-Spanner, lalu mengimpor file tersebut ke Spanner. Jika Anda ingin mengimpor database Spanner yang sebelumnya diekspor, lihat Mengimpor file Avro Spanner.
Proses ini menggunakan Dataflow; proses ini mengimpor data dari bucket Cloud Storage yang berisi kumpulan file Avro dan file manifes JSON yang menentukan tabel tujuan dan file Avro yang mengisi setiap tabel.
Sebelum memulai
Untuk mengimpor database Spanner, Anda harus mengaktifkan Spanner, Cloud Storage, Compute Engine, dan Dataflow API terlebih dahulu:
Anda juga memerlukan kuota yang cukup dan izin IAM yang diperlukan.
Persyaratan kuota
Persyaratan kuota untuk tugas impor adalah sebagai berikut:
- Spanner: Anda harus memiliki kapasitas komputasi yang memadai untuk mendukung jumlah data yang Anda impor. Tidak ada kapasitas komputasi tambahan yang diperlukan untuk mengimpor database, meskipun Anda mungkin perlu menambahkan lebih banyak kapasitas komputasi agar tugas Anda selesai dalam waktu yang wajar. Lihat Mengoptimalkan tugas untuk mengetahui detail selengkapnya.
- Cloud Storage: Untuk mengimpor, Anda harus memiliki bucket yang berisi file yang diekspor sebelumnya. Anda tidak perlu menetapkan ukuran untuk bucket.
- Dataflow: Tugas impor tunduk pada kuota Compute Engine CPU, penggunaan disk, dan alamat IP yang sama dengan tugas Dataflow lainnya.
Compute Engine: Sebelum menjalankan tugas impor, Anda harus menyiapkan kuota awal untuk Compute Engine, yang digunakan Dataflow. Kuota ini mewakili jumlah resource maksimum yang Anda izinkan untuk digunakan Dataflow untuk tugas Anda. Nilai awal yang direkomendasikan adalah:
- CPU: 200
- Alamat IP yang digunakan: 200
- Persistent disk standar: 50 TB
Umumnya, Anda tidak perlu melakukan penyesuaian lainnya. Dataflow menyediakan penskalaan otomatis sehingga Anda hanya membayar resource yang sebenarnya digunakan selama impor. Jika tugas Anda dapat menggunakan lebih banyak resource, UI Dataflow akan menampilkan ikon peringatan. Tugas harus selesai meskipun ada ikon peringatan.
Peran yang diperlukan
Untuk mendapatkan izin yang diperlukan untuk mengekspor database, minta administrator untuk memberi Anda peran IAM berikut di akun layanan pekerja Dataflow:
-
Cloud Spanner Viewer (
roles/spanner.viewer
) -
Dataflow Worker (
roles/dataflow.worker
) -
Storage Admin (
roles/storage.admin
) -
Spanner Database Reader (
roles/spanner.databaseReader
) -
Database Admin (
roles/spanner.databaseAdmin
)
Mengekspor data dari database non-Spanner ke file Avro
Proses impor memasukkan data dari file Avro yang berada di bucket Cloud Storage. Anda dapat mengekspor data dalam format Avro dari sumber mana pun dan dapat menggunakan metode apa pun yang tersedia untuk melakukannya.
Untuk mengekspor data dari database non-Spanner ke file Avro, ikuti langkah-langkah berikut:
Perhatikan hal-hal berikut saat mengekspor data:
- Anda dapat mengekspor menggunakan salah satu jenis primitif Avro serta jenis kompleks array.
Setiap kolom dalam file Avro Anda harus menggunakan salah satu jenis kolom berikut:
ARRAY
BOOL
BYTES
*DOUBLE
FLOAT
INT
LONG
†STRING
‡
* Kolom jenis
BYTES
digunakan untuk mengimporNUMERIC
Spanner; lihat bagian pemetaan yang direkomendasikan berikut untuk mengetahui detailnya.†,‡ Anda dapat mengimpor
LONG
yang menyimpan stempel waktu atauSTRING
yang menyimpan stempel waktu sebagaiTIMESTAMP
Spanner; lihat bagian pemetaan yang direkomendasikan berikut untuk mengetahui detailnya.Anda tidak perlu menyertakan atau membuat metadata apa pun saat mengekspor file Avro.
Anda tidak harus mengikuti konvensi penamaan tertentu untuk file Anda.
Jika tidak mengekspor file langsung ke Cloud Storage, Anda harus mengupload file Avro ke bucket Cloud Storage. Untuk petunjuk mendetail, lihat Mengupload objek ke Cloud Storage Anda.
Mengimpor file Avro dari database non-Spanner ke Spanner
Untuk mengimpor file Avro dari database non-Spanner ke Spanner, ikuti langkah-langkah berikut:
- Buat tabel target dan tentukan skema untuk database Spanner Anda.
- Buat file
spanner-export.json
di bucket Cloud Storage Anda. - Jalankan tugas impor Dataflow menggunakan gcloud CLI.
Langkah 1: Buat skema untuk database Spanner Anda
Sebelum menjalankan impor, Anda harus membuat tabel target di Spanner dan menentukan skemanya.
Anda harus membuat skema yang menggunakan jenis kolom yang sesuai untuk setiap kolom dalam file Avro.
Rekomendasi pemetaan
GoogleSQL
Jenis kolom Avro | Jenis kolom Spanner |
---|---|
ARRAY |
ARRAY |
BOOL |
BOOL |
BYTES |
|
DOUBLE |
FLOAT64 |
FLOAT |
FLOAT64 |
INT |
INT64 |
LONG |
|
STRING |
|
PostgreSQL
Jenis kolom Avro | Jenis kolom Spanner |
---|---|
ARRAY |
ARRAY |
BOOL |
BOOLEAN |
BYTES |
|
DOUBLE |
DOUBLE PRECISION |
FLOAT |
DOUBLE PRECISION |
INT |
BIGINT |
LONG |
|
STRING |
|
Langkah 2: Buat file spanner-export.json
Anda juga harus membuat file bernama spanner-export.json
di bucket Cloud Storage. File ini menentukan dialek database dan
berisi array tables
yang mencantumkan
nama dan lokasi file data untuk setiap tabel.
Isi file memiliki format berikut:
{ "tables": [ { "name": "TABLE1", "dataFiles": [ "RELATIVE/PATH/TO/TABLE1_FILE1", "RELATIVE/PATH/TO/TABLE1_FILE2" ] }, { "name": "TABLE2", "dataFiles": ["RELATIVE/PATH/TO/TABLE2_FILE1"] } ], "dialect":"DATABASE_DIALECT" }
Dengan DATABASE_DIALECT = {GOOGLE_STANDARD_SQL
| POSTGRESQL
}
Jika elemen dialek dihilangkan, dialek akan ditetapkan secara default ke GOOGLE_STANDARD_SQL
.
Langkah 3: Jalankan tugas impor Dataflow menggunakan gcloud CLI
Untuk memulai tugas impor, ikuti petunjuk penggunaan Google Cloud CLI untuk menjalankan tugas dengan template Avro ke Spanner.
Setelah memulai tugas impor, Anda dapat melihat detail tentang tugas tersebut di konsol Google Cloud.
Setelah tugas impor selesai, tambahkan indeks sekunder dan kunci asing yang diperlukan.
Memilih region untuk tugas impor
Anda mungkin ingin memilih region lain berdasarkan lokasi bucket Cloud Storage. Untuk menghindari biaya transfer data keluar, pilih region yang cocok dengan lokasi bucket Cloud Storage Anda.
Jika lokasi bucket Cloud Storage Anda adalah region, Anda dapat memanfaatkan penggunaan jaringan gratis dengan memilih region yang sama untuk tugas impor, dengan asumsi region tersebut tersedia.
Jika lokasi bucket Cloud Storage Anda adalah region ganda, Anda dapat memanfaatkan penggunaan jaringan gratis dengan memilih salah satu dari dua region yang membentuk region ganda untuk tugas impor, dengan asumsi salah satu region tersedia.
Jika region yang berlokasi sama tidak tersedia untuk tugas impor, atau jika lokasi bucket Cloud Storage Anda adalah multi-region, biaya transfer data keluar akan berlaku. Lihat harga transfer data Cloud Storage untuk memilih region yang dikenai biaya transfer data terendah.
Melihat atau memecahkan masalah tugas di UI Dataflow
Setelah memulai tugas impor, Anda dapat melihat detail tugas, termasuk log, di bagian Dataflow di konsol Google Cloud.
Melihat detail tugas Dataflow
Untuk melihat detail tugas impor atau ekspor yang Anda jalankan dalam seminggu terakhir, termasuk tugas yang sedang berjalan sekarang:
- Buka halaman Ringkasan database untuk database.
- Klik item menu panel kiri Import/Export. Halaman Import/Export database menampilkan daftar tugas terbaru.
Di halaman Impor/Ekspor database, klik nama tugas di kolom Nama tugas Dataflow:
Konsol Google Cloud menampilkan detail tugas Dataflow.
Untuk melihat tugas yang Anda jalankan lebih dari satu minggu yang lalu:
Buka halaman tugas Dataflow di konsol Google Cloud.
Temukan tugas Anda dalam daftar, lalu klik namanya.
Konsol Google Cloud menampilkan detail tugas Dataflow.
Melihat log Dataflow untuk tugas Anda
Untuk melihat log tugas Dataflow, buka halaman detail tugas, lalu klik Logs di sebelah kanan nama tugas.
Jika tugas gagal, cari error di log. Jika ada error, jumlah error akan ditampilkan di samping Log:
Untuk melihat error tugas:
Klik jumlah error di samping Logs.
Konsol Google Cloud menampilkan log tugas. Anda mungkin perlu men-scroll untuk melihat error.
Temukan entri dengan ikon error .
Klik setiap entri log untuk meluaskan kontennya.
Untuk informasi selengkapnya tentang cara memecahkan masalah tugas Dataflow, lihat Memecahkan masalah pipeline.
Memecahkan masalah tugas impor yang gagal
Jika Anda melihat error berikut di log tugas:
com.google.cloud.spanner.SpannerException: NOT_FOUND: Session not found --or-- com.google.cloud.spanner.SpannerException: DEADLINE_EXCEEDED: Deadline expired before operation could complete.
Periksa 99% Write latency di tab Monitoring pada database Spanner Anda di konsol Google Cloud. Jika menampilkan nilai tinggi (beberapa detik), hal ini menunjukkan bahwa instance kelebihan beban, sehingga penulisan waktu tunggu habis dan gagal.
Salah satu penyebab latensi tinggi adalah tugas Dataflow berjalan menggunakan terlalu banyak pekerja, sehingga membebani instance Spanner terlalu banyak.
Untuk menentukan batas jumlah pekerja Dataflow, Anda harus memulai impor menggunakan template Cloud Storage Avro ke Spanner Dataflow, bukan menggunakan tab Impor/Ekspor di halaman detail instance database Spanner di konsol Google Cloud, dan menentukan jumlah maksimum pekerja seperti yang dijelaskan:Konsol
Jika Anda menggunakan konsol Dataflow, parameter Max workers terletak di bagian Optional parameters di halaman Create job from template.
gcloud
Jalankan perintah gcloud dataflow jobs run
, dan tentukan argumen max-workers
. Contoh:
gcloud dataflow jobs run my-import-job \
--gcs-location='gs://dataflow-templates/latest/GCS_Avro_to_Cloud_Spanner' \
--region=us-central1 \
--parameters='instanceId=test-instance,databaseId=example-db,inputDir=gs://my-gcs-bucket' \
--max-workers=10 \
--network=network-123
Memecahkan masalah error jaringan
Error berikut mungkin terjadi saat Anda mengekspor database Spanner:
Workflow failed. Causes: Error: Message: Invalid value for field 'resource.properties.networkInterfaces[0].subnetwork': ''. Network interface must specify a subnet if the network resource is in custom subnet mode. HTTP Code: 400
Error ini terjadi karena Spanner mengasumsikan bahwa Anda ingin menggunakan jaringan VPC mode otomatis bernama default
dalam project yang sama dengan tugas Dataflow. Jika tidak memiliki jaringan VPC default dalam project, atau jika jaringan VPC Anda berada dalam jaringan VPC mode kustom, Anda harus membuat tugas Dataflow dan menentukan jaringan atau subnetwork alternatif.
Mengoptimalkan tugas impor yang berjalan lambat
Jika telah mengikuti saran di setelan awal, Anda umumnya tidak perlu melakukan penyesuaian lainnya. Jika tugas Anda berjalan lambat, ada beberapa pengoptimalan lain yang dapat Anda coba:
Optimalkan lokasi tugas dan data: Jalankan tugas Dataflow di region yang sama dengan lokasi instance Spanner dan bucket Cloud Storage Anda.
Memastikan resource Dataflow yang memadai: Jika kuota Compute Engine yang relevan membatasi resource tugas Dataflow Anda, halaman Dataflow tugas di konsol Google Cloud akan menampilkan ikon peringatan dan pesan log:
Dalam situasi ini, meningkatkan kuota untuk CPU, alamat IP yang sedang digunakan, dan persistent disk standar dapat mempersingkat waktu proses tugas, tetapi Anda mungkin akan dikenai lebih banyak tagihan Compute Engine.
Periksa penggunaan CPU Spanner: Jika Anda melihat bahwa penggunaan CPU untuk instance melebihi 65%, Anda dapat meningkatkan kapasitas komputasi di instance tersebut. Kapasitas akan menambahkan lebih banyak resource Spanner dan tugas akan dipercepat, tetapi Anda akan dikenai lebih banyak tagihan Spanner.
Faktor yang memengaruhi performa tugas impor
Ada beberapa faktor yang memengaruhi waktu yang diperlukan untuk menyelesaikan tugas impor.
Ukuran database Spanner: Memproses lebih banyak data memerlukan lebih banyak waktu dan resource.
Skema database Spanner, termasuk:
- Jumlah tabel
- Ukuran baris
- Jumlah indeks sekunder
- Jumlah kunci asing
- Jumlah aliran data perubahan
Lokasi data: Data ditransfer antara Spanner dan Cloud Storage menggunakan Dataflow. Idealnya, ketiga komponen tersebut berada di region yang sama. Jika komponen tidak berada di region yang sama, memindahkan data ke seluruh region akan memperlambat tugas.
Jumlah pekerja Dataflow: Pekerja Dataflow yang optimal diperlukan untuk performa yang baik. Dengan menggunakan penskalaan otomatis, Dataflow memilih jumlah pekerja untuk tugas, bergantung pada jumlah pekerjaan yang perlu dilakukan. Namun, jumlah pekerja akan dibatasi oleh kuota untuk CPU, alamat IP yang sedang digunakan, dan persistent disk standar. UI Dataflow menampilkan ikon peringatan jika menemukan batas kuota. Dalam situasi ini, progres akan lebih lambat, tetapi tugas akan tetap selesai. Penskalaan otomatis dapat membebani Spanner sehingga menyebabkan error saat ada data dalam jumlah besar yang akan diimpor.
Beban yang ada di Spanner: Tugas impor menambahkan beban CPU yang signifikan pada instance Spanner. Jika instance sudah memiliki beban yang cukup besar, tugas akan berjalan lebih lambat.
Jumlah kapasitas komputasi Spanner: Jika penggunaan CPU untuk instance lebih dari 65%, tugas akan berjalan lebih lambat.
Menyesuaikan pekerja untuk performa impor yang baik
Saat memulai tugas impor Spanner, pekerja Dataflow harus ditetapkan ke nilai yang optimal untuk performa yang baik. Terlalu banyak pekerja akan membebani Spanner dan terlalu sedikit pekerja akan menghasilkan performa impor yang mengecewakan.
Jumlah maksimum pekerja sangat bergantung pada ukuran data, tetapi idealnya, total penggunaan CPU Spanner harus antara 70% hingga 90%. Hal ini memberikan keseimbangan yang baik antara efisiensi Spanner dan penyelesaian tugas tanpa error.
Untuk mencapai target penggunaan tersebut di sebagian besar skema dan skenario, sebaiknya gunakan jumlah maksimum vCPU pekerja antara 4-6x jumlah node Spanner.
Misalnya, untuk instance Spanner 10 node, menggunakan pekerja n1-standard-2, Anda akan menetapkan pekerja maksimum ke 25, sehingga menghasilkan 50 vCPU.