Template Sourcedb ke Spanner

Template SourceDB ke Spanner adalah pipeline batch yang menyalin data dari database relasional ke database Spanner yang ada. Pipeline ini menggunakan JDBC untuk terhubung ke database relasional. Anda dapat menggunakan template ini untuk menyalin data dari database relasional apa pun dengan driver JDBC yang tersedia ke Spanner. Ini hanya mendukung serangkaian jenis MySQL yang terbatas

Untuk lapisan perlindungan tambahan, Anda juga dapat meneruskan kunci Cloud KMS beserta parameter string koneksi, nama pengguna, dan sandi yang dienkode Base64 yang dienkripsi dengan kunci Cloud KMS. Lihat endpoint enkripsi API Cloud KMS untuk mengetahui detail tambahan tentang mengenkripsi parameter string koneksi, nama pengguna, dan sandi Anda.

Persyaratan pipeline

  • Driver JDBC untuk database relasional harus tersedia.
  • Tabel Spanner harus ada sebelum eksekusi pipeline.
  • Tabel Spanner harus memiliki skema yang kompatibel.
  • Database relasional harus dapat diakses dari subnet tempat Dataflow berjalan.

Parameter template

Parameter Deskripsi
sourceConfigURL String URL koneksi JDBC. Misalnya, jdbc:mysql://127.4.5.30:3306/my-db?autoReconnect=true&maxReconnects=10&unicode=true&characterEncoding=UTF-8 atau konfigurasi shard.
instanceId Instance Cloud Spanner tujuan.
databaseId Database Cloud Spanner tujuan.
projectId Ini adalah nama project Cloud Spanner.
outputDirectory Direktori ini digunakan untuk membuang kumpulan data yang gagal/dilewati/difilter dalam migrasi.
jdbcDriverJars Opsional: Daftar file JAR driver yang dipisahkan koma. Contoh: gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar. Default-nya adalah kosong.
jdbcDriverClassName Opsional: Nama class driver JDBC. Misalnya: com.mysql.jdbc.Driver. Defaultnya adalah: com.mysql.jdbc.Driver.
username Opsional: Nama pengguna yang akan digunakan untuk koneksi JDBC. Default-nya adalah kosong.
password Opsional: Sandi yang akan digunakan untuk koneksi JDBC. Default-nya adalah kosong.
tables Opsional: Tabel yang akan dimigrasikan dari sumber. Default-nya adalah kosong.
numPartitions Opsional: Jumlah partisi. Hal ini, bersama dengan batas bawah dan atas, membentuk langkah partisi untuk ekspresi klausa WHERE yang dihasilkan yang digunakan untuk membagi kolom partisi secara merata. Jika input kurang dari 1, angka akan ditetapkan ke 1. Default-nya adalah: 0.
spannerHost Opsional: Endpoint Cloud Spanner yang akan dipanggil dalam template. Contoh: https://batch-spanner.googleapis.com. Defaultnya adalah: https://batch-spanner.googleapis.com.
maxConnections Opsional: Mengonfigurasi kumpulan koneksi JDBC di setiap pekerja dengan jumlah koneksi maksimum. Gunakan angka negatif untuk tidak ada batas. Misalnya: -1. Default-nya adalah: 0.
sessionFilePath Opsional: Jalur sesi di Cloud Storage yang berisi informasi pemetaan dari Alat Migrasi Spanner. Default-nya adalah kosong.
transformationJarPath Opsional: Lokasi jar kustom di Cloud Storage yang berisi logika transformasi kustom untuk memproses data. Default-nya adalah kosong.
transformationClassName Opsional: Nama class yang sepenuhnya memenuhi syarat dan memiliki logika transformasi kustom. Ini adalah kolom wajib jika transformationJarPath ditentukan. Default-nya adalah kosong.
transformationCustomParameters Opsional: String yang berisi parameter kustom yang akan diteruskan ke class transformasi kustom. Default-nya adalah kosong.
disabledAlgorithms Opsional: Algoritme yang dipisahkan koma untuk dinonaktifkan. Jika nilai ini disetel ke none, tidak ada algoritma yang dinonaktifkan. Gunakan parameter ini dengan hati-hati, karena algoritma yang dinonaktifkan secara default mungkin memiliki kerentanan atau masalah performa. Contoh: SSLv3, RC4.
extraFilesToStage Opsional: Jalur Cloud Storage yang dipisahkan koma atau secret Secret Manager untuk file yang akan di-stage di pekerja. File ini disimpan di direktori /extra_files di setiap pekerja. Contoh: gs://<BUCKET>/file.txt,projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<VERSION_ID>.

Menjalankan template

Konsol

  1. Buka halaman Create job from template Dataflow.
  2. Buka Buat tugas dari template
  3. Di kolom Nama tugas, masukkan nama tugas yang unik.
  4. Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region defaultnya adalah us-central1.

    Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.

  5. Dari menu drop-down Dataflow template, pilih the Sourcedb to Spanner template.
  6. Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
  7. Klik Run job.

gcloud CLI

Di shell atau terminal, jalankan template:

gcloud dataflow flex-template run JOB_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/Sourcedb_to_Spanner_Flex \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --parameters \
       sourceConfigURL=SOURCE_CONFIG_URL,\
       instanceId=INSTANCE_ID,\
       databaseId=DATABASE_ID,\
       projectId=PROJECT_ID,\
       outputDirectory=OUTPUT_DIRECTORY,\

Ganti kode berikut:

  • JOB_NAME: nama tugas unik pilihan Anda
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • REGION_NAME: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • SOURCE_CONFIG_URL: URL untuk terhubung ke host database sumber. Nilai ini dapat berupa 1. URL koneksi JDBC - yang harus berisi nama host, port, dan database sumber, serta dapat berisi properti seperti autoReconnect, maxReconnects, dll. Format: `jdbc:mysql://{host}:{port}/{dbName}?{parameters}`2. Jalur konfigurasi shard
  • INSTANCE_ID: ID Instance Cloud Spanner.
  • DATABASE_ID: ID Database Cloud Spanner.
  • PROJECT_ID: Project ID Cloud Spanner.
  • OUTPUT_DIRECTORY: Direktori output untuk peristiwa yang gagal/dilewati/difilter

API

Untuk menjalankan template menggunakan REST API, kirim permintaan POST HTTP. Untuk mengetahui informasi selengkapnya tentang API dan cakupan otorisasinya, lihat projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
   "launchParameter": {
     "jobName": "JOB_NAME",
     "parameters": {
       "sourceConfigURL": "SOURCE_CONFIG_URL",
       "instanceId": "INSTANCE_ID",
       "databaseId": "DATABASE_ID",
       "projectId": "PROJECT_ID",
       "outputDirectory": "OUTPUT_DIRECTORY",
     },
     "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/Sourcedb_to_Spanner_Flex",
     "environment": { "maxWorkers": "10" }
  }
}

Ganti kode berikut:

  • PROJECT_ID: ID project Google Cloud tempat Anda ingin menjalankan tugas Dataflow
  • JOB_NAME: nama tugas unik pilihan Anda
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • LOCATION: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • SOURCE_CONFIG_URL: URL untuk terhubung ke host database sumber. Nilai ini dapat berupa 1. URL koneksi JDBC - yang harus berisi nama host, port, dan database sumber, serta dapat berisi properti seperti autoReconnect, maxReconnects, dll. Format: `jdbc:mysql://{host}:{port}/{dbName}?{parameters}`2. Jalur konfigurasi shard
  • INSTANCE_ID: ID Instance Cloud Spanner.
  • DATABASE_ID: ID Database Cloud Spanner.
  • PROJECT_ID: Project ID Cloud Spanner.
  • OUTPUT_DIRECTORY: Direktori output untuk peristiwa yang gagal/dilewati/difilter