Referensi command line Mainframe Connector

Dokumen ini menjelaskan sintaksis, perintah, flag, dan argumen untuk alat command line Mainframe Connector.

Perintah

bq export

Mengekspor tabel dari BigQuery.

Synopsis

bq export [options]

Flag dan argumen

Untuk menjalankan perintah ini, Anda harus memberikan kueri SQL (lihat flag --sql dan query_dsn) serta copybook (lihat flag cobDsn). Anda dapat menjalankan perintah ini dalam mode lokal, jarak jauh, dan mandiri. Untuk mode jarak jauh, lihat flag --bucket, --remoteHost, --remotePort, dan --remoteUrl. Perintah bq export menggunakan flag dan argumen berikut:

--project_id=ID
Tentukan project yang akan digunakan untuk menjalankan perintah ini.
--allow_large_results
(Opsional) Gunakan ukuran tabel tujuan besar untuk kueri SQL lama.
--batch
(Opsional) Jalankan kueri dalam mode batch.
--bucket=BUCKET
(Opsional) Tulis output perintah ke lokasi dalam bucket Cloud Storage. File output ditulis ke jalur tujuan gs://BUCKET/EXPORT/. Argumen ini diperlukan untuk mode jarak jauh.
--cobDsn=DSN
(Opsional) Tentukan DSN copybook yang ingin Anda gunakan. Jika Anda tidak memberikan nilai, Mainframe Connector akan membaca dari DD COPYBOOK.
--dataset_id=ID
(Opsional) Tentukan set data default yang akan digunakan dengan perintah. Anda dapat menetapkan nilai ke [PROJECT_ID]:[DATASET] atau [DATASET]. Jika [PROJECT_ID] tidak ada, project default akan digunakan.
--destination_table=TABLE
(Opsional) Tentukan tabel tujuan tempat Anda ingin menulis hasil kueri.
--dry_run
(Opsional) Validasi kueri tanpa menjalankannya.
--encoding=ENCODING
(Opsional) Tentukan kumpulan karakter yang akan digunakan untuk mengenkode dan mendekode kolom karakter. Jika diberikan, nilai ini akan menggantikan nilai default yang ditetapkan oleh variabel lingkungan ENCODING.
--exporter_thread_count=COUNT
(Opsional) Tetapkan jumlah thread eksportir. Nilai defaultnya adalah 4.
--help atau -h
Tampilkan teks bantuan ini.
--keepAliveTimeInSeconds=SECONDS
(Opsional) Tentukan waktu tunggu keep-alive dalam detik untuk saluran HTTP. Nilai defaultnya adalah 480 detik.
--location=LOCATION
(Opsional) Tentukan lokasi region atau multi-region untuk menjalankan perintah. Nilai defaultnya adalah AS.
--max_read_queue=NUMBER
(Opsional) Tetapkan ukuran maksimum antrean data Avro. Nilai defaultnya adalah dua kali jumlah thread.
--max_read_streams=NUMBER
(Opsional) Menetapkan jumlah maksimum thread aliran baca. Nilai defaultnya adalah 4.
--maximum_bytes_billed=BYTES
(Opsional) Batasi byte yang ditagih untuk kueri.
--order_response
(Opsional) Pastikan respons tetap diurutkan seperti yang ditampilkan dari BigQuery.
--outDD=OUTPUT
(Opsional) Tulis data output ke set data yang ditentukan di z/OS. Nilai defaultnya adalah DD OUTFILE.
--parser_type=TYPE
(Opsional) Tetapkan parser konfigurasi ke legacy, copybook, atau auto. Nilai defaultnya adalah auto.
--query_dsn=DSN
(Opsional) Membaca kueri dari set data yang ditentukan di z/OS. Gunakan format HLQ.MEMBER atau HLQ.PDS(MEMBER). Jika Anda tidak memberikan nilai, Konektor Mainframe akan membaca dari DD QUERY.
--remoteHost=HOST
(Opsional) Tentukan alamat IP host jarak jauh. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --bucket.
--remotePort=PORT
(Opsional) Tentukan port jarak jauh. Nilai defaultnya adalah 51770. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --bucket.
--remoteUrl=URL
(Opsional) Tentukan URL jarak jauh. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --bucket.
--run_mode=MODE
(Opsional) Pilih penerapan ekspor. Anda dapat menggunakan salah satu opsi berikut:
  • directstorage: file biner disimpan secara lokal (default)
  • gcsoutput: file biner disimpan di Cloud Storage
--sql=SQL
(Opsional) Tentukan kueri SQL BigQuery yang akan dijalankan.
--stats_table=TABLE
(Opsional) Tentukan tabel tempat statistik akan disisipkan.
--timeOutMinutes=MINUTES
(Opsional) Tetapkan waktu tunggu dalam menit untuk panggilan grpc jarak jauh. Nilai defaultnya adalah 90 menit.
--transcoding_buffer=BUFFER
(Opsional) Menetapkan ukuran buffer transcoding per thread, dalam MB. Nilai defaultnya adalah 20.
--use_cache={true|false}
(Opsional) Untuk menyimpan hasil kueri dalam cache, tetapkan ke benar.
--use_legacy_sql
(Opsional) Gunakan SQL lama, bukan SQL standar.

bq load

Memuat data ke tabel BigQuery.

Synopsis

bq load [options] tablespec path

Flag dan argumen

Perintah bq load menggunakan flag dan argumen berikut:

path
Menentukan daftar URI file sumber yang dipisahkan koma. Format yang didukung adalah gs://bucket/path. Contoh: gs://my-bucket/data.orc,gs://my-bucket/more-data.orc.
tablespec
Menentukan tabel tujuan untuk data. Format yang didukung adalah [PROJECT]:[DATASET].[TABLE]
--project_id=ID
Tentukan project yang akan digunakan untuk menjalankan perintah ini.
--allow_jagged_rows
(Opsional) Izinkan kolom opsional di akhir yang tidak ada dalam data CSV.
--allow_quoted_newlines
(Opsional) Izinkan baris baru yang dikutip dalam data CSV.
--append_table
(Opsional) Tambahkan data yang dimuat ke data yang ada di tabel tujuan.
--autodetect
(Opsional) Aktifkan deteksi skema otomatis untuk data CSV dan JSON.
--clustering_fields=FIELDS
(Opsional) Jika ditentukan, daftar kolom yang dipisahkan koma akan digunakan untuk mengelompokkan tabel tujuan dalam kueri. Flag ini harus digunakan dengan flag partisi waktu untuk membuat tabel berpartisi berdasarkan waktu penyerapan atau tabel yang dipartisi pada kolom DATE atau TIMESTAMP. Jika ditentukan, tabel akan dipartisi terlebih dahulu, lalu dikelompokkan menggunakan kolom yang disediakan.
--dataset_id=ID
(Opsional) Tentukan set data default yang akan digunakan dengan perintah. Anda dapat menetapkan nilai ke [PROJECT_ID]:[DATASET] atau [DATASET]. Jika [PROJECT_ID] tidak ada, project default akan digunakan.
--debug_mode={true|false}
(Opsional) Menetapkan level logging ke debug.
--destination_kms_key=KEY
(Opsional) Kunci Cloud KMS untuk enkripsi data tabel tujuan.
--encoding atau -E=ENCODING
(Opsional) Tentukan kumpulan karakter yang akan digunakan untuk mengenkode dan mendekode kolom karakter. Jika ditentukan, nilai ini akan menggantikan nilai default yang ditetapkan oleh variabel lingkungan ENCODING.
--field_delimiter atau -F=FIELD
(Opsional) Tentukan pemisah kolom dalam data CSV. Gunakan \t atau tab untuk pembatas tab.
--help atau -h
Tampilkan teks bantuan ini.
--ignore_unknown_values=VALUES
(Opsional) Abaikan nilai tambahan yang tidak dikenali dalam data CSV atau JSON.
--location=LOCATION
(Opsional) Tentukan lokasi region atau multi-region untuk menjalankan perintah. Nilai defaultnya adalah AS.
--max_bad_records=RECORDS
(Opsional) Tetapkan jumlah maksimum data tidak valid yang diizinkan sebelum tugas gagal. Maksimal lima error dari jenis apa pun akan ditampilkan, terlepas dari nilai --max_bad_records. Flag ini hanya berlaku untuk pemuatan data CSV, JSON, dan Google Spreadsheet. Nilai defaultnya adalah 0.
--max_polling_interval_ms=MILLISECONDS
(Opsional) Waktu tunggu maksimum untuk tugas BigQuery.
--null_marker=MARKER
(Opsional) Tentukan string kustom yang mewakili nilai NULL dalam data CSV.
--projection_fields=FIELDS
(Opsional) Jika Anda menetapkan --source_format ke DATASTORE_BACKUP, flag ini akan menunjukkan properti entity yang akan dimuat dari ekspor datastore. Tentukan nama properti dalam daftar yang dipisahkan koma. Nama properti peka huruf besar/kecil dan harus merujuk ke properti tingkat teratas. Anda juga dapat menggunakan flag ini dengan ekspor Firestore.
--quote=QUOTE
(Opsional) Tentukan karakter kutipan untuk mengapit kolom dalam data CSV. Anda dapat menentukan karakter satu byte sebagai argumen. Nilai defaultnya adalah tanda kutip ganda ("). Untuk menentukan bahwa tidak ada karakter kutip, gunakan string kosong.
--replace
(Opsional) Ganti data yang ada di tabel tujuan dengan data yang dimuat.
--require_partition_filter={true|false}
(Opsional) Untuk memiliki filter partisi untuk kueri atas tabel yang disediakan, tetapkan ke benar. Argumen ini hanya berlaku untuk tabel yang dipartisi, dan jika tanda --time_partitioning_field ditetapkan ke true. Nilai defaultnya adalah false.
--schema=SCHEMA
(Opsional) Tentukan skema tabel tujuan. Tentukan nilai sebagai daftar definisi kolom yang dipisahkan koma dalam bentuk [FIELD]:[DATA_TYPE]. Contoh: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(Opsional) Saat menambahkan data ke tabel (dalam tugas pemuatan atau tugas kueri), atau saat menimpa partisi tabel, tentukan cara memperbarui skema tabel tujuan. Gunakan salah satu nilai berikut:
  • ALLOW_FIELD_ADDITION: Mengizinkan kolom baru untuk ditambahkan
  • ALLOW_FIELD_RELAXATION: Mengizinkan kolom REQUIRED yang melonggarkan untuk NULLABLE
Ulangi flag ini untuk menentukan beberapa opsi update skema.
--skip_leading_rows=NUMBER
(Opsional) Tentukan jumlah baris yang akan dilewati di awal file sumber. Nilai defaultnya adalah 0.
--source_format=FORMAT
(Opsional) Tentukan format data sumber. Anda dapat menggunakan salah satu nilai berikut: CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (gunakan nilai ini untuk Filestore), PARQUET, ORC. Nilai defaultnya adalah ORC.
--stats_table=TABLE
(Opsional) Tentukan tabel tempat statistik akan disisipkan.
--time_partitioning_expiration=SECONDS
(Opsional) Tentukan kapan partisi berbasis waktu harus dihapus, dalam detik. Waktu habis masa berlaku dievaluasi ke tanggal UTC partisi ditambah nilai yang ditentukan. Jika Anda memberikan angka negatif, masa berlaku partisi berbasis waktu tidak akan pernah habis.
--time_partitioning_field=FIELD
(Opsional) Tentukan kolom yang digunakan untuk menentukan cara membuat partisi berbasis waktu. Jika partisi berbasis waktu diaktifkan tanpa nilai ini, tabel akan dipartisi berdasarkan waktu pemuatan.
--time_partitioning_type=TYPE
(Opsional) Aktifkan partisi berbasis waktu pada tabel dan tetapkan jenis partisi menggunakan nilai berikut: DAY.
--use_avro_logical_types={true|false}
(Opsional) Jika --source_format disetel ke AVRO, setel flag ini ke true untuk mengonversi jenis logika ke jenis yang sesuai (seperti TIMESTAMP), bukan hanya menggunakan jenis mentahnya (seperti INTEGER). Nilai defaultnya adalah false.

bq mk

Buat resource BigQuery seperti tabel bawaan atau tabel eksternal yang perlu dipartisi dan dikelompokkan. Anda juga dapat menggunakan perintah bq mk untuk membuat tabel BigQuery langsung dari mengurai copybook COBOL menggunakan flag --schema_from_copybook.

Synopsis

bq mk [options]

Flag dan argumen

Perintah bq mk menggunakan flag dan argumen berikut:

--project_id=ID
Tentukan project yang akan digunakan untuk menjalankan perintah ini.
--tablespec=TABLE
Menentukan tabel tujuan untuk data. Format yang didukung adalah [PROJECT]:[DATASET].[TABLE].
--clustering_fields=FIELDS
(Opsional) Tentukan daftar yang dipisahkan koma berisi maksimum empat nama kolom yang menentukan kolom yang akan digunakan untuk pengelompokan tabel.
--dataset_id=ID
(Opsional) Tentukan set data default yang akan digunakan dengan perintah. Anda dapat menetapkan nilai ke [PROJECT_ID]:[DATASET] atau [DATASET]. Jika [PROJECT_ID] tidak ada, project default akan digunakan.
--description=DESCRIPTION
(Opsional) Berikan deskripsi untuk set data atau tabel.
--dry_run
(Opsional) Cetak pernyataan Data Definition Language (DDL) tabel.
--encoding=ENCODING
(Opsional) Tentukan kumpulan karakter yang akan digunakan untuk mengenkode dan mendekode kolom karakter. Jika ditentukan, nilai ini akan menggantikan nilai default yang ditetapkan oleh variabel lingkungan ENCODING.
--expiration=EXPIRATION
(Opsional) Tentukan masa aktif untuk tabel. Jika Anda tidak menentukan nilai, BigQuery akan membuat tabel dengan masa aktif tabel default set data, atau tabel tidak akan berakhir masa berlakunya.
--external_table_definition atau -e=TABLE
(Opsional) Tentukan nama dan definisi skema untuk membuat tabel eksternal. Contoh: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help atau -h
Tampilkan teks bantuan ini.
--location=LOCATION
(Opsional) Tentukan lokasi region atau multi-region untuk menjalankan perintah. Nilai defaultnya adalah AS.
--parser_type=TYPE
(Opsional) Tetapkan parser konfigurasi ke legacy, copybook, atau auto. Nilai defaultnya adalah auto.
--require_partition_filter={true|false}
(Opsional) Untuk memiliki filter partisi untuk kueri atas tabel yang disediakan, tetapkan ke benar. Argumen ini hanya berlaku untuk tabel yang dipartisi, dan jika tanda --time_partitioning_field ditetapkan ke true. Nilai defaultnya adalah true.
--schema=SCHEMA
(Opsional) Tentukan jalur ke file skema JSON lokal atau daftar definisi kolom yang dipisahkan koma dalam format FIELD:DATA_TYPE, FIELD:DATA_TYPE, dan seterusnya.
--schema_from_copybook=SCHEMA
(Opsional) Buat skema dari buku salinan.
--table atau -t=TABLE
(Opsional) Buat tabel.
--time_partitioning_expiration=SECONDS
(Opsional) Tentukan kapan partisi berbasis waktu harus dihapus, dalam detik. Waktu habis masa berlaku dievaluasi ke tanggal UTC partisi ditambah nilai yang ditentukan. Jika Anda memberikan angka negatif, masa berlaku partisi berbasis waktu tidak akan pernah habis.
--time_partitioning_field=FIELD
(Opsional) Tentukan kolom yang digunakan untuk menentukan cara membuat partisi berbasis waktu. Jika partisi berbasis waktu diaktifkan tanpa nilai ini, tabel akan dipartisi berdasarkan waktu pemuatan.
--view
(Opsional) Buat tampilan.

bq query

Menjalankan kueri BigQuery.

Synopsis

bq query [options]

Flag dan argumen

Anda dapat menjalankan perintah ini dalam mode lokal dan jarak jauh. Untuk mode jarak jauh, lihat flag --remoteHost, --remotePort, dan --remoteUrl, serta variabel lingkungan BQ_QUERY_REMOTE_EXECUTION. Perintah bq query menggunakan flag dan argumen berikut:

--project_id=ID
Tentukan project yang akan digunakan untuk menjalankan perintah ini.
--allow_large_results
(Opsional) Gunakan ukuran tabel tujuan besar untuk kueri SQL lama.
--append_table
(Opsional) Tambahkan data yang dimuat ke data yang ada di tabel tujuan.
--batch
(Opsional) Jalankan kueri dalam mode batch.
--clustering_fields=FIELDS
(Opsional) Tentukan daftar yang dipisahkan koma berisi maksimum empat nama kolom yang menentukan kolom yang akan digunakan untuk pengelompokan tabel. Jika Anda menentukan nilai ini dengan partisi, tabel akan dipartisi terlebih dahulu, lalu setiap partisi akan dikelompokkan menggunakan kolom yang disediakan.
--create_if_needed
(Opsional) Buat tabel tujuan jika tidak ada.
--dataset_id=ID
(Opsional) Tentukan set data default yang akan digunakan dengan perintah. Anda dapat menetapkan nilai ke [PROJECT_ID]:[DATASET] atau [DATASET]. Jika [PROJECT_ID] tidak ada, project default akan digunakan.
--destination_table=TABLE
(Opsional) Tentukan tabel tujuan tempat Anda ingin menulis hasil kueri.
--dry_run
(Opsional) Validasi kueri tanpa menjalankannya.
--follow={true|false}
(Opsional) Untuk melacak setiap langkah kueri atau skrip secara keseluruhan, tetapkan ke benar (true). Nilai defaultnya adalah false.
--help atau -h
Tampilkan teks bantuan ini.
--location=LOCATION
(Opsional) Tentukan lokasi region atau multi-region untuk menjalankan perintah. Nilai defaultnya adalah AS.
--maximum_bytes_billed=BYTES
(Opsional) Tentukan batas byte yang ditagih untuk kueri.
--parameters=PARAMETERS
(Opsional) Tentukan parameter kueri yang dipisahkan koma dalam format [NAME]:[TYPE]:[VALUE]. Nama kosong akan membuat parameter posisi. Anda dapat menghilangkan [TYPE] untuk mengasumsikan nilai STRING dalam format name::value atau ::value. NULL menghasilkan nilai null.
--query_dsn=DSN
(Opsional) Tentukan DSN untuk membaca kueri, dalam format HLQ.MEMBER atau HLQ.PDS(MEMBER). Jika query_dsn tidak diberikan, QUERY DD akan digunakan.
--remoteHost=HOST
(Opsional) Tentukan alamat IP host jarak jauh. Untuk menjalankan kueri dalam mode jarak jauh, tetapkan variabel lingkungan BQ_QUERY_REMOTE_EXECUTION.
--remotePort=PORT
(Opsional) Tentukan port jarak jauh. Nilai defaultnya adalah 51770. Untuk menjalankan kueri dalam mode jarak jauh, tetapkan variabel lingkungan BQ_QUERY_REMOTE_EXECUTION.
--remoteUrl=URL
(Opsional) Tentukan URL jarak jauh. Untuk menjalankan kueri dalam mode jarak jauh, tetapkan variabel lingkungan BQ_QUERY_REMOTE_EXECUTION.
--replace
(Opsional) Menimpa tabel tujuan dengan hasil kueri.
--report_row_limit=LIMIT
(Opsional) Tentukan jumlah maksimum baris yang akan dicetak dalam laporan audit. Nilai defaultnya adalah 30.
--require_partition_filter={true|false}
(Opsional) Untuk memiliki filter partisi untuk kueri atas tabel yang disediakan, tetapkan ke benar. Nilai defaultnya adalah true.
--schema_update_option=OPTION
(Opsional) Perbarui skema tabel tujuan saat menambahkan data. Gunakan nilai berikut:
  • ALLOW_FIELD_ADDITION: Mengizinkan kolom baru untuk ditambahkan.
  • ALLOW_FIELD_RELAXATION: Mengizinkan kolom REQUIRED yang melonggarkan untuk NULLABLE.
--split_sql={true|false}
(Opsional) Untuk membagi skrip SQL input menjadi kueri terpisah, tetapkan ke true. Nilai defaultnya adalah true.
--stats_table=TABLE
(Opsional) Tentukan tabel tempat statistik akan disisipkan.
--sync={true|false}
(Opsional) Jalankan perintah dalam mode sinkron.
--synchronous_mode={true|false}
(Opsional) Alternatif untuk --sync.
--timeOutMinutes=MINUTES
(Opsional) Tentukan waktu tunggu dalam menit untuk respons tugas BigQuery. Nilai defaultnya adalah 240 menit.
--time_partitioning_expiration=SECONDS
(Opsional) Tentukan kapan partisi berbasis waktu harus dihapus, dalam detik. Waktu habis masa berlaku dievaluasi ke tanggal UTC partisi ditambah nilai yang ditentukan. Jika Anda memberikan angka negatif, masa berlaku partisi berbasis waktu tidak akan pernah habis.
--time_partitioning_field=FIELD
(Opsional) Tentukan kolom yang digunakan untuk menentukan cara membuat partisi berbasis waktu. Jika partisi berbasis waktu diaktifkan tanpa nilai ini, tabel akan dipartisi berdasarkan waktu pemuatan.
--time_partitioning_type=TYPE
(Opsional) Mengaktifkan partisi berbasis waktu pada tabel dan menetapkan jenis partisi menggunakan salah satu nilai berikut: DAY, HOUR, MONTH, YEAR.
--use_cache={true|false}
(Opsional) Untuk menyimpan hasil kueri dalam cache, tetapkan ke true. Nilai defaultnya adalah true.
--use_legacy_sql
(Opsional) Gunakan SQL lama, bukan SQL standar.

gsutil cp

Mentranskode data dari Mainframe ke bucket Cloud Storage.

Synopsis

gsutil cp [options] gcsUri [dest]

Flag dan argumen

Anda dapat menggunakan perintah ini untuk berbagai tujuan berikut:

  • Menyalin dan mentranskode file dari Mainframe atau lingkungan Linux ke Cloud Storage.
    • Sumber: --inDSN. Jika tidak diberikan, ditentukan oleh DD INFILE.
    • Tujuan: gcsUri
  • Menyalin dan mentranskode file dalam Cloud Storage
    • Sumber: gcsUri
    • Tujuan: --destPath
  • Menyalin file dari Cloud Storage ke Mainframe.
    • Sumber: gcsUri
    • Tujuan: --destDSN
    • Flag yang relevan: --lrecl, --blksize, --recfm, --noseek.
  • Menyalin file dari Cloud Storage ke lingkungan Linux.
    • Sumber: gcsUri
    • Tujuan: --destPath
Perintah ini dapat berjalan dalam mode lokal, jarak jauh, dan mandiri. Untuk mode jarak jauh, lihat flag --remote, --remoteHost, --remotePort, dan --remoteUrl. Perintah gsutil cp menggunakan flag dan argumen berikut:

dest
(Opsional) Jalur lokal atau nama sumber data (DSN). Contoh format: /path/to/file, DATASET.MEMBER
gcsUri
URI Cloud Storage dalam format gs://bucket/path. Dapat merepresentasikan lokasi sumber dan tujuan, bergantung pada penggunaan.
--project_id=ID
Tentukan project yang akan digunakan untuk menjalankan perintah ini.
--batchSize=SIZE
(Opsional) Tentukan blok yang akan digunakan per batch. Nilai defaultnya adalah 1.000.
--blksize=SIZE
(Opsional) Tentukan ukuran blok file yang akan disalin ke Mainframe. Jika blksize=0 dan recfm bukan U, sistem mainframe akan menentukan ukuran blok yang optimal untuk file.
--cobDsn=DSN
(Opsional) Tentukan DSN copybook yang ingin Anda gunakan. Jika Anda tidak memberikan nilai, Konektor Mainframe akan membaca dari DD COPYBOOK.
--connections=NUMBER
(Opsional) Tentukan jumlah koneksi yang dapat dibuat ke penerima jarak jauh. Nilai defaultnya adalah 10.
--dataset_id=ID
(Opsional) Tentukan set data default yang akan digunakan dengan perintah. Anda dapat menetapkan nilai ke [PROJECT_ID]:[DATASET] atau [DATASET]. Jika [PROJECT_ID] tidak ada, project default akan digunakan.
--destDSN=OUTPUT
(Opsional) Tentukan DSN tujuan.
--destPath=OUTPUT
(Opsional) Tentukan jalur tujuan.
--dry_run
(Opsional) Uji penguraian dan dekode copybook file QSAM.
--encoding=ENCODING
(Opsional) Tentukan kumpulan karakter yang akan digunakan untuk mengenkode dan mendekode kolom karakter. Jika ditentukan, nilai ini akan menggantikan nilai default yang ditetapkan oleh variabel lingkungan ENCODING.
--help atau -h
Tampilkan teks bantuan ini.
--inDsn=DSN
(Opsional) Tentukan DSN infile yang ingin Anda gunakan. Jika Anda tidak memberikan nilai, Mainframe Connector akan membaca dari DD INFILE.
--keepAliveTimeInSeconds=SECONDS
(Opsional) Tentukan waktu tunggu keep-alive dalam detik untuk saluran HTTP. Nilai defaultnya adalah 480 detik.
--location=LOCATION
(Opsional) Tentukan lokasi region atau multi-region untuk menjalankan perintah. Nilai defaultnya adalah AS.
--lowerCaseColumnNames
(Opsional) Buat nama kolom huruf kecil untuk kolom copybook.
--lrecl=LRECL
(Opsional) Tentukan panjang data logis (lrecl) file yang ingin Anda salin ke Mainframe.
--maxChunkSize=SIZE
(Opsional) Tentukan ukuran potongan maksimum per batch. Anda harus menggunakan K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB, atau TB untuk menjelaskan ukuran. Nilai defaultnya adalah 128 MiB.
--max_error_pct=PCT
(Opsional) Tentukan nilai minimum kegagalan tugas untuk error decoding baris. Nilai yang valid berada dalam rentang [0,0, 1,0]. Nilai defaultnya adalah 0,0.
--noseek
(Opsional) Meningkatkan performa download dari Cloud Storage ke Mainframe.
--parallel atau -m
(Opsional) Tetapkan jumlah penulis serentak ke 4.
--parallelism atau -p=NUMBER
(Opsional) Tentukan jumlah penulis serentak. Nilai defaultnya adalah 4.
--parser_type=TYPE
(Opsional) Tetapkan parser konfigurasi ke legacy, copybook, atau auto. Nilai defaultnya adalah auto.
--preload_chunk_count=NUMBER
(Opsional) Tentukan jumlah bagian yang akan dimuat sebelumnya dari disk saat semua pekerja sibuk. Nilai defaultnya adalah 2.
--recfm=REFCM
(Opsional) Tentukan recfm file yang ingin Anda salin ke Mainframe. Anda dapat menggunakan salah satu nilai berikut: F, FB, V, VB, U. Nilai defaultnya adalah FB.
--remote
(Opsional) Gunakan dekoder jarak jauh.
--remoteHost=HOST
(Opsional) Tentukan alamat IP host jarak jauh. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --remote.
--remotePort=PORT
(Opsional) Tentukan port jarak jauh yang akan digunakan. Nilai defaultnya adalah 51770. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --remote.
--remoteUrl=URL
(Opsional) Tentukan URL jarak jauh. Untuk menjalankan Mainframe Connector dalam mode jarak jauh, tetapkan flag --remote.
--replace
(Opsional) Hapus tujuan secara rekursif sebelum mengupload.
--stats_table=TABLE
(Opsional) Tentukan tabel tempat statistik akan disisipkan.
--tfDSN=DSN
(Opsional) Tentukan transformasi dari DSN, DATASET.MEMBER, atau PDS(MBR).
--tfGCS=GCS
(Opsional) Tentukan file transformasi dari Cloud Storage.
--timeOutMinutes=MINUTES
(Opsional) Tentukan waktu tunggu dalam menit untuk panggilan grpc jarak jauh. Nilai defaultnya adalah 90 menit untuk Cloud Storage dan 50 menit untuk Mainframe.

gsutil rm

Menghapus objek Cloud Storage.

Synopsis

gsutil rm [-hR] url...

Flag dan argumen

Perintah gsutil rm menggunakan flag dan argumen berikut:

url
Tentukan lokasi Cloud Storage dalam format gs://bucket/prefix.
--help atau -h
Menampilkan pesan bantuan ini.
-R atau -r
Menghapus konten direktori atau objek yang cocok dengan ekspresi jalur secara rekursif.

scp

Salin file ke Cloud Storage.

Synopsis

scp [options] [input] [output]

Flag dan argumen

Untuk menggunakan perintah ini, Anda harus memastikan hal berikut:

  • Tetapkan satu nilai input unik melalui input, --inDD, atau --inDsn.
  • Tetapkan satu nilai output unik melalui output atau --gcsOutUri.

Perintah scp menggunakan flag dan argumen berikut:

input
(Opsional) Tentukan DD atau DSN yang akan disalin. Sebagai gantinya, Anda dapat menggunakan --inDD atau --inDsn.
output
(Opsional) Tentukan URI output menggunakan format gs://[BUCKET]/[PREFIX]. Sebagai gantinya, Anda dapat menggunakan --gcsOutUri.
--compress
(Opsional) Kompresi output dengan gzip.
--count atau -n=RECORDS
(Opsional) Tentukan jumlah data yang akan disalin. Defaultnya adalah tidak terbatas.
--encoding=ENCODING
(Opsional) Tentukan encoding karakter input. Nilai defaultnya adalah CP037.
--gcsOutUri=URI
(Opsional) Tentukan Cloud Storage URI tujuan salinan file.
--help atau -h
Tampilkan teks bantuan ini.
--inDD=INPUT
(Opsional) Tentukan file DD yang akan disalin. Nilai defaultnya adalah DD INFILE.
--inDsn=INPUT
(Opsional) Tentukan DSN yang akan disalin.
--noConvert
(Opsional) Menonaktifkan konversi input karakter ke ASCII. Konversi karakter diaktifkan secara default.

systemreport

Memberikan laporan sistem.

Synopsis

systemreport [-h] [--available_security_providers] [--supported_ciphers]

Flag dan argumen

Perintah systemreport menggunakan flag dan argumen berikut:

--available_security_providers
Cetak penyedia keamanan yang didukung.
--help atau -h
Menampilkan pesan bantuan ini.
--supported_ciphers
Cetak cipher yang didukung.