Documentation de référence sur la ligne de commande de Mainframe Connector

Ce document décrit la syntaxe, les commandes, les options et les arguments de l'outil de ligne de commande Mainframe Connector.

Commandes

bq export

Exporter une table depuis BigQuery

Synopsis

bq export [options]

Options et arguments

Pour exécuter cette commande, vous devez fournir une requête SQL (voir les options --sql et query_dsn) et un carnet de copie (voir l'option cobDsn). Vous pouvez exécuter cette commande en mode local, distant et autonome. Pour le mode à distance, consultez les options --bucket, --remoteHost, --remotePort et --remoteUrl. La commande bq export utilise les options et arguments suivants:

--project_id=ID
Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_large_results
(Facultatif) Utilisez des tailles de tables de destination importantes pour les requêtes en ancien SQL.
--batch
(Facultatif) Exécutez la requête en mode de traitement par lot.
--bucket=BUCKET
(Facultatif) Écrivez la sortie de la commande à un emplacement dans un bucket Cloud Storage. Les fichiers de sortie sont écrits dans le chemin de destination gs://BUCKET/EXPORT/. Cet argument est obligatoire pour le mode à distance.
--cobDsn=DSN
(Facultatif) Spécifiez le DSN du carnet de copie que vous souhaitez utiliser. Si vous ne fournissez aucune valeur, le connecteur Mainframe lit à partir de DD COPYBOOK.
--dataset_id=ID
(Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destination_table=TABLE
(Facultatif) Spécifiez la table de destination dans laquelle vous souhaitez écrire les résultats de la requête.
--dry_run
(Facultatif) Validez la requête sans l'exécuter.
--encoding=ENCODING
(Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si elle est fournie, cette valeur remplace la valeur par défaut définie par la variable d'environnement ENCODING.
--exporter_thread_count=COUNT
(Facultatif) Définissez le nombre de threads d'exportation. La valeur par défaut est de 4.
--help ou -h
Affichez ce texte d'aide.
--keepAliveTimeInSeconds=SECONDS
(Facultatif) Spécifiez le délai avant expiration du message keepalive, en secondes, pour un canal HTTP. La valeur par défaut est de 480 secondes.
--location=LOCATION
(Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "États-Unis".
--max_read_queue=NUMBER
(Facultatif) Définissez la taille maximale de la file d'attente des enregistrements Avro. La valeur par défaut est le double du nombre de threads.
--max_read_streams=NUMBER
(Facultatif) Définit le nombre maximal de threads de flux de lecture. La valeur par défaut est 4.
--maximum_bytes_billed=BYTES
(Facultatif) Limitez le nombre d'octets facturés pour la requête.
--order_response
(Facultatif) Conservez la réponse triée comme elle est renvoyée par BigQuery.
--outDD=OUTPUT
(Facultatif) Écrire les enregistrements de sortie dans l'ensemble de données spécifié dans z/OS. La valeur par défaut est DD OUTFILE.
--parser_type=TYPE
(Facultatif) Définissez l'analyseur de configuration sur legacy, copybook ou auto. La valeur par défaut est auto.
--query_dsn=DSN
(Facultatif) Lire une requête à partir de l'ensemble de données spécifié dans z/OS. Utilisez le format HLQ.MEMBER ou HLQ.PDS(MEMBER). Si vous ne fournissez pas de valeur, le connecteur Mainframe lit à partir de DD QUERY.
--remoteHost=HOST
(Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --bucket.
--remotePort=PORT
(Facultatif) Spécifiez le port distant. La valeur par défaut est 51 770. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --bucket.
--remoteUrl=URL
(Facultatif) Spécifiez l'URL distante. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --bucket.
--run_mode=MODE
(Facultatif) Sélectionnez l'implémentation de l'exportation. Vous pouvez utiliser l'une des options suivantes :
  • directstorage: le fichier binaire est enregistré localement (valeur par défaut)
  • gcsoutput: le fichier binaire est enregistré dans Cloud Storage
--sql=SQL
(Facultatif) Spécifiez la requête SQL BigQuery à exécuter.
--stats_table=TABLE
(Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--timeOutMinutes=MINUTES
(Facultatif) Définissez le délai avant expiration en minutes pour l'appel gRPC à distance. La valeur par défaut est de 90 minutes.
--transcoding_buffer=BUFFER
(Facultatif) Définit la taille de la mémoire tampon de transcodage par thread, en Mo. La valeur par défaut est 20.
--use_cache={true|false}
(Facultatif) Pour mettre en cache les résultats de la requête, définissez cette valeur sur "true".
--use_legacy_sql
(Facultatif) Utilisez l'ancien SQL au lieu du SQL standard.

bq load

Charger des données dans une table BigQuery

Synopsis

bq load [options] tablespec path

Options et arguments

La commande bq load utilise les options et arguments suivants :

path
Spécifiez une liste d'URI de fichiers sources séparés par une virgule. Le format accepté est gs://bucket/path. Exemple : gs://my-bucket/data.orc,gs://my-bucket/more-data.orc.
tablespec
Spécifiez la table de destination des données. Le format accepté est [PROJECT]:[DATASET].[TABLE]
.
--project_id=ID
Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_jagged_rows
(Facultatif) Autorisez les colonnes finales facultatives manquantes dans les données CSV.
--allow_quoted_newlines
(Facultatif) Autorisez les nouvelles lignes entre guillemets dans les données CSV.
--append_table
(Facultatif) Ajoutez les données chargées aux données existantes de la table de destination.
--autodetect
(Facultatif) Activez la détection automatique du schéma pour les données CSV et JSON.
--clustering_fields=FIELDS
(Facultatif) Si spécifié, une liste de colonnes séparées par des virgules permet de mettre la table de destination en cluster dans une requête. Cette option doit être utilisée avec les options de partitionnement temporel pour créer une table partitionnée par date d'ingestion ou une table partitionnée sur une colonne DATE ou TIMESTAMP. Si spécifié, la table est d'abord partitionnée, puis mise en cluster à l'aide des colonnes fournies.
--dataset_id=ID
(Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--debug_mode={true|false}
(Facultatif) Définissez le niveau de journalisation sur "debug".
--destination_kms_key=KEY
(Facultatif) Clé Cloud KMS pour le chiffrement des données de la table de destination.
--encoding ou -E=ENCODING
(Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement ENCODING.
--field_delimiter ou -F=FIELD
(Facultatif) Spécifiez le séparateur de colonnes dans les données CSV. Utilisez \t ou tab pour les délimiteurs de tabulation.
--help ou -h
Affichez ce texte d'aide.
--ignore_unknown_values=VALUES
(Facultatif) Ignore les valeurs supplémentaires non reconnues dans les données CSV ou JSON.
--location=LOCATION
(Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "États-Unis".
--max_bad_records=RECORDS
(Facultatif) Définissez le nombre maximal d'enregistrements non valides autorisés avant l'échec de la tâche. Cinq erreurs au maximum de n'importe quel type sont renvoyées, quelle que soit la valeur --max_bad_records. Cette option ne s'applique qu'au chargement de données CSV, JSON et Google Sheets. La valeur par défaut est 0.
--max_polling_interval_ms=MILLISECONDS
(Facultatif) Durée d'attente maximale pour une tâche BigQuery.
--null_marker=MARKER
(Facultatif) Spécifiez une chaîne personnalisée qui représente une valeur NULL dans les données CSV.
--projection_fields=FIELDS
(Facultatif) Si vous définissez --source_format sur DATASTORE_BACKUP, cette option indique les propriétés d'entité à charger à partir d'une exportation Datastore. Spécifiez les noms de propriété sous la forme d'une liste de valeurs séparées par des virgules. Les noms de propriétés sont sensibles à la casse et doivent faire référence à des propriétés de niveau supérieur. Vous pouvez également utiliser cette option avec les exportations Firestore.
--quote=QUOTE
(Facultatif) Spécifiez un caractère de guillemet pour entourer les champs des données CSV. Vous pouvez spécifier n'importe quel caractère d'un octet comme argument. La valeur par défaut est un guillemet double ("). Pour indiquer l'absence de guillemets, utilisez une chaîne vide.
--replace
(Facultatif) Remplacez les données existantes de la table de destination par les données chargées.
--require_partition_filter={true|false}
(Facultatif) Pour utiliser un filtre de partition pour les requêtes sur la table fournie, définissez cette valeur sur "true". Cet argument ne s'applique qu'aux tables partitionnées et si l'indicateur --time_partitioning_field est défini sur "true". La valeur par défaut est "false".
--schema=SCHEMA
(Facultatif) Définissez le schéma de la table de destination. Spécifiez la valeur sous la forme d'une liste de définitions de colonnes séparées par une virgule au format [FIELD]:[DATA_TYPE]. Exemple: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(Facultatif) Lorsque vous ajoutez des données à une table (dans une tâche de chargement ou de requête) ou que vous remplacez une partition de table, spécifiez comment mettre à jour le schéma de la table de destination. Utilisez l'une des valeurs suivantes :
  • ALLOW_FIELD_ADDITION : autoriser l'ajout de nouveaux champs
  • ALLOW_FIELD_RELAXATION : autoriser l'assouplissement des champs REQUIRED sur NULLABLE
Répétez cette option pour spécifier plusieurs options de mise à jour de schéma.
--skip_leading_rows=NUMBER
(Facultatif) Spécifiez le nombre de lignes à ignorer au début du fichier source. La valeur par défaut est 0.
--source_format=FORMAT
(Facultatif) Spécifiez le format des données source. Vous pouvez utiliser l'une des valeurs suivantes : CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (utilisez cette valeur pour Filestore), PARQUET, ORC. La valeur par défaut est ORC.
--stats_table=TABLE
(Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--time_partitioning_expiration=SECONDS
(Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous fournissez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field=FIELD
(Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction du temps de chargement.
--time_partitioning_type=TYPE
(Facultatif) Activez le partitionnement temporel sur une table et définissez le type de partition à l'aide de la valeur suivante: DAY.
--use_avro_logical_types={true|false}
(Facultatif) Si --source_format est défini sur AVRO, définissez cette option sur "true" pour convertir les types logiques en types correspondants (tels que TIMESTAMP) au lieu d'utiliser uniquement leurs types bruts (tels que INTEGER). La valeur par défaut est "false".

bq mk

Créez des ressources BigQuery telles que des tables intégrées ou des tables externes qui doivent être configurées pour le partitionnement et le clustering. Vous pouvez également utiliser la commande bq mk pour générer une table BigQuery directement à partir de l'analyse des livres de copie COBOL à l'aide de l'option --schema_from_copybook.

Synopsis

bq mk [options]

Options et arguments

La commande bq mk utilise les options et arguments suivants :

--project_id=ID
Spécifiez le projet à utiliser pour exécuter cette commande.
--tablespec=TABLE
Spécifiez la table de destination des données. Le format accepté est [PROJECT]:[DATASET].[TABLE].
--clustering_fields=FIELDS
(Facultatif) Spécifiez une liste de quatre noms de colonnes séparés par une virgule, qui spécifie les champs à utiliser pour le clustering des tables.
--dataset_id=ID
(Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--description=DESCRIPTION
(Facultatif) Fournissez une description de l'ensemble de données ou de la table.
--dry_run
(Facultatif) Imprimez l'instruction LDD (langage de définition de données) de la table.
--encoding=ENCODING
(Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement ENCODING.
--expiration=EXPIRATION
(Facultatif) Spécifiez la durée de vie de la table. Si vous ne spécifiez pas de valeur, BigQuery crée la table avec la durée de vie par défaut de la table de l'ensemble de données. Dans le cas contraire, la table n'expire pas.
--external_table_definition ou -e=TABLE
(Facultatif) Spécifiez un nom et une définition de schéma pour créer une table externe. Exemple: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help ou -h
Affichez ce texte d'aide.
--location=LOCATION
(Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "États-Unis".
--parser_type=TYPE
(Facultatif) Définissez l'analyseur de configuration sur legacy, copybook ou auto. La valeur par défaut est auto.
--require_partition_filter={true|false}
(Facultatif) Pour utiliser un filtre de partition pour les requêtes sur la table fournie, définissez cette valeur sur "true". Cet argument ne s'applique qu'aux tables partitionnées et si l'indicateur --time_partitioning_field est défini sur "true". La valeur par défaut est "true".
--schema=SCHEMA
(Facultatif) Spécifiez le chemin d'accès à un fichier de schéma JSON local ou une liste de définitions de colonnes séparées par une virgule au format FIELD:DATA_TYPE, FIELD:DATA_TYPE, etc.
--schema_from_copybook=SCHEMA
(Facultatif) Générez le schéma à partir d'un cahier de copie.
--table ou -t=TABLE
(Facultatif) Créez un tableau.
--time_partitioning_expiration=SECONDS
(Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous fournissez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field=FIELD
(Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction du temps de chargement.
--view
(Facultatif) Créez une vue.

bq query

Exécutez une requête BigQuery.

Synopsis

bq query [options]

Options et arguments

Vous pouvez exécuter cette commande en mode local et distant. Pour le mode à distance, consultez les options --remoteHost, --remotePort et --remoteUrl, ainsi que la variable d'environnement BQ_QUERY_REMOTE_EXECUTION. La commande bq query utilise les options et arguments suivants:

--project_id=ID
Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_large_results
(Facultatif) Utilisez des tailles de tables de destination importantes pour les requêtes en ancien SQL.
--append_table
(Facultatif) Ajoutez les données chargées aux données existantes de la table de destination.
--batch
(Facultatif) Exécutez la requête en mode de traitement par lot.
--clustering_fields=FIELDS
(Facultatif) Spécifiez une liste de quatre noms de colonnes séparés par une virgule, qui spécifie les champs à utiliser pour le clustering des tables. Si vous spécifiez cette valeur avec le partitionnement, la table est d'abord partitionnée, puis chaque partition est mise en cluster à l'aide des colonnes fournies.
--create_if_needed
(Facultatif) Créez la table de destination si elle n'existe pas.
--dataset_id=ID
(Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destination_table=TABLE
(Facultatif) Spécifiez la table de destination dans laquelle vous souhaitez écrire les résultats de la requête.
--dry_run
(Facultatif) Validez la requête sans l'exécuter.
--follow={true|false}
(Facultatif) Pour suivre les étapes de requête individuelles ou le script dans son ensemble, définissez cette valeur sur "true". Elle est définie par défaut sur "false".
--help ou -h
Affichez ce texte d'aide.
--location=LOCATION
(Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "États-Unis".
--maximum_bytes_billed=BYTES
(Facultatif) Spécifiez la limite du nombre d'octets facturés pour la requête.
--parameters=PARAMETERS
(Facultatif) Spécifiez les paramètres de requête séparés par une virgule au format [NAME]:[TYPE]:[VALUE]. Un nom vide crée un paramètre positionnel. Vous pouvez omettre [TYPE] pour supposer une valeur STRING au format name::value ou ::value. NULL génère une valeur nulle.
--query_dsn=DSN
(Facultatif) Spécifiez le DSN à partir duquel lire la requête, au format HLQ.MEMBER ou HLQ.PDS(MEMBER). Si query_dsn n'est pas fourni, QUERY DD est utilisé.
--remoteHost=HOST
(Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter la requête en mode distant, définissez la variable d'environnement BQ_QUERY_REMOTE_EXECUTION.
--remotePort=PORT
(Facultatif) Spécifiez le port distant. La valeur par défaut est 51 770. Pour exécuter la requête en mode distant, définissez la variable d'environnement BQ_QUERY_REMOTE_EXECUTION.
--remoteUrl=URL
(Facultatif) Spécifiez l'URL distante. Pour exécuter la requête en mode distant, définissez la variable d'environnement BQ_QUERY_REMOTE_EXECUTION.
--replace
(Facultatif) Remplacez la table de destination par les résultats de la requête.
--report_row_limit=LIMIT
(Facultatif) Spécifiez le nombre maximal de lignes à imprimer dans le rapport d'audit. La valeur par défaut est 30.
--require_partition_filter={true|false}
(Facultatif) Pour utiliser un filtre de partition pour les requêtes sur la table fournie, définissez cette valeur sur "true". La valeur par défaut est "true".
--schema_update_option=OPTION
(Facultatif) Mettez à jour le schéma de la table de destination lorsque vous ajoutez des données. Utilisez les valeurs suivantes :
  • ALLOW_FIELD_ADDITION: permet d'ajouter de nouveaux champs.
  • ALLOW_FIELD_RELAXATION: permet d'assouplir les champs REQUIRED sur NULLABLE.
--split_sql={true|false}
(Facultatif) Pour diviser le script SQL d'entrée en requêtes individuelles, définissez cette valeur sur "True". La valeur par défaut est "true".
--stats_table=TABLE
(Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--sync={true|false}
(Facultatif) Exécutez la commande en mode synchrone.
--synchronous_mode={true|false}
(Facultatif) Alternative à --sync.
--timeOutMinutes=MINUTES
(Facultatif) Spécifiez le délai avant expiration (en minutes) pour la réponse d'une tâche BigQuery. La valeur par défaut est de 240 minutes.
--time_partitioning_expiration=SECONDS
(Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous fournissez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field=FIELD
(Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction du temps de chargement.
--time_partitioning_type=TYPE
(Facultatif) Activez le partitionnement temporel sur une table et définissez le type de partition à l'aide de l'une des valeurs suivantes: DAY, HOUR, MONTH ou YEAR.
--use_cache={true|false}
(Facultatif) Pour mettre en cache les résultats de la requête, définissez cette valeur sur "true". La valeur par défaut est "true".
--use_legacy_sql
(Facultatif) Utilisez l'ancien SQL au lieu du SQL standard.

gsutil cp

Transcodez les données de votre mainframe vers un bucket Cloud Storage.

Synopsis

gsutil cp [options] gcsUri [dest]

Options et arguments

Vous pouvez utiliser cette commande pour les différentes raisons suivantes:

  • Copier et transcoder un fichier d'un environnement mainframe ou Linux vers Cloud Storage
    • Source : --inDSN. Si aucune valeur n'est fournie, elle est spécifiée par DD INFILE.
    • Destination : gcsUri
  • Copier et transcoder un fichier dans Cloud Storage
    • Source : gcsUri
    • Destination : --destPath
  • Copiez un fichier de Cloud Storage vers une mainframe.
    • Source : gcsUri
    • Destination : --destDSN
    • Options pertinentes: --lrecl, --blksize, --recfm, --noseek.
  • Copiez un fichier de Cloud Storage vers un environnement Linux.
    • Source : gcsUri
    • Destination : --destPath
Cette commande peut s'exécuter en mode local, distant et autonome. Pour le mode à distance, consultez les options --remote, --remoteHost, --remotePort et --remoteUrl. La commande gsutil cp utilise les options et arguments suivants:

dest
(Facultatif) Chemin d'accès local ou nom de la source de données (DSN). Exemples de formats: /path/to/file, DATASET.MEMBER
gcsUri
URI Cloud Storage au format gs://bucket/path. Peut représenter à la fois la source et la destination, en fonction de l'utilisation.
--project_id=ID
Spécifiez le projet à utiliser pour exécuter cette commande.
--batchSize=SIZE
(Facultatif) Spécifiez les blocs à utiliser par lot. La valeur par défaut est 1 000.
--blksize=SIZE
(Facultatif) Spécifiez la taille de bloc du fichier à copier sur le mainframe. Si blksize=0 et recfm ne sont pas définis sur "U", le système mainframe détermine la taille de bloc optimale pour le fichier.
--cobDsn=DSN
(Facultatif) Spécifiez le DSN du carnet de copie que vous souhaitez utiliser. Si vous ne fournissez aucune valeur, le connecteur Mainframe lit à partir de DD COPYBOOK.
--connections=NUMBER
(Facultatif) Spécifiez le nombre de connexions pouvant être établies avec le récepteur distant. La valeur par défaut est 10.
--dataset_id=ID
(Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destDSN=OUTPUT
(Facultatif) Spécifiez le DSN de destination.
--destPath=OUTPUT
(Facultatif) Spécifiez le chemin d'accès à la destination.
--dry_run
(Facultatif) Testez l'analyse et le décodage du fichier QSAM dans le carnet de copie.
--encoding=ENCODING
(Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement ENCODING.
--help ou -h
Affichez ce texte d'aide.
--inDsn=DSN
(Facultatif) Spécifiez le DSN de fichier d'entrée que vous souhaitez utiliser. Si vous ne fournissez pas de valeur, Mainframe Connector lit à partir de DD INFILE.
--keepAliveTimeInSeconds=SECONDS
(Facultatif) Spécifiez le délai avant expiration du message keepalive, en secondes, pour un canal HTTP. La valeur par défaut est de 480 secondes.
--location=LOCATION
(Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "États-Unis".
--lowerCaseColumnNames
(Facultatif) Créez des noms de colonnes en minuscules pour les champs de cahier de brouillon.
--lrecl=LRECL
(Facultatif) Spécifiez la longueur d'enregistrement logique (lrecl) du fichier que vous souhaitez copier sur le mainframe.
--maxChunkSize=SIZE
(Facultatif) Spécifiez la taille maximale des fragments par lot. Vous devez utiliser les suffixes K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB pour décrire la taille. La valeur par défaut est de 128 Mo.
--max_error_pct=PCT
(Facultatif) Spécifiez le seuil d'échec de la tâche pour les erreurs de décodage des lignes. Les valeurs valides sont comprises dans la plage [0,0, 1,0]. La valeur par défaut est 0,0.
--noseek
(Facultatif) Améliorez les performances de téléchargement de Cloud Storage vers la machine mainframe.
--parallel ou -m
(Facultatif) Définissez le nombre d'écrivains simultanés sur 4.
--parallelism ou -p=NUMBER
(Facultatif) Spécifiez le nombre d'écrivains simultanés. La valeur par défaut est de 4.
--parser_type=TYPE
(Facultatif) Définissez l'analyseur de configuration sur legacy, copybook ou auto. La valeur par défaut est auto.
--preload_chunk_count=NUMBER
(Facultatif) Spécifiez le nombre de segments à précharger à partir des disques lorsque tous les nœuds de calcul sont occupés. La valeur par défaut est 2.
--recfm=REFCM
(Facultatif) Spécifiez le recfm du fichier que vous souhaitez copier sur le mainframe. Vous pouvez utiliser l'une des valeurs suivantes: F, FB, V, VB ou U. La valeur par défaut est FB.
--remote
(Facultatif) Utiliser un décodeur à distance
--remoteHost=HOST
(Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --remote.
--remotePort=PORT
(Facultatif) Spécifiez le port distant à utiliser. La valeur par défaut est 51 770. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --remote.
--remoteUrl=URL
(Facultatif) Spécifiez l'URL distante. Pour exécuter Mainframe Connector en mode distant, définissez l'indicateur --remote.
--replace
(Facultatif) Supprimez la destination de manière récursive avant l'importation.
--stats_table=TABLE
(Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--tfDSN=DSN
(Facultatif) Spécifiez les transformations à partir d'un DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS=GCS
(Facultatif) Spécifiez le fichier de transformations à partir de Cloud Storage.
--timeOutMinutes=MINUTES
(Facultatif) Spécifiez le délai avant expiration en minutes pour un appel gRPC à distance. La valeur par défaut est de 90 minutes pour Cloud Storage et de 50 minutes pour une mainframe.

gsutil rm

Supprimez des objets Cloud Storage.

Synopsis

gsutil rm [-hR] url...

Options et arguments

La commande gsutil rm utilise les options et arguments suivants :

url
Spécifiez l'emplacement Cloud Storage au format gs://bucket/prefix.
--help ou -h
Affichez ce message d'aide.
-R ou -r
Supprime de manière récursive le contenu des répertoires ou des objets correspondant à l'expression de chemin d'accès.

scp

Copiez des fichiers dans Cloud Storage.

Synopsis

scp [options] [input] [output]

Options et arguments

Pour utiliser cette commande, vous devez vous assurer des points suivants:

  • Définissez une valeur d'entrée unique via input, --inDD ou --inDsn.
  • Définissez une valeur de sortie unique via la sortie ou --gcsOutUri.

La commande scp utilise les options et arguments suivants :

input
(Facultatif) Spécifiez le DD ou le DSN à copier. Vous pouvez utiliser --inDD ou --inDsn à la place.
output
(Facultatif) Spécifiez l'URI de la sortie au format gs://[BUCKET]/[PREFIX]. Vous pouvez utiliser --gcsOutUri à la place.
--compress
(Facultatif) Compressez la sortie avec gzip.
--count ou -n=RECORDS
(Facultatif) Spécifiez le nombre d'enregistrements à copier. La valeur par défaut est illimitée.
--encoding=ENCODING
(Facultatif) Spécifiez l'encodage des caractères d'entrée. La valeur par défaut est CP037.
--gcsOutUri=URI
(Facultatif) Spécifiez l'URI Cloud Storage de destination de la copie de fichier.
--help ou -h
Affichez ce texte d'aide.
--inDD=INPUT
(Facultatif) Spécifiez le fichier DD à copier. La valeur par défaut est DD INFILE.
--inDsn=INPUT
(Facultatif) Spécifiez le DSN à copier.
--noConvert
(Facultatif) Désactivez la conversion de l'entrée de caractères en ASCII. La conversion des caractères est activée par défaut.

systemreport

Fournissez un rapport système.

Synopsis

systemreport [-h] [--available_security_providers] [--supported_ciphers]

Options et arguments

La commande systemreport utilise les options et arguments suivants :

--available_security_providers
Imprimez les fournisseurs de solutions de sécurité compatibles.
--help ou -h
Affichez ce message d'aide.
--supported_ciphers
Imprimez les algorithmes de chiffrement compatibles.