VCF-Rohdatendateien in Cloud Storage speichern

Auf dieser Seite wird beschrieben, wie Sie VCF-Rohdatendateien in Cloud Storage kopieren und speichern. Nachdem die VCF-Rohdatendateien gespeichert wurden, können sie mit dem Tool Variant Transforms in BigQuery geladen werden.

Daten in Cloud Storage kopieren

Cloud Life Sciences hostet ein öffentliches Dataset mit Daten von Illumina Platinum Genomes. Führen Sie den Befehl gsutil cp aus, um zwei VCF-Dateien aus dem Dataset in einen Bucket zu kopieren:

gsutil cp \
    gs://genomics-public-data/platinum-genomes/vcf/NA1287*_S1.genome.vcf \
    gs://BUCKET/platinum-genomes/vcf/

Ersetzen Sie BUCKET durch den Namen Ihres Cloud Storage-Buckets.

Varianten aus einem lokalen Dateisystem kopieren

Führen Sie den Befehl gsutil cp aus, um eine Gruppe lokaler Dateien in Ihr aktuelles Verzeichnis zu kopieren:

gsutil -m -o 'GSUtil:parallel_composite_upload_threshold=150M' cp *.vcf \
    gs://BUCKET/vcf/

Ersetzen Sie BUCKET durch den Namen Ihres Cloud Storage-Buckets.

Führen Sie den folgenden Befehl aus, um ein lokales Verzeichnis von Dateien zu kopieren:

gsutil -m -o 'GSUtil:parallel_composite_upload_threshold=150M' cp -R \
    VCF_FILE_DIRECTORY/ \
    gs://BUCKET/vcf/

Ersetzen Sie Folgendes:

  • VCF_FILE_DIRECTORY: der Pfad zum lokalen Verzeichnis, das VCF-Dateien enthält
  • BUCKET: der Name Ihres Cloud Storage-Buckets

Falls aufgrund vorübergehender Netzwerkprobleme Fehler auftreten, können Sie die vorherigen Befehle mit dem no-clobber-Flag (-n) noch einmal ausführen, um nur die fehlenden Dateien zu übertragen:

gsutil -m -o 'GSUtil:parallel_composite_upload_threshold=150M' cp -n -R \
    VCF_FILE_DIRECTORY/ \
    gs://BUCKET/vcf/

Ersetzen Sie Folgendes:

  • VCF_FILE_DIRECTORY: der Pfad zum lokalen Verzeichnis, das VCF-Dateien enthält
  • BUCKET: der Name Ihres Cloud Storage-Buckets

Weitere Informationen zum Kopieren von Daten nach Cloud Storage finden Sie unter Cloud Storage mit Big Data verwenden.