Auf dieser Seite wird beschrieben, wie Sie VCF-Rohdatendateien in Cloud Storage kopieren und speichern. Nachdem die VCF-Rohdatendateien gespeichert wurden, können sie mit dem Tool Variant Transforms in BigQuery geladen werden.
Daten in Cloud Storage kopieren
Cloud Life Sciences hostet ein öffentliches Dataset mit Daten von Illumina Platinum Genomes.
Führen Sie den Befehl gcloud storage cp
aus, um zwei VCF-Dateien aus dem Dataset in einen Bucket zu kopieren:
gcloud storage cp \ gs://genomics-public-data/platinum-genomes/vcf/NA1287*_S1.genome.vcf \ gs://BUCKET/platinum-genomes/vcf/
Ersetzen Sie BUCKET durch den Namen Ihres Cloud Storage-Buckets.
Varianten aus einem lokalen Dateisystem kopieren
Führen Sie den Befehl gcloud storage cp
aus, um eine Gruppe lokaler Dateien in Ihr aktuelles Verzeichnis zu kopieren:
gcloud storage cp *.vcf gs://BUCKET/vcf/
Ersetzen Sie BUCKET durch den Namen Ihres Cloud Storage-Buckets.
Führen Sie den folgenden Befehl aus, um ein lokales Verzeichnis von Dateien zu kopieren:
gcloud storage cp VCF_FILE_DIRECTORY/ gs://BUCKET/vcf/ --recursive
Dabei gilt:
- VCF_FILE_DIRECTORY: der Pfad zum lokalen Verzeichnis, das VCF-Dateien enthält
- BUCKET: der Name Ihres Cloud Storage-Buckets
Falls aufgrund vorübergehender Netzwerkprobleme Fehler auftreten, können Sie die vorherigen Befehle mit dem no-clobber-Flag (-n
) noch einmal ausführen, um nur die fehlenden Dateien zu übertragen:
gcloud storage cp VCF_FILE_DIRECTORY/ gs://BUCKET/vcf/ \ --recursive --no-clobber
Dabei gilt:
- VCF_FILE_DIRECTORY: der Pfad zum lokalen Verzeichnis, das VCF-Dateien enthält
- BUCKET: der Name Ihres Cloud Storage-Buckets
Weitere Informationen zum Kopieren von Daten nach Cloud Storage finden Sie unter Cloud Storage mit Big Data verwenden.