Datasets erstellen
In diesem Dokument wird beschrieben, wie Sie Datasets in BigQuery erstellen.
Datasets können folgendermaßen erstellt werden:
- Google Cloud Console verwenden
- SQL-Abfrage verwenden.
- Mit dem Befehl
bq mk
imbq
-Befehlszeilentool - Durch Aufruf der API-Methode
datasets.insert
- Mithilfe der Clientbibliotheken
- Durch Kopieren eines vorhandenen Datasets
Unter Datasets kopieren erfahren Sie, wie Sie ein Dataset kopieren, auch regionenübergreifend.
Informationen zum Abfragen von Tabellen in einem öffentlichen Dataset finden Sie unter Öffentliches Dataset mit der Google Cloud Console abfragen.
Dataset-Einschränkungen
BigQuery-Datasets unterliegen den folgenden Einschränkungen:
- Der Dataset-Speicherort kann nur zum Zeitpunkt der Erstellung festgelegt werden. Nachdem ein Dataset erstellt wurde, kann sein Standort nicht mehr geändert werden.
Alle in einer Abfrage referenzierten Tabellen müssen in Datasets an demselben Standort gespeichert werden.
Wenn Sie eine Tabelle kopieren, müssen sich die Datasets mit der Quell- und Zieltabelle am selben Speicherort befinden.
Datensatznamen müssen für jedes Projekt eindeutig sein.
Hinweis
Erteilen Sie IAM-Rollen (Identity and Access Management), die Nutzern die erforderlichen Berechtigungen zum Ausführen der einzelnen Aufgaben in diesem Dokument geben.
Erforderliche Berechtigungen
Sie benötigen die IAM-Berechtigung bigquery.datasets.create
, um ein Dataset zu erstellen.
Jede der folgenden vordefinierten IAM-Rollen enthält die Berechtigungen, die Sie zum Erstellen eines Datasets benötigen:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.user
roles/bigquery.admin
Weitere Informationen zu IAM-Rollen in BigQuery finden Sie unter Vordefinierte Rollen und Berechtigungen.
Datasets benennen
Wenn Sie ein Dataset in BigQuery erstellen, darf dessen Name innerhalb eines Projekts nur einmal vorhanden sein. Der Name des Datasets kann Folgendes enthalten:
- Bis zu 1.024 Zeichen
Buchstaben (Groß- oder Kleinbuchstaben), Ziffern und Unterstriche.
Bei Dataset-Namen wird standardmäßig die Groß-/Kleinschreibung beachtet. mydataset
und MyDataset
können im selben Projekt gleichzeitig vorhanden sein, es sei denn, bei einem davon ist die Beachtung der Groß-/Kleinschreibung deaktiviert.
Dataset-Namen dürfen keine Leerzeichen oder Sonderzeichen wie -
, &
, @
oder %
enthalten.
Datasets erstellen
So erstellen Sie ein Dataset:
Console
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie im Bereich Explorer das Projekt aus, in dem Sie das Dataset erstellen möchten.
Maximieren Sie die Option
Aktionen und klicken Sie auf Dataset erstellen.Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:
- Geben Sie als Dataset-ID einen eindeutigen Dataset-Namen ein.
Wählen Sie unter Standorttyp einen geografischen Standort für das Dataset aus. Nach der Erstellung des Datasets kann der Standort nicht mehr geändert werden.
Wählen Sie für Standardablauf der Tabelle eine der folgenden Optionen aus:
- Nie: (Standardeinstellung) Tabellen, die im Dataset erstellt wurden, werden in keinem Fall automatisch gelöscht. Sie müssen sie manuell löschen.
Anzahl der Tage nach der Tabellenerstellung: Dieser Wert legt fest, wann eine neu erstellte Tabelle im Dataset gelöscht wird. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.
Klicken Sie auf Dataset erstellen.
SQL
Verwenden Sie die Anweisung CREATE SCHEMA
.
Wenn Sie ein Dataset in einem anderen Projekt als dem Standardprojekt erstellen möchten, fügen Sie die Projekt-ID im Format PROJECT_ID.DATASET_ID
der Dataset-ID hinzu.
Öffnen Sie in der Google Cloud Console die Seite BigQuery.
Geben Sie im Abfrageeditor die folgende Anweisung ein:
CREATE SCHEMA PROJECT_ID.DATASET_ID OPTIONS ( default_kms_key_name = 'KMS_KEY_NAME', default_partition_expiration_days = PARTITION_EXPIRATION, default_table_expiration_days = TABLE_EXPIRATION, description = 'DESCRIPTION', labels = [('LABEL_1','VALUE_1'),('LABEL_2','VALUE_2')], location = 'LOCATION', max_time_travel_hours = HOURS, storage_billing_model = STORAGE_BILLING_MODEL);
Dabei gilt:
PROJECT_ID
: Ihre Projekt-IDDATASET_ID
: der Name des zu erstellenden Datasets.KMS_KEY_NAME
: der Name des standardmäßigen Cloud Key Management Service-Schlüssels, der zum Schutz neu erstellter Tabellen in diesem Dataset verwendet wird, sofern beim Erstellen kein anderer Schlüssel angegeben wird. Wenn dieser Parameter gesetzt ist, können Sie in einem Dataset keine von Google verschlüsselte Tabelle erstellen.PARTITION_EXPIRATION
: die Standardlebensdauer (in Tagen) für Partitionen in neu erstellten partitionierten Tabellen. Für den Standardpartitionsablauf gibt es keinen Mindestwert. Die Ablaufzeit entspricht dem Datum der Partition plus dem ganzzahligen Wert. Jede Partition, die in einer partitionierten Tabelle im Dataset erstellt wurde, wirdPARTITION_EXPIRATION
Tage nach dem Datum der Partition gelöscht. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle die Optiontime_partitioning_expiration
angeben, hat der Partitionsablauf auf Tabellenebene Vorrang vor dem Standardpartitionsablauf auf Dataset-Ebene.TABLE_EXPIRATION
: die Standardlebensdauer (in Tagen) für neu erstellte Tabellen. Der Mindestwert beträgt 0,042 Tage (eine Stunde). Die Ablaufzeit entspricht der aktuellen Zeit plus dem ganzzahligen Wert. Jede im Dataset erstellte Tabelle wirdTABLE_EXPIRATION
Tage nach dem Erstellen gelöscht. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.DESCRIPTION
: eine Beschreibung des DatasetsLABEL_1:VALUE_1
: das Schlüssel/Wert-Paar, das Sie als erstes Label für dieses Dataset festlegen möchtenLABEL_2:VALUE_2
: das Schlüssel/Wert-Paar, das Sie als zweites Label festlegen möchtenLOCATION
: Speicherort des Datasets. Nachdem ein Dataset erstellt wurde, kann der Standort nicht mehr geändert werden.HOURS
: die Dauer des Zeitreisefensters für das neue Dataset in Stunden. Die Möglichkeit, das Zeitreisefenster zu konfigurieren, befindet sich in der Vorschau. Das Feldhours
muss ein Vielfaches von 24 zwischen 48 und 168 sein. Wenn keine Angabe erfolgt, wird standardmäßig 168 verwendet.STORAGE_BILLING_MODEL
: Setzen Sie diese Option aufphysical
, um physische Byte anstelle von logischen Byte zu verwenden, wenn die Speichergebühren dieses Datasets berechnet werden. Wenn Sie für das Speicherabrechnungsmodell eines Datasets physische Bytes festlegen, können Sie es nicht für die Verwendung logischer Byte ändern. Die Möglichkeit, das Speicherabrechnungsmodell festzulegen, befindet sich in der Vorschau.
Klicken Sie auf
Ausführen.
Informationen zum Ausführen von Abfragen finden Sie unter Interaktive Abfragen ausführen.
bq
Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl bq mk
mit dem Flag --location
.
Wenn Sie ein Dataset in einem anderen Projekt als dem Standardprojekt erstellen möchten, fügen Sie die Projekt-ID im Format PROJECT_ID:DATASET_ID
dem Dataset-Namen hinzu.
bq --location=LOCATION mk \ --dataset \ --default_kms_key=KMS_KEY_NAME \ --default_partition_expiration=PARTITION_EXPIRATION \ --default_table_expiration=TABLE_EXPIRATION \ --description="DESCRIPTION" \ --label=LABEL_1:VALUE_1 \ --label=LABEL_2:VALUE_2 \ --max_time_travel_hours=HOURS \ --storage_billing_model=BILLING_MODEL \ PROJECT_ID:DATASET_ID
Dabei gilt:
LOCATION
: Speicherort des Datasets. Nachdem ein Dataset erstellt wurde, kann der Standort nicht mehr geändert werden. Mit der Datei.bigqueryrc
können Sie für den Standort einen Standardwert festlegen.KMS_KEY_NAME
: der Name des standardmäßigen Cloud Key Management Service-Schlüssels, der zum Schutz neu erstellter Tabellen in diesem Dataset verwendet wird, sofern beim Erstellen kein anderer Schlüssel angegeben wird. Wenn dieser Parameter gesetzt ist, können Sie in einem Dataset keine von Google verschlüsselte Tabelle erstellen.PARTITION_EXPIRATION
: die Standardlebensdauer von Partitionen in neu erstellten partitionierten Tabellen in Sekunden. Für den Standardpartitionsablauf gibt es keinen Mindestwert. Die Ablaufzeit entspricht dem Datum der Partition plus dem ganzzahligen Wert. Jede Partition, die in einer partitionierten Tabelle im Dataset erstellt wurde, wirdPARTITION_EXPIRATION
Sekunden nach dem Datum der Partition gelöscht. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Standardablauf der Partition auf Dataset-Ebene.TABLE_EXPIRATION
: die Standardlebensdauer neu erstellter Tabellen in Sekunden. Der Mindestwert beträgt 3.600 Sekunden bzw. eine Stunde. Die Ablaufzeit entspricht der aktuellen Zeit plus dem ganzzahligen Wert. Jede im Dataset erstellte Tabelle wirdTABLE_EXPIRATION
Sekunden nach dem Erstellen gelöscht. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.DESCRIPTION
: eine Beschreibung des DatasetsLABEL_1:VALUE_1
: das Schlüssel/Wert-Paar, das Sie als erstes Label für dieses Dataset festlegen möchten;LABEL_2:VALUE_2
ist das Schlüssel/Wert-Paar, das Sie als zweites Label festlegen möchten.HOURS
: die Dauer des Zeitreisefensters für das neue Dataset in Stunden. Die Möglichkeit, das Zeitreisefenster zu konfigurieren, befindet sich in der Vorschau. Das FeldHOURS
muss ein Vielfaches von 24 zwischen 48 und 168 sein. Wenn keine Angabe erfolgt, wird standardmäßig 168 verwendet.BILLING_MODEL
: Speicherabrechnungsmodell für das Dataset. Die Möglichkeit, das Speicherabrechnungsmodell festzulegen, befindet sich in der Vorschau. Setzen Sie diesen Flag-Wert aufLOGICAL
, um logische Byte für die Speicherabrechnung zu verwenden, oder aufPHYSICAL
, um stattdessen physische Byte zu verwenden.PROJECT_ID
ist Ihre Projekt-ID.DATASET_ID
: der Name des zu erstellenden Datasets.
Mit dem folgenden Befehl wird beispielsweise ein Dataset namens mydataset
mit dem Standort US
für die Daten, einem Standardtabellenablauf von 3.600 Sekunden (1 Stunde) und der Beschreibung This is my dataset
erstellt. Anstelle des Flags --dataset
verwendet der Befehl die verkürzte Form -d
. Wenn Sie -d
und --dataset
auslassen, wird standardmäßig ein Dataset erstellt.
bq --location=US mk -d \ --default_table_expiration 3600 \ --description "This is my dataset." \ mydataset
Mit dem Befehl bq ls
können Sie prüfen, ob das Dataset erstellt wurde. Sie können auch eine Tabelle erstellen, wenn Sie ein neues Dataset mit dem Format bq mk -t dataset.table
erstellen.
Weitere Informationen zum Erstellen von Tabellen finden Sie unter Tabelle erstellen.
Terraform
Verwenden Sie die Ressource google_bigquery_dataset
:
Dataset erstellen
Im folgenden Beispiel wird ein Dataset mit dem Namen mydataset
erstellt:
Dataset mit einem vom Kunden verwalteten Verschlüsselungsschlüssel erstellen
Im folgenden Beispiel wird ein Dataset mit dem Namen mydataset
erstellt. Außerdem werden die google_kms_crypto_key
und google_kms_key_ring
verwendet, um einen Cloud Key Management Service-Schlüssel für das Dataset anzugeben. Sie müssen die Cloud Key Management Service API aktivieren, bevor Sie dieses Beispiel ausführen.
Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud-Projekt anzuwenden.
Cloud Shell vorbereiten
- Rufen Sie Cloud Shell auf.
-
Legen Sie das Google Cloud-Standardprojekt fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.
Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.
Verzeichnis vorbereiten
Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).
-
Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung
.tf
haben, z. B.main.tf
. In dieser Anleitung wird die Datei alsmain.tf
bezeichnet.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.
Kopieren Sie den Beispielcode in das neu erstellte
main.tf
.Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.
- Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
- Speichern Sie die Änderungen.
-
Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
terraform init
Fügen Sie optional die Option
-upgrade
ein, um die neueste Google-Anbieterversion zu verwenden:terraform init -upgrade
Änderungen anwenden
-
Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
terraform plan
Korrigieren Sie die Konfiguration nach Bedarf.
-
Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie
yes
an der Eingabeaufforderung ein:terraform apply
Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.
- Öffnen Sie Ihr Google Cloud-Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.
Wenn Sie ein Dataset mit der Ressource google_bigquery_dataset
erstellen, wird automatisch allen Konten, die Mitglieder der einfachen Rollen auf Projektebene sind, Zugriff auf das Dataset gewährt.
Wenn Sie nach dem Erstellen des Datasets den Befehl terraform show
ausführen, sieht der access
-Block für das Dataset etwa so aus:
Wenn Sie zusätzlichen Zugriff auf das Dataset gewähren möchten, empfehlen wir die Verwendung eines der
google_bigquery_iam
Ressourcen, es sei denn, Sie möchten autorisierte Objekte erstellen, z. B. Autorisierte Ansichten innerhalb des Datasets. Verwenden Sie in diesem Fall entweder eine google_bigquery_dataset_access
-Ressource oder den Block access
in der google_bigquery_dataset
-Ressource, um Zugriff zu gewähren. Weitere Informationen finden Sie unter google_bigquery_iam
.
API
Rufen Sie die Methode datasets.insert
mit einer definierten Dataset-Ressource auf.
C#
Bevor Sie dieses Beispiel ausprobieren, folgen Sie der C#-Einrichtungsanleitung in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery C# API.
Einfach loslegen (Go)
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Go API.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Java in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Java API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Node.js in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Node.js API.
PHP
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von PHP in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery PHP API.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Python in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Python API.
Ruby
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Ruby in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Ruby API.
Dataset-Sicherheit
Informationen zum Steuern des Zugriffs auf Datasets in BigQuery finden Sie unter Zugriff auf Datasets steuern. Informationen zur Datenverschlüsselung finden Sie unter Verschlüsselung inaktiver Daten.
Weitere Informationen
- Weitere Informationen zum Auflisten von Datasets in einem Projekt finden Sie unter Datasets auflisten.
- Weitere Informationen zu Dataset-Metadaten finden Sie unter Informationen zu Datasets abrufen.
- Weitere Informationen zum Ändern von Dataset-Attributen finden Sie unter Datasets aktualisieren.
- Weitere Informationen zum Erstellen und Verwalten von Labels finden Sie unter Labels erstellen und verwalten.
Jetzt testen
Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie einfach ein Konto, um die Leistungsfähigkeit von BigQuery in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
BigQuery kostenlos testen