Datasets erstellen
In diesem Dokument wird beschrieben, wie Sie Datasets in BigQuery erstellen.
Datasets können folgendermaßen erstellt werden:
- Mit der Console
- SQL-Abfrage verwenden.
- Mit dem Befehl
bq mk
imbq
-Befehlszeilentool - Durch Aufruf der API-Methode
datasets.insert
- Mithilfe der Clientbibliotheken
- Durch Kopieren eines vorhandenen Datasets
Unter Datasets kopieren erfahren Sie, wie Sie ein Dataset kopieren, auch regionenübergreifend.
Informationen zum Abfragen von Tabellen in einem öffentlichen Dataset finden Sie unter Öffentliches Dataset mit der Google Cloud Console abfragen.
Dataset-Einschränkungen
BigQuery-Datasets unterliegen den folgenden Einschränkungen:
- Sie können die geografische Zone nur während der Erstellung festlegen. Sobald ein Dataset erstellt wurde, wird der Speicherort unveränderlich und es ist nicht mehr möglich, den Standort mit der Console, dem
bq
-Befehlszeilentool oder durch Aufrufen der API-Methodenpatch
oderupdate
zu ändern. Alle in einer Abfrage referenzierten Tabellen müssen in Datasets an demselben Standort gespeichert werden.
Wenn Sie eine Tabelle kopieren, müssen sich die Datasets mit der Quell- und Zieltabelle am selben Speicherort befinden.
Datensatznamen müssen für jedes Projekt eindeutig sein.
Hinweis
Erteilen Sie IAM-Rollen (Identity and Access Management), die Nutzern die erforderlichen Berechtigungen zum Ausführen der einzelnen Aufgaben in diesem Dokument geben.
Erforderliche Berechtigungen
Sie benötigen die IAM-Berechtigung bigquery.datasets.create
, um ein Dataset zu erstellen.
Jede der folgenden vordefinierten IAM-Rollen enthält die Berechtigungen, die Sie zum Erstellen eines Datasets benötigen:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.user
roles/bigquery.admin
Weitere Informationen zu IAM-Rollen in BigQuery finden Sie unter Vordefinierte Rollen und Berechtigungen.
Datasets benennen
Wenn Sie ein Dataset in BigQuery erstellen, darf dessen Name innerhalb eines Projekts nur einmal vorhanden sein. Der Name des Datasets kann Folgendes enthalten:
- Bis zu 1.024 Zeichen
Buchstaben (Groß- oder Kleinbuchstaben), Ziffern und Unterstriche.
Bei Dataset-Namen wird zwischen Groß- und Kleinschreibung unterschieden: mydataset
und MyDataset
können im selben Projekt gleichzeitig vorhanden sein.
Dataset-Namen dürfen keine Leerzeichen oder Sonderzeichen wie -
, &
, @
oder %
enthalten.
Datasets erstellen
So erstellen Sie ein Dataset:
Console
Öffnen Sie in der Console die Seite „BigQuery“.
Wählen Sie im Bereich Explorer das Projekt aus, in dem Sie das Dataset erstellen möchten.
Maximieren Sie die Option
Aktionen und klicken Sie auf Dataset erstellen.Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:
- Geben Sie als Dataset-ID einen eindeutigen Dataset-Namen ein.
Unter Speicherort der Daten können Sie einen geografischen Standort für das Dataset auswählen. Nach der Erstellung des Datasets kann der Standort nicht mehr geändert werden.
Wählen Sie für Standardablauf der Tabelle eine der folgenden Optionen aus:
- Nie: (Standardeinstellung) Tabellen, die im Dataset erstellt wurden, werden in keinem Fall automatisch gelöscht. Sie müssen sie manuell löschen.
Anzahl der Tage nach der Tabellenerstellung: Dieser Wert legt fest, wann eine neu erstellte Tabelle im Dataset gelöscht wird. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.
Klicken Sie auf Dataset erstellen.
SQL
Verwenden Sie die Anweisung CREATE SCHEMA
.
Wenn Sie ein Dataset in einem anderen Projekt als dem Standardprojekt erstellen möchten, fügen Sie die Projekt-ID im Format PROJECT_ID.DATASET_ID
der Dataset-ID hinzu.
Rufen Sie in der Console die BigQuery-Seite auf.
Geben Sie im Abfrageeditor die folgende Anweisung ein:
CREATE SCHEMA PROJECT_ID.DATASET_ID OPTIONS ( default_kms_key_name = 'KMS_KEY_NAME', default_partition_expiration_days = PARTITION_EXPIRATION, default_table_expiration_days = TABLE_EXPIRATION, description = 'DESCRIPTION', labels = [('LABEL_1','VALUE_1'),('LABEL_2','VALUE_2')], max_time_travel_hours = HOURS);
Dabei gilt:
PROJECT_ID
: Ihre Projekt-IDDATASET_ID
: der Name des zu erstellenden Datasets.KMS_KEY_NAME
: der Name des standardmäßigen Cloud Key Management Service-Schlüssels, der zum Schutz neu erstellter Tabellen in diesem Dataset verwendet wird, sofern beim Erstellen kein anderer Schlüssel angegeben wird. Wenn dieser Parameter gesetzt ist, können Sie in einem Dataset keine von Google verschlüsselte Tabelle erstellen.PARTITION_EXPIRATION
: die Standardlebensdauer von Partitionen in neu erstellten partitionierten Tabellen in Sekunden. Für den Standardpartitionsablauf gibt es keinen Mindestwert. Die Ablaufzeit entspricht dem Datum der Partition plus dem ganzzahligen Wert. Jede Partition, die in einer partitionierten Tabelle im Dataset erstellt wurde, wirdPARTITION_EXPIRATION
Sekunden nach dem Datum der Partition gelöscht. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle dietime_partitioning_expiration
-Option angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene.TABLE_EXPIRATION
: die Standardlebensdauer neu erstellter Tabellen in Sekunden. Der Mindestwert beträgt 3.600 Sekunden bzw. eine Stunde. Die Ablaufzeit entspricht der aktuellen Zeit plus dem ganzzahligen Wert. Jede im Dataset erstellte Tabelle wirdTABLE_EXPIRATION
Sekunden nach dem Erstellen gelöscht. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.DESCRIPTION
: eine Beschreibung des DatasetsLABEL_1:VALUE_1
: das Schlüssel/Wert-Paar, das Sie als erstes Label für dieses Dataset festlegen möchtenLABEL_2:VALUE_2
: das Schlüssel/Wert-Paar, das Sie als zweites Label festlegen möchtenHOURS
: die Dauer des Zeitreisefensters für das neue Dataset in Stunden. Die Möglichkeit, das Zeitreisefenster zu konfigurieren, befindet sich in der Vorschau. Dashours
-Feld muss einen Wert zwischen 48 und 168 enthalten. Wenn keine Angabe erfolgt, wird standardmäßig 168 verwendet.
Klicken Sie auf
Ausführen.
Informationen zum Ausführen von Abfragen finden Sie unter Interaktive Abfragen ausführen.
bq
Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl bq mk
mit dem Flag --location
.
Wenn Sie ein Dataset in einem anderen Projekt als dem Standardprojekt erstellen möchten, fügen Sie die Projekt-ID im Format PROJECT_ID:DATASET_ID
dem Dataset-Namen hinzu.
bq --location=LOCATION mk \ --dataset \ --default_kms_key=KMS_KEY_NAME \ --default_partition_expiration=PARTITION_EXPIRATION \ --default_table_expiration=TABLE_EXPIRATION \ --description="DESCRIPTION" \ --label=LABEL_1:VALUE_1 \ --label=LABEL_2:VALUE_2 \ --max_time_travel_hours=HOURS \ PROJECT_ID:DATASET_ID
Dabei gilt:
LOCATION
: Speicherort des Datasets. Nachdem ein Dataset erstellt wurde, kann der Standort nicht mehr geändert werden. Mit der Datei.bigqueryrc
können Sie für den Standort einen Standardwert festlegen.KMS_KEY_NAME
: der Name des standardmäßigen Cloud Key Management Service-Schlüssels, der zum Schutz neu erstellter Tabellen in diesem Dataset verwendet wird, sofern beim Erstellen kein anderer Schlüssel angegeben wird. Wenn dieser Parameter gesetzt ist, können Sie in einem Dataset keine von Google verschlüsselte Tabelle erstellen.PARTITION_EXPIRATION
: die Standardlebensdauer von Partitionen in neu erstellten partitionierten Tabellen in Sekunden. Für den Standardpartitionsablauf gibt es keinen Mindestwert. Die Ablaufzeit entspricht dem Datum der Partition plus dem ganzzahligen Wert. Jede Partition, die in einer partitionierten Tabelle im Dataset erstellt wurde, wirdPARTITION_EXPIRATION
Sekunden nach dem Datum der Partition gelöscht. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Standardablauf der Partition auf Dataset-Ebene.TABLE_EXPIRATION
: die Standardlebensdauer neu erstellter Tabellen in Sekunden. Der Mindestwert beträgt 3.600 Sekunden bzw. eine Stunde. Die Ablaufzeit entspricht der aktuellen Zeit plus dem ganzzahligen Wert. Jede im Dataset erstellte Tabelle wirdTABLE_EXPIRATION
Sekunden nach dem Erstellen gelöscht. Der Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.DESCRIPTION
: eine Beschreibung des DatasetsLABEL_1:VALUE_1
: das Schlüssel/Wert-Paar, das Sie als erstes Label für dieses Dataset festlegen möchten;LABEL_2:VALUE_2
ist das Schlüssel/Wert-Paar, das Sie als zweites Label festlegen möchten.HOURS
: die Dauer des Zeitreisefensters für das neue Dataset in Stunden. Die Möglichkeit, das Zeitreisefenster zu konfigurieren, befindet sich in der Vorschau. DasHOURS
-Feld muss einen Wert zwischen 48 und 168 enthalten. Wenn keine Angabe erfolgt, wird standardmäßig 168 verwendet.PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
: der Name des zu erstellenden Datasets.
Mit dem folgenden Befehl wird beispielsweise ein Dataset namens mydataset
mit dem Standort US
für die Daten, einem Standardtabellenablauf von 3.600 Sekunden (1 Stunde) und der Beschreibung This is my dataset
erstellt. Anstelle des Flags --dataset
verwendet der Befehl die verkürzte Form -d
. Wenn Sie -d
und --dataset
auslassen, wird standardmäßig ein Dataset erstellt.
bq --location=US mk -d \ --default_table_expiration 3600 \ --description "This is my dataset." \ mydataset
Mit dem Befehl bq ls
können Sie prüfen, ob das Dataset erstellt wurde. Sie können auch eine Tabelle erstellen, wenn Sie ein neues Dataset mit dem Format bq mk -t dataset.table
erstellen.
Weitere Informationen zum Erstellen von Tabellen finden Sie unter Tabelle erstellen.
API
Rufen Sie die Methode datasets.insert
mit einer definierten Dataset-Ressource auf.
C#
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von C# in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery C# API.
Go
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Go API.
Java
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.
Node.js
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Node.js API.
PHP
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von PHP in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery PHP API.
Python
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Ruby
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Ruby in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Ruby API.
Dataset-Sicherheit
Informationen zum Steuern des Zugriffs auf Datasets in BigQuery finden Sie unter Zugriff auf Datasets steuern. Informationen zur Datenverschlüsselung finden Sie unter Verschlüsselung inaktiver Daten.
Weitere Informationen
- Weitere Informationen zum Auflisten von Datasets in einem Projekt finden Sie unter Datasets auflisten.
- Weitere Informationen zu Dataset-Metadaten finden Sie unter Informationen zu Datasets abrufen.
- Weitere Informationen zum Ändern von Dataset-Attributen finden Sie unter Datasets aktualisieren.
- Weitere Informationen zum Erstellen und Verwalten von Labels finden Sie unter Labels erstellen und verwalten.
Jetzt testen
Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie einfach ein Konto, um die Leistungsfähigkeit von BigQuery in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
BigQuery kostenlos testen