Tabellen verwalten

In diesem Dokument wird beschrieben, wie in BigQuery Tabellen verwaltet werden. Sie haben folgende Möglichkeiten zum Verwalten Ihrer BigQuery-Tabellen:

  • Folgende Angaben für eine Tabelle aktualisieren:
    • Ablaufzeit
    • Beschreibung
    • Schemadefinition
    • Labels
  • Tabelle umbenennen (kopieren)
  • Tabelle kopieren
  • Tabelle löschen
  • Gelöschte Tabelle wiederherstellen

Weitere Informationen zum Erstellen und Verwenden von Tabellen finden Sie unter Tabellen erstellen und verwenden. Dort wird unter anderem beschrieben, wie Sie Tabelleninformationen abrufen, Tabellen auflisten und den Zugriff auf Tabellendaten steuern.

Tabellenattribute aktualisieren

Sie können die folgenden Angaben für eine Tabelle aktualisieren:

Erforderliche Berechtigungen

Zum Aktualisieren einer Tabelle müssen Sie mindestens die Berechtigungen bigquery.tables.update und bigquery.tables.get haben. Die folgenden vordefinierten Cloud IAM-Rollen enthalten die Berechtigungen bigquery.tables.update und bigquery.tables.get:

  • bigquery.dataEditor
  • bigquery.dataOwner
  • bigquery.admin

Wenn ein Nutzer mit Berechtigungen vom Typ bigquery.datasets.create ein Dataset erstellt, hat er dafür außerdem bigquery.dataOwner-Zugriff. Mit bigquery.dataOwner-Zugriff können Nutzer die Tabellenattribute in den von ihnen erstellten Datasets aktualisieren.

Weitere Informationen zu Cloud IAM-Rollen und -Berechtigungen in BigQuery finden Sie unter Vordefinierte Rollen und Berechtigungen.

Beschreibung einer Tabelle aktualisieren

So können Sie die Beschreibung einer Tabelle aktualisieren:

  • Mit der Cloud Console oder der klassischen BigQuery-Web-UI
  • Mit einer DDL-ALTER TABLE-Anweisung
  • Mit dem Befehl bq update über die Befehlszeile
  • Durch Aufrufen der API-Methode tables.patch
  • Mit den Clientbibliotheken

So aktualisieren Sie die Beschreibung einer Tabelle:

Console

Sie können keine Beschreibung hinzufügen, wenn Sie eine Tabelle mit der Cloud Console erstellen. Nachdem die Tabelle erstellt wurde, können Sie auf der Seite Details eine Beschreibung hinzufügen.

  1. Wählen Sie im Bereich Resources (Ressourcen) Ihre Tabelle aus.

  2. Klicken Sie unterhalb des Abfrageeditors auf Details.

    Tabellenschema bearbeiten

  3. Klicken Sie im Abschnitt Description (Beschreibung) auf das Stiftsymbol, um die Beschreibung zu bearbeiten.

    Beschreibung bearbeiten

  4. Geben Sie eine Beschreibung in das Feld ein und klicken Sie zum Speichern auf Update (Aktualisieren).

DDL

DDL-Anweisungen (Data Definition Language, Datendefinitionssprache) ermöglichen das Erstellen und Ändern von Tabellen und Ansichten mithilfe der Standard-SQL-Abfragesyntax.

Weitere Informationen finden Sie unter DDL-Anweisungen verwenden.

So aktualisieren Sie die Beschreibung einer Tabelle mithilfe einer DDL-Anweisung in der Cloud Console:

  1. Klicken Sie auf Neue Abfrage erstellen.

  2. Geben Sie die DDL-Anweisung in den Textbereich des Abfrageeditors ein.

     ALTER TABLE mydataset.mytable
     SET OPTIONS (
       description="Description of mytable"
     )
     

  3. Klicken Sie auf Ausführen.

Klassische UI

  1. Wählen Sie im Navigationsbereich Ihre Tabelle aus.

  2. Klicken Sie auf der Seite Table Details (Tabellendetails) auf Details.

  3. Klicken Sie im Abschnitt Description (Beschreibung) auf Describe this table (Diese Tabelle beschreiben), um das Beschreibungsfeld zu öffnen.

  4. Geben Sie eine Beschreibung in das Feld ein. Klicken Sie außerhalb des Feldes, um den Text zu speichern.

    Tabellenbeschreibung

Befehlszeile

Führen Sie den Befehl bq update mit dem Flag --description aus. Wenn Sie eine Tabelle in einem anderen Projekt als Ihrem Standardprojekt aktualisieren, fügen Sie dem Dataset-Namen die Projekt-ID im folgenden Format hinzu: project_id:dataset.

bq update \
--description "description" \
project_id:dataset.table

Dabei gilt:

  • description ist der Text zur Beschreibung der Tabelle in Anführungszeichen.
  • project_id ist Ihre Projekt-ID.
  • dataset ist der Name des Datasets, in dem die zu aktualisierende Tabelle enthalten ist.
  • table ist der Name der Tabelle, die Sie aktualisieren möchten.

Beispiele:

Geben Sie den folgenden Befehl ein, um die Beschreibung von mytable in mydataset zu "Description of mytable" (Beschreibung von mytable) zu ändern. mydataset befindet sich in Ihrem Standardprojekt.

bq update --description "Description of mytable" mydataset.mytable

Geben Sie den folgenden Befehl ein, um die Beschreibung von mytable in mydataset zu "Description of mytable" (Beschreibung von mytable) zu ändern. mydataset befindet sich nicht in Ihrem Standardprojekt, sondern in myotherproject.

bq update \
--description "Description of mytable" \
myotherproject:mydataset.mytable

API

Rufen Sie die Methode tables.patch auf und verwenden Sie das Attribut description in der Tabellenressource, um die Beschreibung der Tabelle zu aktualisieren. Da die Methode tables.update die gesamte Tabellenressource ersetzt, ist die Methode tables.patch zu bevorzugen.

Go

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Go API.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// updateTableDescription demonstrates how to fetch a table's metadata and updates the Description metadata.
func updateTableDescription(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}

	tableRef := client.Dataset(datasetID).Table(tableID)
	meta, err := tableRef.Metadata(ctx)
	if err != nil {
		return err
	}
	update := bigquery.TableMetadataToUpdate{
		Description: "Updated description.",
	}
	if _, err = tableRef.Update(ctx, update, meta.ETag); err != nil {
		return err
	}
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

// String datasetName = "my_dataset_name";
// String tableName = "my_table_name";
// String newDescription = "new_description";

Table beforeTable = bigquery.getTable(datasetName, tableName);
TableInfo tableInfo = beforeTable.toBuilder()
    .setDescription(newDescription)
    .build();
Table afterTable = bigquery.update(tableInfo);

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

Konfigurieren Sie das Attribut Table.description und rufen Sie Client.update_table() auf, um die Aktualisierung an die API zu senden.

# from google.cloud import bigquery
# client = bigquery.Client()
# table_ref = client.dataset('my_dataset').table('my_table')
# table = client.get_table(table_ref)  # API request

assert table.description == "Original description."
table.description = "Updated description."

table = client.update_table(table, ["description"])  # API request

assert table.description == "Updated description."

Ablaufzeit einer Tabelle aktualisieren

Sie können auf Dataset-Ebene eine Standardablaufzeit für Tabellen festlegen oder die Ablaufzeit einer Tabelle beim Erstellen festlegen. Die Ablaufzeit einer Tabelle wird auch als Gültigkeitsdauer oder TTL (Time To Live) bezeichnet.

Wenn Sie die Ablaufzeit einer Tabelle beim Erstellen festlegen, wird die Standardablaufzeit für Tabellen des Datasets ignoriert. Wenn Sie keine Standardablaufzeit für Tabellen auf Dataset-Ebene und keine Ablaufzeit beim Erstellen der Tabelle festlegen, läuft die Tabelle nie ab und Sie müssen die Tabelle manuell löschen.

Nach dem Erstellen der Ansicht können Sie die Ablaufzeit der Ansicht jederzeit so aktualisieren:

  • Mit der Cloud Console oder der klassischen BigQuery-Web-UI
  • Mit einer DDL-ALTER TABLE-Anweisung
  • Mit dem Befehl bq update über die Befehlszeile
  • Durch Aufrufen der API-Methode tables.patch
  • Mit den Clientbibliotheken

So aktualisieren Sie die Ablaufzeit einer Tabelle:

Console

Sie können keine Ablaufzeit hinzufügen, wenn Sie eine Tabelle mit der Cloud Console erstellen. Nachdem eine Tabelle erstellt wurde, können Sie den Ablauf der Tabelle auf der Seite Details hinzufügen oder aktualisieren.

  1. Wählen Sie im Bereich Ressourcen Ihre Tabelle aus.

  2. Klicken Sie unterhalb des Abfrageeditors auf Details.

  3. Klicken Sie auf das Stiftsymbol neben Tabelleninformationen.

  4. Wählen Sie bei Tabellenablauf die Option Datum angeben aus. Wählen Sie dann mit dem Kalender-Widget weiter unten das Ablaufdatum aus.

  5. Klicken Sie zum Speichern auf Aktualisieren. Die aktualisierte Ablaufzeit wird im Abschnitt Tabelleninformationen angezeigt.

DDL

DDL-Anweisungen (Data Definition Language, Datendefinitionssprache) ermöglichen das Erstellen und Ändern von Tabellen und Ansichten mithilfe der Standard-SQL-Abfragesyntax.

Weitere Informationen finden Sie unter DDL-Anweisungen verwenden.

So aktualisieren Sie die Ablaufzeit mithilfe einer DDL-Anweisung in der Cloud Console:

  1. Klicken Sie auf Neue Abfrage erstellen.

  2. Geben Sie die DDL-Anweisung in den Textbereich des Abfrageeditors ein.

     ALTER TABLE mydataset.mytable
     SET OPTIONS (
       -- Sets table expiration to timestamp 2025-02-03 12:34:56
       expiration_timestamp=TIMESTAMP "2025-02-03 12:34:56"
     )
     

  3. Klicken Sie auf Ausführen.

Klassische UI

  1. Wählen Sie im Navigationsbereich Ihre Tabelle aus.

  2. Klicken Sie auf der Seite Table Details (Tabellendetails) auf Details.

  3. Klicken Sie unter Expiration Time (Ablaufzeit) auf Edit (Bearbeiten).

  4. Klicken Sie im Dialogfeld Update Expiration (Ablauf aktualisieren) auf In und geben Sie eine Ablaufzeit in Tagen ein.

  5. Klicken Sie auf OK. Die aktualisierte Ablaufzeit wird auf der Seite Details angezeigt.

    Tabellenablauf

Befehlszeile

Führen Sie den Befehl bq update mit dem Flag --expiration aus. Wenn Sie eine Tabelle in einem anderen Projekt als Ihrem Standardprojekt aktualisieren, fügen Sie dem Dataset-Namen die Projekt-ID im folgenden Format hinzu: project_id:dataset.

bq update \
--expiration integer \
project_id:dataset.table

Dabei gilt:

  • integer ist die Standardlebensdauer der Tabelle in Sekunden. Der Mindestwert beträgt 3.600 Sekunden bzw. eine Stunde. Die Ablaufzeit entspricht der aktuellen Zeit plus dem ganzzahligen Wert. Wenn Sie 0 angeben, wird der Tabellenablauf entfernt und die Tabelle läuft nie ab. Tabellen ohne Ablauf müssen manuell gelöscht werden.
  • project_id ist Ihre Projekt-ID.
  • dataset ist der Name des Datasets, in dem die zu aktualisierende Tabelle enthalten ist.
  • table ist der Name der Tabelle, die Sie aktualisieren möchten.

Beispiele:

Geben Sie den folgenden Befehl ein, um die Ablaufzeit von mytable in mydataset auf 5 Tage (432000 Sekunden) zu aktualisieren. mydataset befindet sich in Ihrem Standardprojekt.

bq update --expiration 432000 mydataset.mytable

Geben Sie den folgenden Befehl ein, um die Ablaufzeit von mytable in mydataset auf 5 Tage (432000 Sekunden) zu aktualisieren. mydataset befindet sich nicht in Ihrem Standardprojekt, sondern in myotherproject.

bq update --expiration 432000 myotherproject:mydataset.mytable

API

Rufen Sie die Methode tables.patch auf und verwenden Sie das Attribut expirationTime in der Tabellenressource, um die Ablaufzeit der Tabelle in Millisekunden zu ändern. Da die Methode tables.update die gesamte Tabellenressource ersetzt, ist die Methode tables.patch zu bevorzugen.

Go

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Go API.

import (
	"context"
	"fmt"
	"time"

	"cloud.google.com/go/bigquery"
)

// updateTableExpiration demonstrates setting the table expiration of a table to a specific point in time
// in the future, at which time it will be deleted.
func updateTableExpiration(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	tableRef := client.Dataset(datasetID).Table(tableID)
	meta, err := tableRef.Metadata(ctx)
	if err != nil {
		return err
	}
	update := bigquery.TableMetadataToUpdate{
		ExpirationTime: time.Now().Add(time.Duration(5*24) * time.Hour), // table expiration in 5 days.
	}
	if _, err = tableRef.Update(ctx, update, meta.ETag); err != nil {
		return err
	}
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

Table beforeTable = bigquery.getTable(datasetName, tableName);

// Set table to expire 5 days from now.
long expirationMillis = DateTime.now().plusDays(5).getMillis();
TableInfo tableInfo = beforeTable.toBuilder()
        .setExpirationTime(expirationMillis)
        .build();
Table afterTable = bigquery.update(tableInfo);

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

Konfigurieren Sie das Attribut Table.expires und rufen Sie Client.update_table() auf, um die Aktualisierung an die API zu senden.

import datetime
import pytz

# from google.cloud import bigquery
# client = bigquery.Client()
# table_ref = client.dataset('my_dataset').table('my_table')
# table = client.get_table(table_ref)  # API request

assert table.expires is None

# set table to expire 5 days from now
expiration = datetime.datetime.now(pytz.utc) + datetime.timedelta(days=5)
table.expires = expiration
table = client.update_table(table, ["expires"])  # API request

# expiration is stored in milliseconds
margin = datetime.timedelta(microseconds=1000)
assert expiration - margin <= table.expires <= expiration + margin

Schemadefinition einer Tabelle aktualisieren

Eine Anleitung zum Aktualisieren der Schemadefinition einer Tabelle finden Sie unter Tabellenschemas ändern.

Tabelle umbenennen

Der Name einer vorhandenen Tabelle kann derzeit nicht geändert werden. Wenn Sie den Tabellennamen ändern möchten, müssen Sie die Tabelle kopieren. Wenn Sie im Kopiervorgang die Zieltabelle angeben, verwenden Sie den neuen Tabellennamen.

Tabelle kopieren

So können Sie eine Tabelle kopieren:

  • Mit der Cloud Console oder der klassischen BigQuery-Web-UI
  • Mit dem Befehl bq cp des Befehlszeilentools
  • Durch Aufrufen der API-Methode jobs.insert und Konfigurieren eines copy-Jobs
  • Mit den Clientbibliotheken

Erforderliche Berechtigungen

Zum Kopieren von Tabellen und Partitionen benötigen Sie mindestens die folgenden Berechtigungen.

Für das Quell-Dataset:

  • bigquery.tables.get
  • bigquery.tables.getData

Für das Ziel-Dataset:

  • bigquery.tables.create zum Erstellen einer Kopie der Tabelle oder Partition im Ziel-Dataset

Die folgenden vordefinierten Cloud IAM-Rollen enthalten die Berechtigungen bigquery.tables.create, bigquery.tables.get und bigquery.tables.getData:

  • bigquery.dataEditor
  • bigquery.dataOwner
  • bigquery.admin

Zum Ausführen des Kopierjobs brauchen Sie außerdem Berechtigungen des Typs bigquery.jobs.create.

Diese vordefinierten Cloud IAM-Rollen enthalten die Berechtigung bigquery.jobs.create:

  • bigquery.user
  • bigquery.jobUser
  • bigquery.admin

Wenn ein Nutzer mit Berechtigungen vom Typ bigquery.datasets.create ein Dataset erstellt, hat er dafür außerdem bigquery.dataOwner-Zugriff. Mit bigquery.dataOwner-Zugriff kann der Nutzer Tabellen und Partitionen im Dataset kopieren. Zugriff auf das Ziel-Dataset ist jedoch weiterhin erforderlich, sofern der Nutzer nicht auch das Ziel-Dataset erstellt hat.

Weitere Informationen zu IAM-Rollen und -Berechtigungen in BigQuery finden Sie unter Vordefinierte Rollen und Berechtigungen.

Einschränkungen beim Kopieren von Tabellen

Tabellenkopierjobs unterliegen den folgenden Einschränkungen:

  • Für die Zieltabelle gelten beim Kopieren dieselben Namenskonventionen wie beim Erstellen.
  • Tabellenkopien unterliegen den BigQuery-Kontingentrichtlinien für Kopierjobs.
  • Wenn Sie die Cloud Console oder die klassische BigQuery-Web-UI für den Kopiervorgang verwenden, können die im Ziel-Dataset vorhandenen Tabellen nicht überschrieben werden. Die Tabelle muss im Ziel-Dataset einen eindeutigen Namen haben.
  • Das Ziel-Dataset muss sich am gleichen Standort befinden wie das Dataset mit der kopierten Tabelle. Beispielsweise ist es nicht möglich, eine Tabelle aus einem europäischen Dataset in ein US-amerikanisches Dataset zu kopieren.
  • Das Kopieren mehrerer Quelltabellen in eine Zieltabelle wird von der Cloud Console oder der klassischen BigQuery-Web-UI nicht unterstützt.
  • Wenn Sie mehrere Quelltabellen mit der Befehlszeile oder API in eine Zieltabelle kopieren, müssen alle Quelltabellen identische Schemas haben.

Einzelne Quelltabelle kopieren

So können Sie eine einzelne Tabelle kopieren:

  • Mit der Cloud Console oder der klassischen BigQuery-Web-UI
  • Mit dem Befehl bq cp des Befehlszeilentools
  • Durch Aufrufen der API-Methode jobs.insert, Konfigurieren eines copy-Jobs und Angeben des Attributs sourceTable
  • Mit den Clientbibliotheken

Die Cloud Console und die klassische BigQuery-Web-UI unterstützen pro Kopierjob nur eine Quelltabelle und eine Zieltabelle. Sie müssen das Befehlszeilentool oder die API verwenden, um mehrere Quelldateien in eine Zieltabelle zu kopieren.

So kopieren Sie eine einzelne Quelltabelle:

Console

  1. Wählen Sie im Bereich Ressourcen die Tabelle aus, die Sie kopieren möchten.

  2. Klicken Sie unterhalb des Abfrageeditors auf Tabelle kopieren.

  3. Im Dialogfeld Tabelle kopieren unter Ziel:

    • Wählen Sie bei Projektname das Projekt aus, in dem die kopierte Tabelle gespeichert wird.
    • Wählen Sie bei Dataset-Name das Dataset aus, in dem die kopierte Tabelle gespeichert werden soll. Die Quell- und Ziel-Datasets müssen sich am selben Standort befinden.
    • Geben Sie bei Tabellenname einen Namen für die neue Tabelle ein. Der Name darf im Ziel-Dataset nur einmal vorkommen. Der Tabellenname kann bis zu 1024 Zeichen umfassen und darf nur a-z, A-Z, 0-9 oder _ (Unterstrich) enthalten. Sie können eine vorhandene Tabelle im Ziel-Dataset nicht mit der Cloud Console überschreiben.
  4. Klicken Sie auf Kopieren, um den Kopierjob zu starten.

Klassische UI

  1. Klicken Sie neben der zu kopierenden Tabelle auf das Symbol "Menü anzeigen" (Abwärtspfeil) und dann auf Copy Table (Tabelle kopieren).

  2. Im Dialogfeld Copy table (Tabelle kopieren):

    • Wählen Sie unter Destination project (Zielprojekt) das Projekt aus, in dem Sie die kopierte Tabelle speichern möchten.
    • Wählen Sie unter Destination dataset (Ziel-Dataset) das Dataset aus, in dem Sie die kopierte Tabelle speichern möchten. Die Quell- und Ziel-Datasets müssen sich am selben Standort befinden.
    • Geben Sie unter Destination table (Zieltabelle) einen Namen für die neue Tabelle ein. Der Name darf im Ziel-Dataset nur einmal vorkommen. Der Tabellenname kann bis zu 1024 Zeichen umfassen und darf nur a-z, A-Z, 0-9 oder _ (Unterstrich) enthalten. Mit der klassischen BigQuery-Web-UI können Sie keine im Ziel-Dataset vorhandenen Tabellen überschreiben.

      Tabelle kopieren

  3. Klicken Sie auf OK, um den Kopiervorgang zu starten.

Befehlszeile

Führen Sie den Befehl bq cp aus. Sie können optionale Flags verwenden, um die Schreibanordnung für die Zieltabelle zu steuern:

  • Mit -a oder --append_table werden die Daten aus der Quelltabelle an eine vorhandene Tabelle im Ziel-Dataset angefügt.
  • -f oder --force überschreibt eine vorhandene Tabelle im Ziel-Dataset, ohne eine Bestätigung von Ihnen anzufordern.
  • Wenn sich die Tabelle im Ziel-Dataset befindet, gibt -n oder --no_clobber die folgende Fehlermeldung aus: Table 'project_id:dataset.table' already exists, skipping.. Wenn nicht angegeben ist, werden Sie standardmäßig gefragt, ob die Zieltabelle ersetzt werden soll.
  • --destination_kms_key ist der vom Kunden verwaltete Cloud KMS-Schlüssel, der zum Verschlüsseln der Zieltabelle verwendet wird.

--destination_kms_key wird hier nicht erläutert. Weitere Informationen finden Sie unter Daten mit Cloud KMS-Schlüsseln schützen.

Wenn sich das Quell- oder Ziel-Dataset in einem anderen Projekt als Ihrem Standardprojekt befindet, fügen Sie die Projekt-ID im folgenden Format in den Dataset-Namen ein: project_id:dataset.

Optional: Geben Sie das Flag --location an und legen Sie als Wert Ihren Standort fest.

bq --location=location cp \
-a -f -n \
project_id:dataset.source_table \
project_id:dataset.destination_table

Dabei gilt:

  • location ist der Name des Standorts. Das Flag --location ist optional. Wenn Sie BigQuery z. B. in der Region Tokio verwenden, können Sie für das Flag den Wert asia-northeast1 festlegen. Mit der Datei .bigqueryrc können Sie einen Standardwert für den Standort festlegen.
  • project_id ist die Projekt-ID.
  • dataset ist der Name des Quell- oder Ziel-Datasets.
  • source_table ist die kopierte Tabelle.
  • destination_table ist der Name der Tabelle im Ziel-Dataset.

Beispiele:

Geben Sie den folgenden Befehl ein, um mydataset.mytable in mydataset2.mytable2 zu kopieren. Beide Datasets befinden sich in Ihrem Standardprojekt.

bq cp mydataset.mytable mydataset2.mytable2

Geben Sie den folgenden Befehl ein, um mydataset.mytable zu kopieren und eine Zieltabelle mit demselben Namen zu überschreiben. Das Quell-Dataset befindet sich in Ihrem Standardprojekt. Das Ziel-Dataset befindet sich in myotherproject. Das Kürzel -f wird verwendet, um die Zieltabelle ohne Eingabeaufforderung zu überschreiben.

bq cp -f \
mydataset.mytable \
myotherproject:myotherdataset.mytable

Geben Sie den folgenden Befehl ein, um mydataset.mytable zu kopieren. Wenn das Ziel-Dataset eine Tabelle mit demselben Namen enthält, wird eine Fehlermeldung zurückgegeben. Das Quell-Dataset befindet sich in Ihrem Standardprojekt. Das Ziel-Dataset befindet sich in myotherproject. Mit dem Kürzel -n wird das Überschreiben einer Tabelle mit demselben Namen verhindert.

bq cp -n \
mydataset.mytable \
myotherproject:myotherdataset.mytable

Geben Sie den folgenden Befehl ein, um mydataset.mytable zu kopieren und die Daten an eine Zieltabelle mit demselben Namen anzufügen. Das Quell-Dataset befindet sich in Ihrem Standardprojekt. Das Ziel-Dataset befindet sich in myotherproject. Das Kürzel - a wird zum Anfügen an die Zieltabelle verwendet.

bq cp -a mydataset.mytable myotherproject:myotherdataset.mytable

API

Sie können eine vorhandene Tabelle über die API kopieren, indem Sie die Methode bigquery.jobs.insert aufrufen und einen copy-Job konfigurieren. Geben Sie Ihren Standort im Attribut location im Abschnitt jobReference der Jobressource an.

Geben Sie die folgenden Werte in der Jobkonfiguration an:

"copy": {
      "sourceTable": {       // Required
        "projectId": string, // Required
        "datasetId": string, // Required
        "tableId": string    // Required
      },
      "destinationTable": {  // Required
        "projectId": string, // Required
        "datasetId": string, // Required
        "tableId": string    // Required
      },
      "createDisposition": string,  // Optional
      "writeDisposition": string,   // Optional
    },

Dabei gilt: Mit sourceTable werden Informationen über die zu kopierende Tabelle und mit destinationTable Informationen über die neue Tabelle bereitgestellt. Mit createDisposition wird angegeben, ob die Tabelle erstellt werden soll, falls sie noch nicht vorhanden ist. Mit writeDisposition wird angegeben, ob eine vorhandene Tabelle überschrieben werden soll oder die Daten an eine vorhandene Tabelle angefügt werden sollen.

C#

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zum Einrichten von C# in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery C# API.


using Google.Apis.Bigquery.v2.Data;
using Google.Cloud.BigQuery.V2;
using System;

public class BigQueryCopyTable
{
    public void CopyTable(
        string projectId = "your-project-id",
        string destinationDatasetId = "your_dataset_id"
    )
    {
        BigQueryClient client = BigQueryClient.Create(projectId);
        TableReference sourceTableRef = new TableReference()
        {
            TableId = "shakespeare",
            DatasetId = "samples",
            ProjectId = "bigquery-public-data"
        };
        TableReference destinationTableRef = client.GetTableReference(
            destinationDatasetId, "destination_table");
        BigQueryJob job = client.CreateCopyJob(
            sourceTableRef, destinationTableRef)
            .PollUntilCompleted();  // Wait for the job to complete.
        // Retrieve destination table
        BigQueryTable destinationTable = client.GetTable(destinationTableRef);
        Console.WriteLine(
            $"Copied {destinationTable.Resource.NumRows} rows from table "
            + $"{sourceTableRef.DatasetId}.{sourceTableRef.TableId} "
            + $"to {destinationTable.FullyQualifiedId}."
        );
    }
}

Go

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Go API.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// copyTable demonstrates copying a table from a source to a destination, and
// allowing the copy to overwrite existing data by using truncation.
func copyTable(projectID, datasetID, srcID, dstID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// srcID := "sourcetable"
	// dstID := "destinationtable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	dataset := client.Dataset(datasetID)
	copier := dataset.Table(dstID).CopierFrom(dataset.Table(srcID))
	copier.WriteDisposition = bigquery.WriteTruncate
	job, err := copier.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}
	if err := status.Err(); err != nil {
		return err
	}
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

TableId destinationId = TableId.of(dataset, tableName);
JobOption options = JobOption.fields(JobField.STATUS, JobField.USER_EMAIL);
Job job = table.copy(destinationId, options);
// Wait for the job to complete.
try {
  Job completedJob =
      job.waitFor(
          RetryOption.initialRetryDelay(Duration.ofSeconds(1)),
          RetryOption.totalTimeout(Duration.ofMinutes(3)));
  if (completedJob != null && completedJob.getStatus().getError() == null) {
    // Job completed successfully.
  } else {
    // Handle error case.
  }
} catch (InterruptedException e) {
  // Handle interrupted wait
}

Node.js

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zum Einrichten von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Node.js API.

// Import the Google Cloud client library and create a client
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function copyTable() {
  // Copies src_dataset:src_table to dest_dataset:dest_table.

  /**
   * TODO(developer): Uncomment the following lines before running the sample
   */
  // const srcDatasetId = "my_src_dataset";
  // const srcTableId = "my_src_table";
  // const destDatasetId = "my_dest_dataset";
  // const destTableId = "my_dest_table";

  // Copy the table contents into another table
  const [job] = await bigquery
    .dataset(srcDatasetId)
    .table(srcTableId)
    .copy(bigquery.dataset(destDatasetId).table(destTableId));

  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}

PHP

Bevor Sie dieses Beispiel anwenden, folgen Sie der Anleitung zur Einrichtung von PHP in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery PHP API.

use Google\Cloud\BigQuery\BigQueryClient;
use Google\Cloud\Core\ExponentialBackoff;

/** Uncomment and populate these variables in your code */
// $projectId = 'The Google project ID';
// $datasetId = 'The BigQuery dataset ID';
// $sourceTableId   = 'The BigQuery table ID to copy from';
// $destinationTableId = 'The BigQuery table ID to copy to';

$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$dataset = $bigQuery->dataset($datasetId);
$sourceTable = $dataset->table($sourceTableId);
$destinationTable = $dataset->table($destinationTableId);
$copyConfig = $sourceTable->copy($destinationTable);
$job = $sourceTable->runJob($copyConfig);

// poll the job until it is complete
$backoff = new ExponentialBackoff(10);
$backoff->execute(function () use ($job) {
    print('Waiting for job to complete' . PHP_EOL);
    $job->reload();
    if (!$job->isComplete()) {
        throw new Exception('Job has not yet completed', 500);
    }
});
// check if the job has errors
if (isset($job->info()['status']['errorResult'])) {
    $error = $job->info()['status']['errorResult']['message'];
    printf('Error running job: %s' . PHP_EOL, $error);
} else {
    print('Table copied successfully' . PHP_EOL);
}

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

# TODO(developer): Import the client library.
# from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set source_table_id to the ID of the original table.
# source_table_id = "your-project.source_dataset.source_table"

# TODO(developer): Set destination_table_id to the ID of the destination table.
# destination_table_id = "your-project.destination_dataset.destination_table"

job = client.copy_table(source_table_id, destination_table_id)
job.result()  # Wait for the job to complete.

print("A copy of the table created.")

Mehrere Quelltabellen kopieren

So können Sie mehrere Quelltabellen in eine Zieltabelle kopieren:

  • Mit dem Befehl bq cp des Befehlszeilentools
  • Durch Aufrufen der Methode jobs.insert, Konfigurieren eines copy-Jobs und Angeben des Attributs sourceTables
  • Mit den Clientbibliotheken

Alle Quelltabellen müssen identische Schemas haben und es ist nur eine Zieltabelle zulässig.

Quelltabellen müssen als eine durch Kommas getrennte Liste angegeben werden. Sie können keine Platzhalter verwenden, wenn Sie mehrere Quelltabellen kopieren.

So kopieren Sie mehrere Quelltabellen:

Console

In der Cloud Console wird das Kopieren mehrerer Tabellen derzeit nicht unterstützt.

Klassische UI

In der klassischen BigQuery-Web-UI wird das Kopieren mehrerer Tabellen derzeit nicht unterstützt.

Befehlszeile

Führen Sie den Befehl bq cp aus und geben Sie in einer durch Kommas getrennten Liste mehrere Quelltabellen an. Sie können optionale Flags verwenden, um die Schreibanordnung für die Zieltabelle zu steuern:

  • Mit -a oder --append_table werden die Daten aus den Quelltabellen an eine vorhandene Tabelle im Ziel-Dataset angefügt.
  • Mit -f oder --force wird eine vorhandene Zieltabelle im Ziel-Dataset überschrieben. Sie werden dabei nicht zur Bestätigung des Vorgangs aufgefordert.
  • Wenn sich die Tabelle im Ziel-Dataset befindet, gibt -n oder --no_clobber die folgende Fehlermeldung aus: Table 'project_id:dataset.table' already exists, skipping.. Wenn nicht angegeben ist, werden Sie standardmäßig gefragt, ob die Zieltabelle ersetzt werden soll.
  • --destination_kms_key ist der vom Kunden verwaltete Cloud KMS-Schlüssel, der zum Verschlüsseln der Zieltabelle verwendet wird.

--destination_kms_key wird hier nicht erläutert. Weitere Informationen finden Sie unter Daten mit Cloud KMS-Schlüsseln schützen.

Wenn sich das Quell- oder Ziel-Dataset in einem anderen Projekt als Ihrem Standardprojekt befindet, fügen Sie die Projekt-ID im folgenden Format in den Dataset-Namen ein: project_id:dataset.

Optional: Geben Sie das Flag --location an und legen Sie als Wert Ihren Standort fest.

bq --location=location cp \
-a -f -n \
project_id:dataset.source_table,project_id:dataset.source_table \
project_id:dataset.destination_table

Dabei gilt:

  • location ist der Name des Standorts. Das Flag --location ist optional. Wenn Sie BigQuery z. B. in der Region Tokio verwenden, können Sie für das Flag den Wert asia-northeast1 festlegen. Mit der Datei .bigqueryrc können Sie einen Standardwert für den Standort festlegen.
  • project_id ist Ihre Projekt-ID.
  • dataset ist der Name des Quell- oder Ziel-Datasets.
  • source_table ist die kopierte Tabelle.
  • destination_table ist der Name der Tabelle im Ziel-Dataset.

Beispiele:

Geben Sie den folgenden Befehl ein, um mydataset.mytable und mydataset.mytable2 in mydataset2.tablecopy zu kopieren. Alle Datasets befinden sich in Ihrem Standardprojekt.

bq cp \
mydataset.mytable,mydataset.mytable2 \
mydataset2.tablecopy

Geben Sie folgenden Befehl ein, um mydataset.mytable und mydataset.mytable2 in myotherdataset.mytable zu kopieren und eine Zieltabelle mit demselben Namen zu überschreiben. Das Ziel-Dataset befindet sich in myotherproject und nicht im Standardprojekt. Mit dem Kürzel -f wird die Zieltabelle ohne Eingabeaufforderung überschrieben.

bq cp -f \
mydataset.mytable,mydataset.mytable2 \
myotherproject:myotherdataset.mytable

Geben Sie den folgenden Befehl ein, um myproject:mydataset.mytable und myproject:mydataset.mytable2 zu kopieren. Wenn das Ziel-Dataset eine Tabelle mit demselben Namen enthält, wird eine Fehlermeldung zurückgegeben. Das Ziel-Dataset befindet sich in myotherproject. Mit dem Kürzel -n wird das Überschreiben einer Tabelle mit demselben Namen verhindert.

bq cp -n \
myproject:mydataset.mytable,myproject:mydataset.mytable2 \
myotherproject:myotherdataset.mytable

Geben Sie den folgenden Befehl ein, um mydataset.mytable und mydataset.mytable2 zu kopieren und die Daten an eine Zieltabelle mit demselben Namen anzufügen. Das Quell-Dataset befindet sich in Ihrem Standardprojekt. Das Ziel-Dataset befindet sich in myotherproject. Das Kürzel -a wird zum Anfügen an die Zieltabelle verwendet.

bq cp -a \
mydataset.mytable,mydataset.mytable2 \
myotherproject:myotherdataset.mytable

API

Wenn Sie mehrere Tabellen mit der API kopieren möchten, rufen Sie die Methode jobs.insert auf, konfigurieren Sie einen copy-Tabellenjob und geben Sie das Attribut sourceTables an.

Geben Sie Ihre Region im Abschnitt jobReference der Jobressource im Attribut location an.

Go

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Go API.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// copyMultiTable demonstrates using a copy job to copy multiple source tables into a single destination table.
func copyMultiTable(projectID, srcDatasetID string, srcTableIDs []string, dstDatasetID, dstTableID string) error {
	// projectID := "my-project-id"
	// srcDatasetID := "sourcedataset"
	// srcTableIDs := []string{"table1","table2"}
	// dstDatasetID = "destinationdataset"
	// dstTableID = "destinationtable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}

	srcDataset := client.Dataset(srcDatasetID)
	dstDataset := client.Dataset(dstDatasetID)
	var tableRefs []*bigquery.Table
	for _, v := range srcTableIDs {
		tableRefs = append(tableRefs, srcDataset.Table(v))
	}
	copier := dstDataset.Table(dstTableID).CopierFrom(tableRefs...)
	copier.WriteDisposition = bigquery.WriteTruncate
	job, err := copier.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}
	if err := status.Err(); err != nil {
		return err
	}
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

TableId destinationTable = TableId.of(datasetId, destinationTableId);
CopyJobConfiguration configuration =
    CopyJobConfiguration.newBuilder(
        destinationTable,
        Arrays.asList(
            TableId.of(datasetId, "table1"),
            TableId.of(datasetId, "table2")))
    .build();

// Copy the tables.
Job job = bigquery.create(JobInfo.of(configuration));
job = job.waitFor();

// Check the table
StandardTableDefinition table = bigquery.getTable(destinationTable).getDefinition();
System.out.println("State: " + job.getStatus().getState());
System.out.printf("Copied %d rows.\n", table.getNumRows());

Node.js

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zum Einrichten von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Node.js API.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function copyTableMultipleSource() {
  // Copy multiple source tables to a given destination.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";
  // sourceTable = 'my_table';
  // destinationTable = 'testing';

  // Create a client
  const dataset = bigquery.dataset(datasetId);

  const metadata = {
    createDisposition: 'CREATE_NEVER',
    writeDisposition: 'WRITE_TRUNCATE',
  };

  // Create table references
  const table = dataset.table(sourceTable);
  const yourTable = dataset.table(destinationTable);

  // Copy table
  const [apiResponse] = await table.copy(yourTable, metadata);
  console.log(apiResponse.configuration.copy);
}

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

# TODO(developer): Import the client library.
# from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set dest_table_id to the ID of the destination table.
# dest_table_id = "your-project.your_dataset.your_table_name"

# TODO(developer): Set table_ids to the list of the IDs of the original tables.
# table_ids = ["your-project.your_dataset.your_table_name", ...]

job = client.copy_table(table_ids, dest_table_id)  # Make an API request.
job.result()  # Wait for the job to complete.

print("The tables {} have been appended to {}".format(table_ids, dest_table_id))

Tabellen löschen

So können Sie eine Tabelle löschen:

  • Mit der Cloud Console oder der klassischen BigQuery-Web-UI
  • Mit dem Befehl bq rm des Befehlszeilentools
  • Durch Aufrufen der API-Methode tables.delete
  • Mit den Clientbibliotheken

Derzeit können Sie nur eine Tabelle auf einmal löschen.

Wenn Sie eine Tabelle löschen, werden die Daten in der Tabelle ebenfalls gelöscht. Sie können festlegen, dass Tabellen nach einem bestimmten Zeitraum automatisch gelöscht werden. Legen Sie dazu den Standard-Tabellenablauf für das Dataset fest oder geben Sie beim Erstellen der Tabelle die Ablaufzeit ein.

Erforderliche Berechtigungen

Zum Löschen einer Tabelle müssen Sie mindestens die Berechtigungen bigquery.tables.delete und bigquery.tables.get haben. Die folgenden vordefinierten Cloud IAM-Rollen enthalten die Berechtigungen bigquery.tables.delete und bigquery.tables.get:

  • bigquery.dataOwner
  • bigquery.dataEditor
  • bigquery.admin

Wenn ein Nutzer mit Berechtigungen vom Typ bigquery.datasets.create ein Dataset erstellt, hat er dafür außerdem bigquery.dataOwner-Zugriff. Mit bigquery.dataOwner-Zugriff haben Nutzer die Möglichkeit, im Dataset Tabellen zu löschen.

Weitere Informationen zu IAM-Rollen und -Berechtigungen in BigQuery finden Sie unter Vordefinierte Rollen und Berechtigungen.

Tabelle löschen

So löschen Sie eine Tabelle:

Console

  1. Wählen Sie im Bereich Ressourcen Ihre Tabelle aus. Klicken Sie unterhalb des Abfrageeditors auf Tabelle löschen.

  2. Geben Sie den Namen der Tabelle im Dialogfeld ein und klicken Sie zur Bestätigung auf Löschen.

Klassische UI

  1. Klicken Sie in der Navigationsleiste neben dem Tabellennamen auf den Abwärtspfeil (Abwärtspfeil) und dann auf Tabelle löschen.

  2. Wenn Sie dazu aufgefordert werden, klicken Sie zur Bestätigung auf OK.

Befehlszeile

Verwenden Sie den Befehl bq rm mit dem Flag --table (oder dem Kürzel -t), um eine Tabelle zu löschen. Wenn Sie die Befehlszeile zum Entfernen einer Tabelle verwenden, müssen Sie den Befehl bestätigen. Sie können das Flag --force (oder das Kürzel -f) zum Überspringen der Bestätigung verwenden.

Wenn sich die Tabelle in einem Dataset eines anderen Projekts als dem Standardprojekt befindet, fügen Sie dem Dataset-Namen die Projekt-ID im folgenden Format hinzu: project_id:dataset.

bq rm \
-f \
-t \
project_id:dataset.table

Dabei gilt:

  • project_id ist Ihre Projekt-ID.
  • dataset ist der Name des Datasets, das die Tabelle enthält.
  • table ist der Name der Tabelle, die Sie löschen möchten.

Beispiele:

Geben Sie den folgenden Befehl ein, um mytable aus mydataset zu löschen. mydataset befindet sich in Ihrem Standardprojekt.

bq rm -t mydataset.mytable

Geben Sie den folgenden Befehl ein, um mytable aus mydataset zu löschen. mydataset befindet sich in myotherproject, nicht in Ihrem Standardprojekt.

bq rm -t myotherproject:mydataset.mytable

Geben Sie den folgenden Befehl ein, um mytable aus mydataset zu löschen. mydataset befindet sich in Ihrem Standardprojekt. Durch das Kürzel -f in diesem Befehl wird die Bestätigung übersprungen.

bq rm -f -t mydataset.mytable

API

Rufen Sie die API-Methode tables.delete auf und legen Sie mit dem Parameter tableId die zu löschende Tabelle fest.

C#

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zum Einrichten von C# in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery C# API.


using Google.Cloud.BigQuery.V2;
using System;

public class BigQueryDeleteTable
{
    public void DeleteTable(
        string projectId = "your-project-id",
        string datasetId = "your_dataset_id",
        string tableId = "your_table_id"
    )
    {
        BigQueryClient client = BigQueryClient.Create(projectId);
        client.DeleteTable(datasetId, tableId);
        Console.WriteLine($"Table {tableId} deleted.");
    }
}

Go

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Go API.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// deleteTable demonstrates deletion of a BigQuery table.
func deleteTable(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}

	table := client.Dataset(datasetID).Table(tableID)
	if err := table.Delete(ctx); err != nil {
		return err
	}
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

TableId tableId = TableId.of(projectId, datasetName, tableName);
boolean deleted = bigquery.delete(tableId);
if (deleted) {
  // the table was deleted
} else {
  // the table was not found
}

Node.js

Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zum Einrichten von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Node.js API.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function deleteTable() {
  // Deletes "my_table" from "my_dataset".

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";
  // const tableId = "my_table";

  // Delete the table
  await bigquery
    .dataset(datasetId)
    .table(tableId)
    .delete();

  console.log(`Table ${tableId} deleted.`);
}

PHP

Bevor Sie dieses Beispiel anwenden, folgen Sie der Anleitung zur Einrichtung von PHP in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery PHP API.

use Google\Cloud\BigQuery\BigQueryClient;

/** Uncomment and populate these variables in your code */
// $projectId = 'The Google project ID';
// $datasetId = 'The BigQuery dataset ID';
// $tableId = 'The BigQuery table ID';

$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$dataset = $bigQuery->dataset($datasetId);
$table = $dataset->table($tableId);
$table->delete();
printf('Deleted table %s.%s' . PHP_EOL, $datasetId, $tableId);

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

# TODO(developer): Import the client library.
# from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to fetch.
# table_id = 'your-project.your_dataset.your_table'

# If the table does not exist, delete_table raises
# google.api_core.exceptions.NotFound unless not_found_ok is True.
client.delete_table(table_id, not_found_ok=True)  # Make an API request.
print("Deleted table '{}'.".format(table_id))

Ruby

Bevor Sie dieses Beispiel anwenden, folgen Sie der Anleitung zur Einrichtung von Ruby in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Ruby API.

require "google/cloud/bigquery"

def delete_table dataset_id = "my_dataset_id", table_id = "my_table_id"
  bigquery = Google::Cloud::Bigquery.new
  dataset  = bigquery.dataset dataset_id
  table    = dataset.table table_id

  table.delete

  puts "Table #{table_id} deleted."
end

Gelöschte Tabellen wiederherstellen

Eine gelöschte Tabelle kann innerhalb von zwei Tagen nach dem Löschen wiederhergestellt werden. Mit der Snapshot Decorator-Funktion können Sie möglicherweise vor dem Löschvorgang auf eine Tabelle verweisen und sie dann kopieren. Wichtige Hinweise:

  • Sie können nicht auf eine gelöschte Tabelle verweisen, wenn Sie bereits eine neue Tabelle mit demselben Namen in demselben Dataset erstellt haben.

  • Sie können nicht auf eine gelöschte Tabelle verweisen, wenn Sie das Dataset gelöscht haben, in dem sich die Tabelle befand, und Sie bereits ein neues Dataset mit demselben Namen erstellt haben.

Gelöschte Tabelle wiederherstellen

So können Sie eine gelöschte Tabelle wiederherstellen:

  • Mit dem Snapshot-Decorator @<time> in der Befehlszeile
  • Mit den Clientbibliotheken

Console

In der Cloud Console können gelöschte Tabellen nicht wiederhergestellt werden.

Klassische UI

In der klassischen Web-UI können gelöschte Tabellen nicht wiederhergestellt werden.

Befehlszeile

Verwenden Sie den Snapshot-Decorator @<time>, um eine Tabelle mithilfe von Legacy-SQL wiederherzustellen. Ermitteln Sie zuerst einen UNIX-Zeitstempel in Millisekunden für die Zeit, in der die Tabelle existiert hat. Kopieren Sie die Tabelle dann mit diesem Zeitstempel in eine neue Tabelle. Die neue Tabelle muss einen anderen Namen als die gelöschte Tabelle haben.

Optional: Geben Sie das Flag --location an und legen Sie als Wert Ihren Standort fest.

Geben Sie beispielsweise den folgenden Befehl ein, um mydataset.mytable zum Zeitpunkt 1418864998000 in die neue Tabelle mydataset.newtable zu kopieren.

bq cp mydataset.mytable@1418864998000 mydataset.newtable

Weitere Informationen finden Sie unter Tabellen-Decorators im Legacy-SQL-Dialekt.

Go

import (
	"context"
	"fmt"
	"time"

	"cloud.google.com/go/bigquery"
)

// deleteAndUndeleteTable demonstrates how to recover a deleted table by copying it from a point in time
// that predates the deletion event.
func deleteAndUndeleteTable(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}

	ds := client.Dataset(datasetID)
	if _, err := ds.Table(tableID).Metadata(ctx); err != nil {
		return err
	}
	// Record the current time.  We'll use this as the snapshot time
	// for recovering the table.
	snapTime := time.Now()

	// "Accidentally" delete the table.
	if err := client.Dataset(datasetID).Table(tableID).Delete(ctx); err != nil {
		return err
	}

	// Construct the restore-from tableID using a snapshot decorator.
	snapshotTableID := fmt.Sprintf("%s@%d", tableID, snapTime.UnixNano()/1e6)
	// Choose a new table ID for the recovered table data.
	recoverTableID := fmt.Sprintf("%s_recovered", tableID)

	// Construct and run a copy job.
	copier := ds.Table(recoverTableID).CopierFrom(ds.Table(snapshotTableID))
	copier.WriteDisposition = bigquery.WriteTruncate
	job, err := copier.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}
	if err := status.Err(); err != nil {
		return err
	}

	ds.Table(recoverTableID).Delete(ctx)
	return nil
}

Java

Bevor Sie dieses Beispiel ausprobieren, lesen Sie die Anleitung zum Einrichten von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.

// String datasetId = "my_dataset";
String tableId = "oops_undelete_me";

// Record the current time.  We'll use this as the snapshot time
// for recovering the table.
long snapTime = Instant.now().getMillis();

// "Accidentally" delete the table.
bigquery.delete(TableId.of(datasetId, tableId));

// Construct the restore-from tableID using a snapshot decorator.
String snapshotTableId = String.format("%s@%d", tableId, snapTime);
// Choose a new table ID for the recovered table data.
String recoverTableId = String.format("%s_recovered", tableId);

// Construct and run a copy job.
CopyJobConfiguration configuration =
    CopyJobConfiguration.newBuilder(
        TableId.of(datasetId, recoverTableId),
        TableId.of(datasetId, snapshotTableId))
    .build();
Job job = bigquery.create(JobInfo.of(configuration));
job = job.waitFor();

// Check the table
StandardTableDefinition table = bigquery.getTable(
        TableId.of(datasetId, recoverTableId)).getDefinition();
System.out.println("State: " + job.getStatus().getState());
System.out.printf("Recovered %d rows.\n", table.getNumRows());

Python

Bevor Sie dieses Beispiel ausprobieren, folgen Sie der Anleitung zum Einrichten von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Python API.

import time

# TODO(developer): Import the client library.
# from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Choose a table to recover.
# table_id = "your-project.your_dataset.your_table"

# TODO(developer): Choose a new table ID for the recovered table data.
# recovery_table_id = "your-project.your_dataset.your_table_recovered"

# TODO(developer): Choose an appropriate snapshot point as epoch
# milliseconds. For this example, we choose the current time as we're about
# to delete the table immediately afterwards.
snapshot_epoch = int(time.time() * 1000)

# ...

# "Accidentally" delete the table.
client.delete_table(table_id)  # Make an API request.

# Construct the restore-from table ID using a snapshot decorator.
snapshot_table_id = "{}@{}".format(table_id, snapshot_epoch)

# Construct and run a copy job.
job = client.copy_table(
    snapshot_table_id,
    recovered_table_id,
    # Must match the source and destination tables location.
    location="US",
)  # Make an API request.

job.result()  # Wait for the job to complete.

print(
    "Copied data from deleted table {} to {}".format(table_id, recovered_table_id)
)

Weitere Informationen