BigQuery-Preise

BigQuery ist eine serverlose Datenanalyseplattform. Zur Nutzung von BigQuery müssen Sie keine einzelnen Instanzen oder virtuellen Maschinen bereitstellen. Stattdessen weist BigQuery Rechenressourcen automatisch nach Bedarf zu. Sie können die Computing-Kapazität auch vorzeitig in Form von Slots reservieren, die virtuelle CPUs darstellen. Die Preisstruktur von BigQuery spiegelt dieses Design wider.

BigQuery-Preise

BigQuery-Preise haben zwei Hauptkomponenten:

  • Computing-Preise sind die Kosten für die Verarbeitung von Abfragen, einschließlich SQL-Abfragen, benutzerdefinierter Funktionen, Skripts und bestimmten Anweisungen in der Datenbearbeitungssprache (Data Manipulation Language, DML) und der Datendefinitionssprache (Data Definition Language, DDL).

  • Speicherpreise entsprechen den Kosten für das Speichern von Daten, die Sie in BigQuery laden.

Andere Vorgänge, einschließlich der Verwendung von BigQuery Omni, BigQuery ML, BI Engine und Streaming-Lesevorgängen und Schreibvorgängen, werden in Rechnung gestellt.

Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsstufe.

Jedes von Ihnen erstellte Projekt ist mit einem Rechnungskonto verknüpft. Alle Kosten, die für BigQuery-Jobs im Rahmen dieses Projekts entstehen, werden vom verknüpften Rechnungskonto abgebucht. Speichergebühren für BigQuery werden ebenfalls dem verknüpften Konto in Rechnung gestellt. Auf der Seite mit den Cloud Billing-Berichten in der Google Cloud Console können Sie sich die BigQuery-Kosten und -Trends ansehen.

Compute-Preismodelle

BigQuery bietet zwei Computing-Preismodelle für das Ausführen von Abfragen:

  • On-Demand-Preise (pro TiB). Bei diesem Preismodell wird Ihnen die Anzahl der von einer Abfrage verarbeiteten Byte in Rechnung gestellt. Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.

  • Kapazitätspreise (pro Slot-Stunde). Bei diesem Preismodell wird Ihnen die Rechenkapazität in Rechnung gestellt, die zum Ausführen von Abfragen verwendet wird, gemessen in Slots (virtuellen CPUs) im Zeitverlauf. Dieses Modell nutzt die BigQuery-Versionen. Sie können BigQuery-Autoscaling verwenden oder Slotzusicherungen erwerben, bei denen es sich um dedizierte Kapazitäten handelt, die für Ihre Arbeitslasten immer zu einem niedrigeren Preis verfügbar sind.

Weitere Informationen zur Auswahl der Preise für Ihre Arbeitslasten finden Sie unter Arbeitslastverwaltung mit Reservierungen.

On-Demand-Computing-Preise

Abfragen werden standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.

Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf bis zu 2.000 gleichzeitige Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.

Für On-Demand-Abfragen (pro TiB) gelten folgende Preise:

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisinformationen

Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):

  • BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend den verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der darin enthaltenen Datentypen berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Abfragekosten schätzen.
  • Ihnen werden Abfragen in Rechnung gestellt, die für freigegebene Daten ausgeführt werden. Dem Dateninhaber fallen keine Kosten für den Zugriff auf seine Daten an.
  • Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Für prozedurale Jobs muss diese Überlegung pro Anweisung erfolgen.
  • Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
  • Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
  • Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites LIMIT für die Ergebnisse festlegen.
  • Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
  • On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
  • Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.

Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:

Ausführliche Beispiele zur Berechnung der Anzahl der verarbeiteten Byte finden Sie unter Berechnung der Abfragegröße.

Preise für Kapazitäts-Computing

BigQuery bietet ein kapazitätsbasiertes Analysepreismodell für Kunden, die vorhersehbare Kosten für Abfragen bevorzugen, anstatt den On-Demand-Preis pro TiB verarbeiteter Daten zu bezahlen.

Zum Aktivieren von Kapazitätspreisen verwenden Sie BigQuery-Reservierungen.

BigQuery-Versionen

BigQuery-Versionen bieten „Pay as you go“-Preise (mit Autoscaling) und optionale Zusicherungen für ein Jahr und drei Jahre. Mit Versionen nutzen Sie die Verarbeitungskapazität für Abfragen, die in Slots gemessen wird, anstatt die verarbeiteten Byte in Rechnung zu stellen.

Slotkapazität der BigQuery-Versionen:

  • ist in drei Versionen verfügbar: Standard, Enterprise und Enterprise Plus.
  • gilt für Abfragekosten, einschließlich BigQuery ML-, DML- und DDL-Anweisungen.
  • gilt nicht für Speicherkosten oder BI Engine-Kosten.
  • gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
  • das BigQuery-Autoscaling nutzen kann.
  • wird pro Sekunde mit einem Minimum von einer Minute abgerechnet

Optionale Slot-Zusicherungen in den BigQuery-Versionen:

  • sind für ein oder drei Jahre verfügbar.
  • sind in Enterprise und Enterprise Plus verfügbar.
  • sind regionale Kapazitäten. Zusicherungen in einer Region oder Mehrfachregion können nicht in einer anderen Region oder Mehrfachregion verwendet werden und können auch nicht verschoben werden.
  • können für Ihre gesamte Organisation freigegeben werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
  • werden mit einem Minimum von 100 Slots und in Schritten von 100 Slots angeboten.
  • werden automatisch verlängert, sofern sie nicht zum Ende der Laufzeit gekündigt werden.

Standardversion

In der folgenden Tabelle sind die Kosten für Slots in der Standardversion aufgeführt.

Enterprise-Version

In der folgenden Tabelle sind die Kosten für Slots in der Enterprise-Version aufgeführt.

Enterprise Plus-Version

In der folgenden Tabelle sind die Kosten für Slots in Enterprise Plus aufgeführt.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Speicherpreise

Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden. Sie zahlen für aktiven Speicherplatz und langfristigen Speicherplatz.

  • Aktiver Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die in den letzten 90 Tagen geändert wurden.

  • Langfristiger Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die 90 Tage lang nicht geändert wurden. Der Preis für die Speicherung für diese Tabelle sinkt automatisch um ca. 50 %. Aktiver und langfristiger Speicher unterscheiden sich nicht in Leistung, Langlebigkeit und Verfügbarkeit.

Die ersten 10 GiB Speicherplatz pro Monat sind kostenlos.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Informationen zu den Voraussetzungen finden Sie in der Dokumentation zum physischen Speicher.

Preisinformationen

Die Speicherpreise richten sich nach der Datenmenge, die in Ihren Tabellen gespeichert ist. Die Datengröße wird anhand der Datentypen in den einzelnen Spalten berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.

Die Preise für die Speicherung werden pro MiB und Sekunde anteilig berechnet. Wenn Sie beispielsweise aktiven logischen Speicher in us-central1 verwenden:

  • Für 512 MiB für einen halben Monat zahlen Sie 0, 00575 $
  • Für 100 GiB für einen halben Monat zahlen Sie 1, 15 $.
  • Für 1 TiB für einen vollen Monat bezahlen Sie 23, 552 $

Die Speichernutzung wird in Gibibyte-Monaten (GiB-Monaten) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB). Der endgültige Nutzungswert ist das Produkt aus der Datengröße in Gibibyte und der Speichernutzungszeit in Monaten.

Wenn die Daten in einer Tabelle nicht innerhalb von 90 aufeinanderfolgenden Tagen geändert oder gelöscht werden, wird die Langzeitspeicherung in Rechnung gestellt. Es kommt zu keiner Beeinträchtigung der Leistung, Langlebigkeit, Verfügbarkeit oder anderer Funktionen, wenn eine Tabelle in die Langzeitspeicherung übergeht.

Die Kosten für jede Partition einer partitionierten Tabelle werden bei der Langzeitspeicherung separat berechnet. Wenn eine Partition in den letzten 90 Tagen nicht geändert wurde, werden die Daten in dieser Partition als Langzeitspeicherung betrachtet und zum Rabattpreis in Rechnung gestellt.

Wird die Tabelle bearbeitet, gilt wieder der reguläre Speicherpreis, und der 90-Tage-Timer wird auf null zurückgesetzt. Durch jeden Vorgang, bei dem die Daten in einer Tabelle geändert werden, wird der Timer zurückgesetzt. Beispiele:

Vorgang Details
Daten in eine Tabelle laden Jeder Lade- oder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Daten in eine Tabelle kopieren Jeder Kopierjob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Abfrageergebnisse in eine Tabelle schreiben Jeder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Datenbearbeitungssprache (Data Manipulation Language, DML) verwenden Einsatz einer DML-Anweisung, um Tabellendaten zu bearbeiten.
Datendefinitionssprache (DDL) verwenden CREATE OR REPLACE TABLE-Anweisung verwenden, um eine Tabelle zu ersetzen
Daten in eine Tabelle streamen Aufnahme von Daten mithilfe des API-Aufrufs tabledata.insertAll.

Bei allen anderen Vorgängen wird der Timer nicht zurückgesetzt. Dazu gehören:

  • Eine Tabelle abfragen
  • Eine Ansicht erstellen, mit der eine Tabelle abgefragt wird
  • Daten aus einer Tabelle exportieren
  • Eine Tabelle (in eine andere Zieltabelle) kopieren.
  • Eine Tabellenressource patchen oder aktualisieren

Für Tabellen, die den 90-Tage-Schwellenwert während eines Abrechnungszeitraums erreichen, wird der Preis entsprechend anteilig berechnet.

Die Kosten für die Langzeitspeicherung gelten nur für den BigQuery-Speicher und nicht für Daten in externen Datenquellen wie Bigtable, Cloud Storage und Google Drive.

Berechnung der Datengröße

Beim Laden von Daten in BigQuery oder beim Abfragen von Daten werden die Kosten anhand der Datengröße berechnet. Dazu wird die Größe des Datentyps der jeweiligen Spalte herangezogen.

Die Größe der gespeicherten Daten und die Größe der durch Ihre Abfragen verarbeiteten Daten wird in Gibibyte (GiB) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB).

Weitere Informationen finden Sie unter Datentypgrößen.

Data Transfer Service – Preise

Die Gebühren für den BigQuery Data Transfer Service werden monatlich anteilig in Rechnung gestellt und so berechnet:

Datenquelle Monatliche Gebühr (anteilig) Notes
Campaign Manager

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Cloud Storage

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Amazon S3

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1,2,3
Google Ads

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Ad Manager

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Merchant Center

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Play

25 $ pro eindeutigem Paketnamen in der Tabelle Installs_country.

1
Search Ads 360

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
YouTube-Kanal

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
YouTube-Rechteinhaber

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Data Warehouse Monatliche Gebühr (anteilig) Notes
Teradata

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1, 2, 3, 4
Amazon Redshift

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1, 2, 3
Drittanbieter-Connectors Es fallen Kosten an Weitere Informationen finden Sie unter 5.

Hinweise zu den Übertragungskosten

Alle Übertragungen

1. Nach der Übertragung von Daten in BigQuery erfolgt die standardmäßige Speicherung und Abfrage in BigQuery.

Migrationen von anderen Plattformen

2. Das Extrahieren, das Hochladen in einen Cloud Storage-Bucket und das Laden von Daten in BigQuery ist kostenlos.

3. Kosten können auch außerhalb von Google Cloud durch die Nutzung des BigQuery Data Transfer Service anfallen, z. B. Gebühren für AWS- oder Azure-Datenübertragungen.

Teradata-Migrationen

4. Die Daten werden nach dem Hochladen in BigQuery nicht automatisch aus Ihrem Cloud Storage-Bucket gelöscht. Daher sollten Sie sie selbst herauslöschen, um weitere Speicherkosten zu vermeiden. Weitere Informationen finden Sie unter Cloud Storage – Preise.

Drittanbieter-Connectors

5. Für Connectors von Drittanbietern fallen Kosten an. Das Preismodell unterscheidet sich je nach Partner und Connector. Weitere Preisinformationen finden Sie in den einzelnen Connectors, wenn Sie sich in Marketplace registrieren.

Eindeutige IDs berechnen

Jede Übertragung, die Sie erstellen, generiert einen oder mehrere Durchläufe pro Tag. Bei jedem Durchlauf werden alle vorkommenden eindeutigen IDs und das jeweilige Datum gespeichert, an dem der Durchlauf abgeschlossen wurde. IDs werden nur an dem Tag gezählt, an dem die Übertragung abgeschlossen wird. Wenn beispielsweise ein Übertragungsdurchlauf am 14. Juli beginnt, aber erst am 15. Juli abgeschlossen wird, werden die eindeutigen IDs am 15. Juli gezählt.

Kommt eine eindeutige ID an einem bestimmten Tag in mehr als einem Übertragungsdurchlauf vor, wird sie nur einmal gezählt. Bei unterschiedlichen Übertragungen werden dieselben eindeutigen IDs separat gezählt. Kommt eine eindeutige ID in den Durchläufen zweier unterschiedlicher Übertragungen vor, wird die ID zweimal gezählt.

Berechnung von Backfill-Gebühren

Wenn Sie einen Backfill planen, wird für jeden Tag ein Übertragungsdurchlauf geplant. Die Gebühren dafür werden Ihnen wie unter Eindeutige IDs berechnen beschrieben in Rechnung gestellt.

Gebühren für BigQuery einstellen

Deaktivieren oder löschen Sie die Übertragung, um die Gebührenberechnung zu stoppen.

Preisbeispiele für BigQuery Data Transfer Service

Beispiel 1: Sie haben 1 Übertragung mit 3 Durchläufen, die am selben Tag abgeschlossen werden. Bei den Durchläufen werden folgende eindeutige IDs aufgezeichnet:

  • 1. Durchlauf: A, B und C
  • 2. Durchlauf: A
  • 3. Durchlauf: C und D

Da alle Durchläufe am selben Tag abgeschlossen wurden, werden Ihnen Kosten basierend auf 4 eindeutigen IDs (A, B, C, D) in Rechnung gestellt. Da ID A und ID C in zwei verschiedenen Durchläufen aufgezeichnet wurden, die am selben Tag abgeschlossen wurden, werden die IDs A und C nur einmal gezählt. Wenn diese 3 Übertragungsdurchläufe einen Monat lang jeden Tag abgeschlossen werden, basiert Ihre monatliche Gebühr auf 4 eindeutigen IDs. Wenn die Anzahl der abgeschlossenen Übertragungsdurchläufe geringer ist als die Anzahl der Tage im Monat, werden die Kosten anteilig in Rechnung gestellt.

Beispiel 2: Sie haben mehrere Übertragungen mit Durchläufen, die am selben Tag abgeschlossen werden.

  • Übertragung 1 wird ausgeführt und zeichnet die folgenden eindeutigen IDs auf: A, B und C
  • 2. Übertragung: A
  • 3. Übertragung: C und D

Da die eindeutigen IDs in Durchläufen für verschiedene Übertragungen gezählt werden, werden Ihnen Kosten basierend auf sechs eindeutigen IDs berechnet: A, B und C aus dem Durchlauf von Übertragung 1, A aus dem Durchlauf von Übertragung 2 sowie C und D aus dem Durchlauf von Übertragung 3. Wenn die Anzahl der abgeschlossenen Übertragungsdurchläufe geringer ist als die Anzahl der Tage im Monat, werden die Kosten anteilig in Rechnung gestellt.

BigQuery Omni-Preise

BigQuery Omni bietet abhängig von Ihren Arbeitslasten und Anforderungen die folgenden Preismodelle.

On-Demand-Computing-Preise

Ähnlich wie bei der On-Demand-Analyse in BigQuery werden Abfragen für BigQuery Omni standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet. Dabei bezahlen Sie für die von Ihren Abfragen gescannten Daten.

Bei On-Demand-Preisen haben Sie in der Regel Zugriff auf einen großen Pool an gleichzeitigen Slots, die auf alle Abfragen in einem Projekt aufgeteilt werden. BigQuery Omni greift in regelmäßigen Abständen vorübergehend über dieses Limit hinaus, um kleinere Abfragen zu beschleunigen. Außerdem kann es gelegentlich vorkommen, dass weniger Slots verfügbar sind, wenn es zu großen Konflikten um On-Demand-Kapazität an einem bestimmten Standort kommt.

Für On-Demand-Abfragen (pro TiB) von BigQuery Omni gelten folgende Preise:

Region Preis pro TiB
AWS North Virginia (aws-us-east-1) 7,82 $
Azure North Virginia (azure-eastus2) 9,13 $
AWS Seoul (aws-ap-northeast-2) 10,00 $
AWS Oregon (aws-us-west-2) 7,82 $
AWS Irland (aws-eu-west-1) 8,60 $
AWS Sydney (aws-ap-southeast-2) $10,55
AWS Frankfurt (aws-eu-central-1) $10,16

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisangaben

Die Details und Einschränkungen ähneln den Preisen für BigQuery-Analysen. Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):

  • BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend der verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der Datentypen in der Spalte berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Berechnung der Datengröße.
  • Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei prozeduralen Jobs muss diese Überlegung pro Anweisung erfolgen.
  • Die Gebühren werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
  • Durch das Abbrechen eines laufenden Abfragejobs können Gebühren bis zur volle Höhe der Abfrage anfallen, wenn Sie die Abfrage bis zum Abschluss ausführen lassen.
  • Beim Ausführen einer Abfrage werden Ihnen die Kosten entsprechend den Daten berechnet, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch dann, wenn Sie für die Ergebnisse ein explizites LIMIT festlegen.
  • Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
  • On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
  • Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dies kann die Anzahl der gescannten Byte reduzieren.

BigQuery bietet Mechanismen zur Kostenkontrolle, mit denen Sie Ihre Abfragekosten begrenzen können. Sie können Folgendes festlegen:

BigQuery Omni mit Versionen

BigQuery Omni-Regionen unterstützen BigQuery-Versionen. Derzeit wird in Omni-Regionen nur die Enterprise Edition unterstützt.

Die folgende Tabelle zeigt die Kosten für Slots in Omni-Regionen

AWS North Virginia (aws-us-east-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,50 $ (3 Jahre in Rechnung gestellt) 100

Azure North Virginia (azure-eastus2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 8,80 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,30 $ (3 Jahre in Rechnung gestellt) 100

AWS Seoul (aws-ap-northeast-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 9,60 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7,7 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,80 $ (3 Jahre in Rechnung gestellt) 100

AWS Oregon (aws-us-west-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6,00 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,50 $ (3 Jahre in Rechnung gestellt) 100

AWS Irland (aws-eu-west-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 8,25 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6,60 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,95 $ (3 Jahre in Rechnung gestellt) 100

AWS Sydney (aws-ap-southeast-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 10,13 $ (pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 8,10 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 6,08 $ (3 Jahre in Rechnung gestellt) 100

AWS Frankfurt (aws-eu-central-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 9,75 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7,80 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,85 $ (3 Jahre in Rechnung gestellt) 100

Cloudübergreifende Omni-Channel-Datenübertragung

Wenn Sie die cloudübergreifenden Funktionen von Omni (Cloudübergreifende Übertragung, Tabelle als Auswahl erstellen, Einfügen in Auswahl, Cross-Cloud Joins und materialisierte Ansichten in der Cloud) verwenden, bei denen Daten von AWS oder Azure zu Google Cloud verschoben werden, fallen zusätzliche Gebühren für die Datenübertragung an.

Speziell für cloudübergreifende materialisierte Ansichten, „Tabelle als Auswahl erstellen“, „In Auswahl einfügen“ und „Cloudübergreifende Joins“ fallen während der Vorabversion keine Gebühren an. Ab dem 29. Februar 2024 sind diese Dienste allgemein verfügbar. Die Datenübertragung wird Ihnen in Rechnung gestellt. Die Datenübertragung wird Ihnen nur in Rechnung gestellt, wenn Sie einen der oben aufgeführten Dienste von einer AWS- oder Azure-Region in eine Google Cloud BigQuery-Region nutzen. Der Preis pro GiB basiert auf der von AWS oder Azure zu Google Cloud übertragenen Datenmenge.

Link zur SKU-Tabelle: CCMV-Abrechnungs-SKUs

Artikelnummer Abrechnungsmodell Anzeige Preis
Cloudübergreifende Datenübertragung von AWS North Virginia (aws-us-east-1) nach Google Cloud Nordamerika nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von Azure North Virginia (azure-eastus2) nach Google Cloud Nordamerika nutzungsbasiert GiB übertragen 0,0875 $
Cloudübergreifende Datenübertragung von AWS Seoul (aws-ap-northeast-2) zu Google Cloud Asia nutzungsbasiert GiB übertragen 0,126 $
Cloudübergreifende Datenübertragung von AWS Oregon (aws-us-west-2) nach Google Cloud Nordamerika nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von AWS Ireland (aws-eu-west-1) zu Google Cloud Europe nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von AWS Sydney (aws-ap-southeast-2) zu Google Cloud Oceania nutzungsbasiert GiB übertragen 0,114 $
Cloudübergreifende Datenübertragung von AWS Frankfurt (aws-eu-central-1) zu Google Cloud Europe nutzungsbasiert GiB übertragen € 0,09

Omni-verwalteter Speicher

Wenn Sie die Funktion „Cross-Cloud Materialized View“ von Omni nutzen, wird Ihnen auch das Erstellen lokaler materialisierter Ansichten im verwalteten BigQuery-Speicher in AWS in Rechnung gestellt. Ihnen wird pro GiB der physische Speicher berechnet, der für die lokale materialisierte Ansicht verwendet wird.

Vorgang Preise
Aktiver physischer Speicher (aws-us-east-1) 0,05 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-us-east-1) 0,025 $ pro GiB und Monat
Aktiver physischer Speicher (azure-eastus2) 0,05 $ pro GiB und Monat
Langfristiger physischer Speicher (azure-eastus2) 0,025 $ pro GiB und Monat
Aktiver physischer Speicher (aws-ap-northeast-2) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-ap-northeast-2) 0,026 $ pro GiB und Monat
Aktiver physischer Speicher (aws-us-west-2) 0,04 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-us-west-2) 0,02 $ pro GiB und Monat
Aktiver physischer Speicher (aws-eu-west-1) 0,044 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-eu-west-1) 0,022 $ pro GiB und Monat
Aktiver physischer Speicher (aws-ap-southeast-2) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-ap-southeast-2) 0,026 $ pro GiB und Monat
Aktiver physischer Speicher (aws-eu-central-1) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-eu-central-1) 0,026 $ pro GiB und Monat

Preise für die Datenaufnahme

BigQuery bietet zwei Modi für die Datenaufnahme:

Weitere Informationen dazu, welcher Modus ausgewählt wird, finden Sie unter Einführung in das Laden von Daten.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisinformationen

Standardmäßig werden Ihnen keine Gebühren für das Laden von Daten aus dem Cloud-Speicher oder für lokale Dateien in BigQuery in Rechnung gestellt. Für Ladejobs wird standardmäßig ein gemeinsam genutzter Pool von Slots verwendet. BigQuery gibt keine Garantien für die verfügbaren Kapazitäten dieses gemeinsamen Pools oder den angezeigten Durchsatz. Alternativ können Sie dedizierte Slots erwerben, um Ladejobs auszuführen. Für dedizierte Slots werden kapazitätsbasierte Preise berechnet. Wenn Nutzlasten einer Reservierung zugewiesen sind, verlieren sie den Zugriff auf den kostenlosen Pool. Weitere Informationen finden Sie unter Zuweisungen.

Sobald die Daten in BigQuery geladen sind, gelten die entsprechenden Speicherpreise von BigQuery. Wenn Sie Daten aus Cloud Storage laden, wird Ihnen das Speichern der Daten in Cloud Storage in Rechnung gestellt. Weitere Informationen finden Sie auf der Seite mit den Cloud Storage-Preisen unter Datenspeicherung.

Preise für die Datenextraktion

BigQuery bietet die folgenden Modi der Datenextraktion:

  • Batch-Export. Mit einem Extrahierjob können Sie Tabellendaten nach Cloud Storage exportieren. Für den Export von Daten aus einer BigQuery-Tabelle mit einem Extrahierjob fallen keine Verarbeitungsgebühren an.

  • Abfrageergebnisse exportieren. Verwenden Sie die Anweisung EXPORT DATA, um Abfrageergebnisse in Cloud Storage oder Bigtable zu exportieren. Die Verarbeitung der Abfrageanweisung mit dem On-Demand- oder kapazitätsbasierten Modell wird Ihnen in Rechnung gestellt.

  • Streaming-Lesevorgänge. Verwenden Sie die Storage Read API, um Tabellendaten mit hohem Durchsatz zu lesen. Ihnen wird die Menge der gelesenen Daten in Rechnung gestellt.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preise für Datenübertragung im Batch-Export

Die Datenübertragung wird Ihnen in Rechnung gestellt, wenn Sie Daten im Batch aus BigQuery in einen Cloud Storage-Bucket in einer anderen Region exportieren. Gehen Sie dazu so vor:

Fall Beispiel Rate
Innerhalb desselben Speicherorts exportieren Von us-east1 nach us-east1 Kostenlos
Aus BigQuery (multiregional) „US“ exportieren Von (multiregional) USA nach us-central1 (Iowa) Kostenlos
Aus BigQuery (multiregional) „US“ exportieren Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) Siehe folgende Tabelle
Aus BigQuery-Multi-Region EU exportieren Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) Kostenlos
Aus BigQuery-Multi-Region EU exportieren Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) Siehe folgende Tabelle
Standortübergreifend exportieren Von us-east1 nach us-central1 Siehe folgende Tabelle
Quellort Zielort
Nördliches Amerika Europa Asien Indonesien Ozeanien Naher Osten Lateinamerika Afrika
Nördliches Amerika 0,02 $ pro GiB 0,05 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Europa 0,05 $ pro GiB 0,02 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Asien 0,08 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Indonesien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Ozeanien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Naher Osten 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,08 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Lateinamerika 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Afrika 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB

Storage Read API-Datenübertragung in Google Cloud

Fall Beispiele Rate
Über temporäre Tabellen auf im Cache gespeicherte Abfrageergebnisse zugreifen
  • Temporäre Tabellen „anonymes Dataset“
Kostenlos
Datenlesevorgänge am selben Standort
  • Von us-east1 bis us-east1
Kostenlos
Daten werden aus einer BigQuery-Multi-Region an einen anderen BigQuery-Standort gelesen und beide Standorte befinden sich auf demselben Kontinent.
  • Vom us bis zum us-east1
  • Vom eu bis zum europe-west1
Kostenlos
Daten werden zwischen zwei Standorten auf demselben Kontinent gelesen (sofern keines der oben genannten kostenlosen Szenarien zutrifft).
  • Vom us-east1 bis zum northamerica-northeast1
  • Von europe-west1 bis europe-north1
0,01 $/GiB*
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen keiner Australien ist.
  • Vom us bis zum asia
  • Von europe-west1 bis southamerica-east1
0,08 $ pro GiB
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen einer Australien ist.
  • Vom us bis zum australia-southeast1
  • Von australia-southeast1 bis europe-west1
0,15 $ pro GiB

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Allgemeine Netzwerknutzung der Storage Read API

Monatliche Nutzung Datenübertragung an Ziele auf der ganzen Welt (außer Asien und Australien)
(pro GiB)
Datenübertragung an Ziele in Asien (außer China, aber einschließlich Hongkong)
(pro GiB)
Datenübertragung an Ziele in China (außer Hongkong)
(pro GiB)
Datenübertragung an Ziele in Australien
(pro GiB)
Eingehende Datenübertragung
0–1 TiB 0,12 $ 0,12 $ 0,19 $ 0,19 $ Kostenlos
1–10 TiB 0,11 $ 0,11 $ 0,18 $ 0,18 $ Kostenlos
10+ TiB 0,08 $ 0,08 $ 0,15 $ 0,15 $ Kostenlos

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisangaben zur Storage Read API

Für die Storage Read API gilt ein On-Demand-Preismodell. Bei On-Demand-Preisen berechnet BigQuery die Anzahl der verarbeiteten Byte (auch als gelesene Byte bezeichnet). Die On-Demand-Preise basieren ausschließlich auf der Nutzung mit einer kostenlosen Lesestufe von 300 TiB pro Monat für jedes Rechnungskonto. Byte, die im Rahmen von Lesevorgängen aus temporären Tabellen gescannt werden, sind kostenlos und werden nicht auf das kostenlose Kontingent von 300 TiB angerechnet. Diese 300 TiB gelesenen freien Byte befinden sich auf der Komponente für gelesene Byte und gelten nicht für die zugehörige ausgehende Datenübertragung.

Beachten Sie außerdem folgende Hinweise zu den Storage Read API-Gebühren:

  • Ihnen wird die gesamte gelesene Datenmenge in Rechnung gestellt. Sowohl die insgesamt pro Spalte gelesenen Daten als auch die Datengröße werden anhand des Datentyps in der Spalte berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
  • Ihnen werden alle während einer Lesesitzung gelesenen Daten in Rechnung gestellt, auch wenn ein ReadRows-Aufruf fehlschlägt.
  • Wenn Sie einen ReadRows-Aufruf abbrechen, bevor das Ende des Streams erreicht ist, werden Ihnen alle Daten in Rechnung gestellt, die bis dahin gelesen wurden. Das betrifft auch Daten, die vor dem Abbruch des ReadRows-Aufrufs gelesen, aber nicht an Sie zurückgegeben wurden.
  • Sie sollten wann immer möglich partitionierte und geclusterte Tabellen verwenden. Sie können die gelesene Datenmenge reduzieren, indem Sie Partitionen mit einer WHERE-Klausel bereinigen. Weitere Informationen finden Sie unter Partitionierte Tabellen abfragen.
  • Bei Verwendung von Interconnect gelten die Cloud Interconnect-Preise anstelle der Preise für die allgemeine Netzwerknutzung der BigQuery Storage Read API.

Preise für Datenreplikation

BigQuery bietet zwei Modi zum Replizieren (Kopieren) von Daten zwischen Regionen:

  • Regionenübergreifender Text. Einmalige oder geplante Kopie von Tabellendaten zwischen Regionen oder Mehrfachregionen, siehe Datasets kopieren oder Tabellen kopieren.

  • Regionenübergreifende Replikation. Eine laufende inkrementelle Replikation eines Datasets zwischen zwei oder mehreren verschiedenen Regionen oder multiregionalen Standorten finden Sie unter Regionenübergreifende Replikation von Datasets.

Speicher für replizierte Daten

Replizierte Daten, die in der Zielregion oder dem multiregionalen Standort gespeichert sind, werden gemäß den BigQuery-Speicherpreisen berechnet.

Preise für die Datenübertragung der Datenreplikation

Die Datenübertragung wird für das replizierte Datenvolumen in Rechnung gestellt. Die Anwendungsfälle und die Aufschlüsselung der Gebühren für die Datenübertragung werden so aufgeführt:

Fall Beispiel Rate
Innerhalb desselben Standorts replizieren Von us-east1 nach us-east1 Kostenlos
Aus BigQuery (multiregional) „US“ replizieren Von (multiregional) USA nach us-central1 (Iowa) Kostenlos
Aus BigQuery (multiregional) „US“ replizieren Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) Siehe folgende Tabelle
Aus BigQuery-Multi-Region EU replizieren Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) Kostenlos
Aus BigQuery-Multi-Region EU replizieren Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) Siehe folgende Tabelle
Standortübergreifend replizieren Von us-east1 nach us-central1 Siehe folgende Tabelle
Quellort Zielort
Nördliches Amerika Europa Asien Indonesien Ozeanien Naher Osten Lateinamerika Afrika
Nördliches Amerika 0,02 $ pro GiB 0,05 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Europa 0,05 $ pro GiB 0,02 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Asien 0,08 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Indonesien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Ozeanien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Naher Osten 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,08 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Lateinamerika 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Afrika 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB

Externe Dienste

BigQuery kann externe Dienste nutzen, um Workflows für Datenanalysen zu vereinfachen. Für einige dieser Dienste außerhalb von BigQuery werden Ihnen weiterhin BigQuery-SKUs in Rechnung gestellt:

BigQuery Studio-Notebooks

BigQuery Studio-Notebooks basieren auf einer Standard-Notebook-Laufzeit, die die Colab Enterprise-Laufzeit verwendet, um die Ausführung von Notebookcode zu ermöglichen. Die Nutzung dieser Dienste wird als „Pay as you go“-Slots und als GB/s-Nutzung für SSDs abgerechnet. Für BigQuery-Notebooks werden ab dem 20. April Gebühren berechnet.

Die Standard-Notebook-Laufzeit ist eine von Google bereitgestellte virtuelle Maschine (VM), die den Code in Ihrem Notebook (IPYNB-Datei) ausführen kann. Damit können BigQuery-Kunden Python-Scripts ausführen. Bei Inaktivität fallen keine Kosten an.

*Die „Pay as you go“-Slots werden in der Version gemessen, die auf Projektebene verwendet wird.

Das Standard-Notebook weist PD und SSD im Hintergrund zu, damit Nutzer neue Data-Science-Pakete installieren und ihre Arbeit über den von ihnen ausgeführten Python-Code hinaus verwalten können. Sobald der nichtflüchtige Speicher und die SSD freigegeben sind, fallen keine Kosten mehr an.

Preisinformationen zu BigQuery Studio-Notebooks:

  • Die Standardlaufzeitkonfiguration kann zur Verbesserung der Nutzerfreundlichkeit geändert werden. Weitere Informationen
  • Colab Enterprise-Laufzeiten werden standardmäßig nach 180 Minuten Inaktivität beendet. Auf dieser Seite wird das Feature zum Herunterfahren bei Inaktivität beschrieben. Außerdem erfahren Sie, wie Sie die Standardeinstellungen für das Herunterfahren bei Inaktivität ändern oder das Feature deaktivieren, wenn Sie eine Laufzeitvorlage erstellen.

BigQuery ML – Preise

BigQuery ML-Modelle können in zwei Kategorien unterteilt werden: eingebundene Modelle und externe Modelle. Integrierte BigQuery ML-Modelle werden in BigQuery trainiert, z. B. lineare Regression, logistische Regression, Mittelwerte, Matrixfaktorisierung, PCA- und Zeitachsenmodelle (z. B. ARIMA_PLUS) Externe BigQuery ML-Modelle werden mit anderen Google Cloud-Diensten, DNN, Boosted Tree und Random Forest (die mit Vertex AI trainiert werden) sowie AutoML-Modellen (im Vertex AI Tables-Back-End) trainiert. Die Preise für das BigQuery ML-Modelltraining richten sich nach dem Modelltyp und Ihrem Nutzungsmuster: Versionen oder On-Demand. Die Vorhersage- und Bewertungsfunktionen werden in BigQuery ML für alle Modelltypen entsprechend den unten angegebenen Preisen ausgeführt.

Preise für BigQuery ML-Versionen

BigQuery ML ist in Enterprise und Enterprise Plus für Kunden verfügbar, die ein auf Rechenkapazität (Anzahl der Slots) basierendes Preismodell gegenüber dem On-Demand-Modell (Anzahl der verarbeiteten Byte) bevorzugen. Kunden können mit Enterprise- oder Enterprise Plus-Reservierungen alle Features von BigQuery ML nutzen. Die Nutzung von BigQuery ML ist in der Nutzung von BigQuery-Versionen enthalten.

Reservierungen zum Erstellen eingebundener Modelle

BigQuery hat drei Jobtypen für Reservierungszuweisungen: QUERY, PIPELINE und ML_EXTERNAL. Zuweisungen vom Typ QUERY, die für Analyseabfragen verwendet werden, werden auch zum Ausführen von CREATE MODEL-Abfragen für integrierte BigQuery ML-Modelle verwendet. Integrierte Modellschulungen und analytische Abfragen teilen sich den gleichen Ressourcenpool in den zugewiesenen Reservierungen und verhalten sich in Bezug auf die Berechtigung und die Verwendung von freien Slots aus anderen Reservierungen gleich.

Reservierungen zum Erstellen externer Modelle

Da externe Modelle außerhalb von BigQuery trainiert werden, sind diese Arbeitslasten nicht auf Abruf verfügbar. Damit andere Workloads nicht betroffen sind, können für diese externen Jobs nur Reservierungen mit ML_EXTERNAL-Jobtypzuweisung verwendet werden. Unter Arbeitslastverwaltung mit Reservierungen wird beschrieben, wie Reservierungen für externe Modelltrainingsjobs erstellt werden. Die Slotnutzung pro Job wird so berechnet, dass die Preisparität zwischen BigQuery-Slots und den Kosten für externe Google Cloud-Dienste aufrechterhalten wird.

On-Demand-Preise für BigQuery ML

Die Abrechnung der BigQuery ML-Nutzung nach On-Demand-Preisen hängt von der Art des jeweiligen Vorgangs ab, also Modelltyp, -erstellung, -bewertung, -prüfung oder ‑vorhersage.

Die On-Demand-Preise für BigQuery ML sehen so aus:

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

1 Die CREATE MODEL-Anweisung stoppt bei iterativen Modellen nach 50 Iterationen. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.

2 Wenn bei Zeitachsenmodellen zur automatischen Hyperparameteroptimierung auto.arima aktiviert ist, werden in der Trainingsphase mehrere Kandidatenmodelle angepasst und bewertet. In diesem Fall wird die Anzahl der Byte, die von der eingegebenen SELECT-Anweisung verarbeitet werden, mit der Anzahl der Kandidatenmodelle multipliziert, die mit der Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS oder der Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS_XREG gesteuert werden kann. Dies gilt sowohl für On-Demand- als auch für Editions-Preise. Die folgenden Hinweise gelten für die Erstellung von Zeitachsenmodellen:

  • Bei Prognosen für einzelne Zeitachsen mit aktiviertem Auto-Arima ist die Anzahl der Kandidatenmodelle (1, 2, 3, 4, 5) (6, 12, 20, 30, 42), wenn das nicht saisonale d gleich 1 ist. Andernfalls beträgt die Anzahl der Kandidatenmodelle (3, 6, 10, 15, 21).AUTO_ARIMA_MAX_ORDER

  • Bei Prognosen für mehrere Zeitachsen mit TIME_SERIES_ID_COL werden (6, 12, 20, 30, 42) Kandidatenmodelle berechnet, wenn AUTO_ARIMA_MAX_ORDER gleich (1, 2, 3, 4, 5) ist.

  • Hinweis: Diese Modellauswahl gilt nur für die Modellerstellung. Für die Modellbewertung, -prüfung und -vorhersage wird nur das ausgewählte Modell zu den regulären Abfragepreisen verwendet.

3 Weitere Informationen finden Sie unter „BigQuery ML – Remote-Modellinferenz“.

BigQuery ML-Remote-Modelltraining und -Inferenz

Mit BigQuery ML können Kunden ein Remotemodell erstellen, das auf ein Vertex AI-Basismodell, einen Vertex AI-Endpunkt für Onlinevorhersagen oder eine Cloud AI API wie die Cloud AI Vision API ausgerichtet ist.

Die Preise für die Inferenz von BigQuery ML-Remote-Modellen setzen sich aus folgenden Teilen zusammen:

  1. Die von BigQuery verarbeiteten Byte werden gemäß Standardpreisen wie On-Demand- oder Editionspreisen abgerechnet.
  2. Darüber hinaus fallen für den Remote-Endpunkt folgende Kosten an:
    Remote-Modelltypen Inferenzfunktionen Preise
    Vertex AI LLM ML.GENERATE_TEXT
    ML.GENERATE_EMBEDDING
    https://cloud.google.com/vertex-ai/pricing#generative_ai_models
    Cloud AI NLP ML.UNDERSTAND_TEXT https://cloud.google.com/natural-language/pricing
    KI-Übersetzung in Google Cloud ML.TRANSLATE https://cloud.google.com/translate/pricing
    Cloud AI Vision ML.ANNOTATE_IMAGE https://cloud.google.com/vision/pricing
    Vertex AI-Endpunkte ML.PREDICT https://cloud.google.com/vertex-ai/pricing

Für Modelle mit Remote-Endpunkten wird eine andere Rechnung als die oben genannten Dienste ausgestellt. Sie können das Abrechnungslabel billing_service = 'bigquery_ml' und das Abrechnungslabel bigquery_job_id verwenden, um die exakten Gebühren zu filtern.

Überwachte Abstimmungskosten durch LLM

Wenn Sie die überwachte Abstimmung mit Remote-Modellen über Vertex AI-LLMs verwenden, werden die Kosten so berechnet:

  • Die verarbeiteten Byte aus der Tabelle mit den Trainingsdaten, die in der AS SELECT-Klausel angegeben sind. Diese Gebühren werden Ihrem Projekt von BigQuery in Rechnung gestellt.
  • Die GPU- oder TPU-Nutzung zum Abstimmen des LLM. Diese Gebühren werden Ihrem Projekt von Vertex AI in Rechnung gestellt. Weitere Informationen finden Sie unter Vertex AI-Preise.

BigQuery ML – Probelauf

Da eine erste Einschätzung wegen der zugrunde liegenden Algorithmen einiger Modelltypen und aufgrund von Abweichungen bei der Abrechnung sehr kompliziert ist, werden die verarbeiteten Datenmengen bei diesen Modelltypen erst nach Abschluss des Trainings berechnet.

BigQuery ML – Preisbeispiel

Die Kosten für BigQuery ML werden in Ihrer Abrechnung nicht gesondert aufgeführt. Wenn Sie BigQuery-Versionen mit aktuellen Modellen verwenden, sind die Gebühren für BigQuery ML bereits enthalten.

Wenn Sie On-Demand-Preise verwenden, sind die Kosten für BigQuery ML in den Kosten für BigQuery-Analysen (Abfragen) enthalten.

Für BigQuery ML-Jobs, die Prüfungs-, Bewertungs- und Vorhersagevorgänge ausführen, fallen die gleichen Kosten an wie bei On-Demand-Abfragen. Da für CREATE MODEL-Abfragen andere Gebühren gelten, müssen Sie Kosten für CREATE MODEL-Jobs mithilfe des Audit-Logs von Cloud Logging unabhängig voneinander berechnen. Anhand der Audit-Logs können Sie ermitteln, welche Byte vom BigQuery ML-Dienst für jeden BigQuery ML-Job vom Typ CREATE MODEL berechnet werden. Anschließend multiplizieren Sie die berechneten Byte mit den entsprechenden Kosten für CREATE MODEL-Abfragen an Ihrem regionalen oder multiregionalen Standort.

Die Kosten für einen Abfragejob am Standort US mit einer BigQuery ML-CREATE MODEL-Anweisung können Sie beispielsweise so berechnen:

  1. Öffnen Sie in der Google Cloud Console die Seite Cloud Logging.

  2. Prüfen Sie, ob als Produkt BigQuery festgelegt ist.

  3. Klicken Sie auf den Drop-down-Pfeil neben dem Feld „Nach Label oder Textsuche filtern“ und wählen Sie In erweiterten Filter umwandeln aus. Hierdurch wird dem Filter der folgende Text hinzugefügt:

    resource.type="bigquery_resource"
    
  4. Fügen Sie in der zweiten Zeile unter der Zeile resource.type den folgenden Text hinzu:

    protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.statementType="CREATE_MODEL"
    
  5. Wählen Sie in der Drop-down-Liste rechts neben der Schaltfläche Filter senden einen geeigneten Zeitraum aus. Wenn Sie beispielsweise Letzte 24 Stunden auswählen, werden Ihnen die BigQuery ML-CREATE MODEL-Jobs angezeigt, die in den letzten 24 Stunden abgeschlossen wurden.

  6. Klicken Sie auf Filter senden, um die Jobs aus dem gewählten Zeitraum aufzurufen.

  7. Klicken Sie auf Ansichtsoptionen, sobald die Daten zu sehen sind, und wählen Sie Benutzerdefinierte Felder ändern aus.

  8. Geben Sie im Dialogfeld Benutzerdefinierte Felder hinzufügen Folgendes ein:

    protoPayload.serviceData.jobCompletedEvent.job.jobStatistics.totalBilledBytes
    
  9. Klicken Sie auf Speichern, um die Ergebnisse zu aktualisieren.

  10. Multiplizieren Sie die in Rechnung gestellten Byte mit dem On-Demand-Preis für BigQuery ML, um die Kosten für den BigQuery ML-CREATE MODEL-Job zu berechnen. In diesem Beispiel wurden vom CREATE MODEL-Job 100.873.011.200 Byte verarbeitet. Zur Berechnung der Kosten dieses Jobs am multiregionalen Standort US teilen Sie die in Rechnung gestellten Byte durch die Anzahl der Byte pro TiB und multiplizieren das Ergebnis mit den Kosten für die Modellerstellung:

    100873011200/1099511627776 x $312.5 = $28.669

BI Engine-Preise

BI Engine beschleunigt SQL-Abfragen, indem BigQuery-Daten im Arbeitsspeicher zwischengespeichert werden. Die Menge der gespeicherten Daten wird durch die Kapazität begrenzt, die Sie erwerben. Wenn Sie BI Engine-Kapazität erwerben möchten, erstellen Sie eine BI Engine-Reservierung in dem Projekt, in dem Abfragen ausgeführt werden.

Wenn BI Engine eine Abfrage beschleunigt, ist die Abfragephase, die Tabellendaten liest, kostenlos. Die nachfolgenden Phasen hängen von der Art der BigQuery-Preise ab, die Sie verwenden:

  • Bei On-Demand-Preisen werden Phasen, die BI Engine verwenden, mit 0 gescannten Byte abgerechnet. Für nachfolgende Phasen fallen keine zusätzlichen On-Demand-Gebühren an.

  • Bei Editionspreisen werden für die erste Phase keine BigQuery-Reservierungsslots genutzt. Nachfolgende Phasen verwenden Slots aus der BigQuery-Reservierung.

Für BI Engine gelten folgende Preise:

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Zusicherungs-Bundle für Editionen

Wenn Sie BigQuery-Preise für Kapazitäts-Computing mit Zusicherungen für BigQuery-Versionen verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazität als Teil Ihres Editionspreises – ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der Ihre Versionsreservierung gespeichert ist. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. Die BI Engine-Reservierung in einem On-Demand-Analyseprojekt wird nicht auf die kostenlose Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.

Anzahl der gekauften Slots Kostenlose, zusätzliche BI Engine-Kapazität (GiB)
100 5
500 25
1.000 50
1.500 75
2000 100 (maximal pro Organisation)

Kostenlose Vorgänge

Die folgenden BigQuery-Vorgänge sind an jedem Standort kostenlos. Für die genannten Vorgänge gelten Kontingente und Limits.

Vorgang Details
Daten laden Kostenlos über den gemeinsam genutzten Slot-Pool Kunden können für garantierte Kapazität die Preise der Versionen auswählen. Nachdem die Daten in BigQuery geladen wurden, wird Ihnen der Speicherplatz in Rechnung gestellt. Weitere Informationen finden Sie unter Preise für Datenaufnahmeversionen.
Daten kopieren Für das Kopieren einer Tabelle fallen keine Kosten an, aber das Speichern der neuen Tabelle und der kopierten Tabelle ist kostenpflichtig. Weitere Informationen finden Sie unter Vorhandene Tabelle kopieren.
Daten exportieren Für den gemeinsam genutzten Slot-Pool, fallen keine Daten an, aber für das Speichern der Daten in Cloud Storage. Kunden können für garantierte Kapazität die Preise der Versionen auswählen. Wenn Sie die SQL-Anweisung EXPORT DATA verwenden, wird Ihnen die Abfrageverarbeitung in Rechnung gestellt. Weitere Informationen finden Sie unter Daten exportieren.
Vorgänge löschen Für das Löschen von Datasets oder Tabellen, von einzelnen Tabellenpartitionen, von Ansichten oder benutzerdefinierten Funktionen fallen keine Kosten an.
Metadatenvorgänge Die Aufrufe „list“, „get“, „patch“, „update“ und „delete“ werden Ihnen nicht in Rechnung gestellt. Darunter fallen beispielsweise das Auflisten von Datasets, das Aktualisieren der Access Control List eines Datasets, das Aktualisieren einer Tabellenbeschreibung oder das Auflisten benutzerdefinierter Funktionen in einem Dataset. Vorgänge zum Metadaten-Caching für BigLake-Tabellen sind nicht in den kostenlosen Vorgängen enthalten.

Kostenlose Nutzungsstufe

Im Rahmen der kostenlosen Stufe von Google Cloud bietet BigQuery einige Ressourcen bis zu einem bestimmten Limit kostenlos an. Diese kostenlosen Nutzungskontingente sind während des kostenlosen Testzeitraums und auch danach verfügbar. Wenn Sie die Nutzungslimits überschreiten und der kostenlose Testzeitraum abgelaufen ist, fallen die auf dieser Seite genannten Gebühren an. Sie können die kostenlose Stufe von BigQuery in der BigQuery-Sandbox ohne Kreditkarte testen.

Ressource Monatliche Limits für kostenlose Nutzung Details
Speicher Die ersten 10 GiB pro Monat sind kostenlos. Das kostenlose Speicherkontingent beinhaltet BigQuery ML-Modelle und in BigQuery gespeicherte Trainingsdaten.
Abfragen (Analyse) Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.

Die Preise für BigQuery-Versionen gelten auch für Kunden mit hohem Datenvolumen, die gleichbleibende monatliche Kosten vorziehen.

BI Engine Bis zu 1 GiB Kapazität für Looker Studio-Nutzer, ohne eine BI Engine-Reservierung zu konfigurieren. Diese Kapazität ist für Looker Studio-Nutzer verfügbar, die keine native BigQuery-Integration von Looker Studio verwenden. Diese zusätzliche Kapazität wird auf Best-Effort-Basis bereitgestellt.

Pauschalpreise

Computing-Pauschalpreise

Wenn Sie das Computing-Preismodell zum Pauschalpreis verwenden, erwerben Sie eine dedizierte Kapazität für die Abfrageverarbeitung, die in BigQuery-Slots gemessen wird. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt. Wenn Ihre Kapazitätsanforderungen die zugesicherte Kapazität überschreiten, stellt BigQuery Abfragen in die Warteschlange und es werden keine zusätzlichen Gebühren berechnet.

Computing-Pauschalpreise:

  • Bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
  • Gilt nicht für Speicherkosten oder BI Engine-Kosten.
  • Gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
  • Wird als regionale Ressource gekauft. Die in einer bestimmten Region oder Mehrfachregion erworbenen Slot-Zusicherungen können nicht in einer anderen Region oder Mehrfachregion verwendet oder verschoben werden.
  • Ist in Form von sekundengenauen (Flex-), monatlichen und jährlichen Zusicherungen verfügbar.
  • Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
  • Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
  • Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.

Zusicherungen zum monatlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten Ihrer monatlichen Pauschalpreis-Slotzusicherung. Weitere Informationen finden Sie unter Monatliche Zusicherungen.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Zusicherungen zu einem jährlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten Ihrer jährlichen pauschalen Slotzusicherung. Weitere Informationen finden Sie unter Jährliche Zusicherungen.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Flex-Slots: kurzfristige Pauschalpreiszusicherungen

Flex-Slots sind ein spezieller Zusicherungstyp:

  • Die Dauer der Zusicherung beträgt nur 60 Sekunden.
  • Sie können Flex-Slots jederzeit kündigen.
  • Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.

Flex-Slots unterliegen der Kapazitätsverfügbarkeit. Wenn Sie versuchen, Flex-Slots zu erwerben, kann der Erfolg dieses Kaufs nicht garantiert werden. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.

Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:

Pauschalpreise für BigQuery Omni

BigQuery Omni bietet Pauschalpreise mit vorhersehbaren Kosten für Abfragen. Verwenden Sie BigQuery Reservations, um Pauschalpreise zu aktivieren.

Wenn Sie sich für BigQuery Omni zum Pauschalpreis anmelden, erwerben Sie mit Amazon Web Services oder Microsoft Azure eine in Slots gemessene Kapazität für die Abfrageverarbeitung. Ihre Abfragen verbrauchen diese Kapazität. Die verarbeiteten Byte werden Ihnen nicht in Rechnung gestellt.

Pauschalpreise für BigQuery Omni:

  • Bezieht sich auf Abfragekosten. Gilt nicht für Speicherkosten.
  • Slot-Zusicherungen werden für eine einzelne Multi-Cloud-Region erworben. Die in einer Region erworbene Kapazität kann nicht in einer anderen Region genutzt werden.
  • Ist in Form von monatlichen und jährlichen Zusicherungen verfügbar. Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
  • Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes Projekt erworben werden.
  • Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.

Zusicherungen zum monatlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung: Weitere Informationen finden Sie unter Monatliche Zusicherungen.

Zusicherungen zu einem jährlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung: Weitere Informationen finden Sie unter Jährliche Zusicherungen.

Flex-Slots: kurzfristige Zusicherungen

Flex-Slots sind ein spezieller Zusicherungstyp:

  • Die Dauer der Zusicherung beträgt nur 60 Sekunden.
  • Sie können Flex-Slots jederzeit kündigen.
  • Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.

Flex-Slots in BigQuery Omni unterliegen der Kapazitätsverfügbarkeit in AWS oder Azure. Wenn Sie versuchen, Flex-Slots zu kaufen, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.

Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:

BI Engine-Pauschalpreis-Zusicherungspaket

Wenn Sie BigQuery-Slotzusicherungen zum Pauschalpreis verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazitäten im Rahmen Ihres Pauschalpreises ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der sich auch Ihre Pauschalpreisreservierung befindet. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. Eine BI Engine-Reservierung in einem On-Demand-Compute-Projekt wird nicht auf die kostenlose Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.

Anzahl der gekauften Slots Kostenlose, zusätzliche BI Engine-Kapazität (GiB)
100 5
500 25
1.000 50
1.500 75
2000 100 (maximal pro Organisation)

Nächste Schritte

Individuelles Angebot einholen

Mit den „Pay as you go“-Preisen von Google Cloud bezahlen Sie nur für die Dienste, die Sie nutzen. Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Vertrieb kontaktieren