BigQuery-Preise

BigQuery ist eine serverlose Datenanalyseplattform. Zur Nutzung von BigQuery müssen Sie keine einzelnen Instanzen oder virtuellen Maschinen bereitstellen. Stattdessen weist BigQuery Rechenressourcen automatisch nach Bedarf zu. Sie können die Computing-Kapazität auch vorzeitig in Form von Slots reservieren, die virtuelle CPUs darstellen. Die Preisstruktur von BigQuery spiegelt dieses Design wider.

BigQuery-Preise

BigQuery-Preise haben zwei Hauptkomponenten:

  • Computing-Preise sind die Kosten für die Verarbeitung von Abfragen, einschließlich SQL-Abfragen, Skripten, Datenbearbeitungssprache (Data Manipulation Language, DML) und Datendefinition Sprachanweisungen (DDL)

  • Speicherpreise sind die Kosten für die Sie in BigQuery laden.

Bei BigQuery fallen Gebühren für andere Vorgänge an, z. B. BigQuery Omni BigQuery ML BI Engine und Streaming Lesevorgänge und Schreibvorgänge.

Darüber hinaus bietet BigQuery kostenlose Vorgänge. und eine kostenlose Nutzungsstufe.

Jedes von Ihnen erstellte Projekt ist mit einem Rechnungskonto verknüpft. Alle Kosten, die für BigQuery-Jobs im Rahmen dieses Projekts entstehen, werden vom verknüpften Rechnungskonto abgebucht. Speichergebühren für BigQuery werden ebenfalls dem verknüpften Konto in Rechnung gestellt. Sie können die BigQuery-Kosten und auf der Seite mit den Cloud Billing-Berichten in der Google Cloud Console.

Compute-Preismodelle

BigQuery bietet zwei Computing-Preismodelle für das Ausführen von Abfragen:

  • On-Demand-Preise (pro TiB). Mit diesem Preismodell berechnet, wird Ihnen die Anzahl der von den einzelnen Abfrage. Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.

  • Kapazitätspreise (pro Slot-Stunde). Bei diesem Preismodell wird Ihnen die Rechenkapazität in Rechnung gestellt, die zum Ausführen von Abfragen verwendet wird, im Zeitverlauf in Slots (virtuellen CPUs) gemessen. Dieses Modell nutzt BigQuery-Versionen. Sie können BigQuery-Autoscaling verwenden oder Slot-Zusicherungen erwerben, sind dedizierte Kapazitäten, die für Ihre Arbeitslasten immer zu einem niedrigeren Preis verfügbar sind.

Weitere Informationen zu den Preisen für Ihre Arbeitslasten finden Sie unter Arbeitslastverwaltung mit Reservierungen

On-Demand-Computing-Preise

Abfragen werden standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten.

Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf bis zu 2.000 gleichzeitige Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.

Für On-Demand-Abfragen (pro TiB) gelten folgende Preise:

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisinformationen

Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):

  • BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend den verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der darin enthaltenen Datentypen berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Schätzen Sie die Abfragekosten.
  • Ihnen werden Abfragen in Rechnung gestellt, die für freigegebene Daten ausgeführt werden. Der Dateninhaber ist nicht wenn auf ihre Daten zugegriffen wird.
  • Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Für Jobs in verfahrenstechnischen Sprachen erfolgt dies pro Anweisung.
  • Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
  • Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
  • Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites LIMIT für die Ergebnisse festlegen.
  • Partitionierung und Clustering Ihre Tabellen können dazu beitragen, die durch Abfragen verarbeitete Datenmenge zu reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
  • On-Demand-Preise (pro TiB) werden als Analysepreise auf der Google Cloud-SKUs Seite.
  • Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.

Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:

Ausführliche Beispiele zur Berechnung der Anzahl der verarbeiteten Byte finden Sie unter Berechnung der Abfragegröße.

Preise für Kapazitäts-Computing

BigQuery bietet ein kapazitätsbasiertes Preismodell für die die vorhersehbare Kosten für Abfragen bevorzugen, statt nur On-Demand-Preis pro TiB verarbeiteter Daten.

Zum Aktivieren von Kapazitätspreisen verwenden Sie BigQuery-Reservierungen.

BigQuery-Versionen

Bei den BigQuery-Versionen werden „Pay as you go“-Preise angeboten. (mit Autoscaling) und optionalen Zusicherungen für ein Jahr und drei Jahre. Mit Versionen wird die Verarbeitungskapazität für Abfragen in Slots gemessen und nicht in Rechnung gestellt. für verarbeitete Byte.

Slotkapazität der BigQuery-Versionen:

  • ist in drei Versionen verfügbar: Standard, Enterprise und Enterprise Plus.
  • gilt für Abfragekosten, einschließlich BigQuery ML-, DML- und DDL-Anweisungen.
  • gilt nicht für Speicherkosten oder BI Engine-Kosten.
  • gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
  • das BigQuery-Autoscaling nutzen kann.
  • wird pro Sekunde mit einem Minimum von einer Minute abgerechnet

Optionale Slot-Zusicherungen in den BigQuery-Versionen:

  • sind für ein oder drei Jahre verfügbar.
  • sind in Enterprise und Enterprise Plus verfügbar.
  • sind regionale Kapazitäten. Zusicherungen in einer oder mehreren Regionen können nicht wird in einer anderen Region oder Mehrfachregion verwendet und kann nicht verschoben werden.
  • können für Ihre gesamte Organisation freigegeben werden. Sie müssen keine Slots kaufen Zusicherungen für jedes Projekt.
  • werden mit einem Minimum von 100 Slots und in Schritten von 100 Slots angeboten.
  • werden automatisch verlängert, sofern sie nicht zum Ende der Laufzeit gekündigt werden.

Standardversion

In der folgenden Tabelle sind die Kosten für Slots in der Standardversion aufgeführt.

Enterprise-Version

In der folgenden Tabelle sind die Kosten für Slots in der Enterprise-Version aufgeführt.

Enterprise Plus-Version

In der folgenden Tabelle sind die Kosten für Slots in Enterprise Plus aufgeführt.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Speicherpreise

Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden. Sie zahlen für aktiven Speicherplatz und langfristigen Speicherplatz.

  • Aktiver Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die in den letzten 90 Tagen geändert wurden.

  • Langfristiger Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die 90 Tage lang nicht geändert wurden. Der Preis für die Speicherung für diese Tabelle sinkt automatisch um ca. 50 %. Aktiver und langfristiger Speicher unterscheiden sich nicht in Leistung, Langlebigkeit und Verfügbarkeit.

Die ersten 10 GiB Speicherplatz pro Monat sind kostenlos.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Weitere Informationen finden Sie in der Dokumentation zum physischen Speicher. .

Preisinformationen

Die Speicherpreise richten sich nach der Datenmenge, die in Ihren Tabellen gespeichert ist. Die Datengröße wird anhand der Datentypen in den einzelnen Spalten berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.

Die Preise für die Speicherung werden pro MiB und Sekunde anteilig berechnet. Wenn Sie beispielsweise aktiven logischen Speicher in us-central1 verwenden:

  • Für 512 MiB für einen halben Monat zahlen Sie 0, 00575 $
  • Für 100 GiB für einen halben Monat zahlen Sie 1, 15 $.
  • Für 1 TiB für einen vollen Monat bezahlen Sie 23, 552 $

Die Speichernutzung wird in Gibibyte-Monaten (GiB-Monaten) berechnet, wobei 1 GiB 230 beträgt. Bytes (1.024 MiB) Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB). Der endgültige Nutzungswert ist das Produkt aus der Datengröße in Gibibyte und der Speichernutzungszeit in Monaten.

Wenn die Daten in einer Tabelle nicht innerhalb von 90 aufeinanderfolgenden Tagen geändert oder gelöscht werden, wird die Langzeitspeicherung in Rechnung gestellt. zu zahlen. Es kommt zu keiner Beeinträchtigung der Leistung, Langlebigkeit, Verfügbarkeit oder anderer Funktionen, wenn eine Tabelle in die Langzeitspeicherung übergeht.

Die Kosten für jede Partition einer partitionierten Tabelle werden bei der Langzeitspeicherung separat berechnet. Wenn eine Partition in den letzten 90 Tagen nicht geändert wurde, werden die Daten in dieser Partition als Langzeitspeicherung betrachtet und zum Rabattpreis in Rechnung gestellt.

Wird die Tabelle bearbeitet, gilt wieder der reguläre Speicherpreis, und der 90-Tage-Timer wird auf null zurückgesetzt. Durch jeden Vorgang, bei dem die Daten in einer Tabelle geändert werden, wird der Timer zurückgesetzt. Beispiele:

Vorgang Details
Daten in eine Tabelle laden Jeder Lade- oder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Daten in eine Tabelle kopieren Jeder Kopierjob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Abfrageergebnisse in eine Tabelle schreiben Jeder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird.
Datenbearbeitungssprache (Data Manipulation Language, DML) verwenden Einsatz einer DML-Anweisung, um Tabellendaten zu bearbeiten.
Datendefinitionssprache (DDL) verwenden CREATE OR REPLACE TABLE-Anweisung verwenden, um eine Tabelle zu ersetzen
Daten in eine Tabelle streamen Aufnahme von Daten mithilfe des API-Aufrufs tabledata.insertAll.

Bei allen anderen Vorgängen wird der Timer nicht zurückgesetzt. Dazu gehören:

  • Eine Tabelle abfragen
  • Eine Ansicht erstellen, mit der eine Tabelle abgefragt wird
  • Daten aus einer Tabelle exportieren
  • Eine Tabelle (in eine andere Zieltabelle) kopieren.
  • Eine Tabellenressource patchen oder aktualisieren

Für Tabellen, die den 90-Tage-Schwellenwert während eines Abrechnungszeitraums erreichen, wird der Preis entsprechend anteilig berechnet.

Die Preise für Langzeitspeicherung gelten nur für BigQuery-Speicher, nicht auf Daten, die in externen Datenquellen gespeichert sind, wie Bigtable, Cloud Storage und Google Drive.

Berechnung der Datengröße

Beim Laden von Daten in BigQuery oder beim Abfragen von Daten werden die Kosten anhand der Datengröße berechnet. Dazu wird die Größe des Datentyps der jeweiligen Spalte herangezogen.

Die Größe Ihrer gespeicherten Daten und die Größe der Daten, die durch Ihre Abfragen verarbeitet werden wird in Gibibyte (GiB) berechnet, wobei 1 GiB 230 ist. Bytes (1.024 MiB) Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB).

Weitere Informationen finden Sie unter Datentypgrößen:

Data Transfer Service – Preise

Die Gebühren für den BigQuery Data Transfer Service werden monatlich anteilig in Rechnung gestellt und so berechnet:

Datenquelle Monatliche Gebühr (anteilig) Hinweise
Campaign Manager

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Cloud Storage

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Amazon S3

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1,2,3
Google Ads

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Ad Manager

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Merchant Center

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Google Play

25 $ pro eindeutigem Paketnamen in der Tabelle Installs_country.

1
Search Ads 360

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
YouTube-Kanal

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
YouTube-Rechteinhaber

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1
Data Warehouse Monatliche Gebühr (anteilig) Hinweise
Teradata

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1, 2, 3, 4
Amazon Redshift

Kostenlos. Es gelten die Kontingente und Limits von BigQuery.

1, 2, 3
Drittanbieter-Connectors Es fallen Kosten an Weitere Informationen finden Sie unter 5.

Hinweise zu den Übertragungskosten

Alle Übertragungen

1. Nach der Übertragung der Daten zu BigQuery BigQuery-Speicher und query.

Migrationen von anderen Plattformen

2. Das Extrahieren, das Hochladen in einen Cloud Storage-Bucket und das Laden von Daten in BigQuery ist kostenlos.

3. Kosten können auch außerhalb von Google Cloud über BigQuery Data Transfer Service, wie AWS- oder Azure-Datenübertragungsgebühren.

Teradata-Migrationen

4. Die Daten werden nach dem Hochladen in BigQuery nicht automatisch aus Ihrem Cloud Storage-Bucket gelöscht. Daher sollten Sie sie selbst herauslöschen, um weitere Speicherkosten zu vermeiden. Weitere Informationen finden Sie unter Cloud Storage – Preise.

Drittanbieter-Connectors

5. Für Connectors von Drittanbietern fallen Kosten an. Preise bei verschiedenen Partnern und Connectors unterschiedlich ist. Weitere Informationen zu den Preisen die sich bei der Registrierung im Marketplace auf einzelne Connectors beziehen.

Eindeutige IDs berechnen

Jede Übertragung, die Sie erstellen, generiert einen oder mehrere Durchläufe pro Tag. Bei jedem Durchlauf werden alle vorkommenden eindeutigen IDs und das jeweilige Datum gespeichert, an dem der Durchlauf abgeschlossen wurde. IDs werden nur an dem Tag gezählt, an dem die Übertragung abgeschlossen wird. Wenn beispielsweise ein Übertragungsdurchlauf am 14. Juli beginnt, aber erst am 15. Juli abgeschlossen wird, werden die eindeutigen IDs am 15. Juli gezählt.

Kommt eine eindeutige ID an einem bestimmten Tag in mehr als einem Übertragungsdurchlauf vor, wird sie nur einmal gezählt. Bei unterschiedlichen Übertragungen werden dieselben eindeutigen IDs separat gezählt. Kommt eine eindeutige ID in den Durchläufen zweier unterschiedlicher Übertragungen vor, wird die ID zweimal gezählt.

Berechnung von Backfill-Gebühren

Wenn Sie einen Backfill planen, wird für jeden Tag ein Übertragungsdurchlauf geplant. Die Gebühren dafür werden Ihnen wie unter Eindeutige IDs berechnen beschrieben in Rechnung gestellt.

Gebühren für BigQuery einstellen

Deaktivieren oder löschen Sie die Übertragung, um die Gebührenberechnung zu stoppen.

Preisbeispiele für BigQuery Data Transfer Service

Beispiel 1: Sie haben 1 Übertragung mit 3 Durchläufen, die am selben Tag abgeschlossen werden. Bei den Durchläufen werden folgende eindeutige IDs aufgezeichnet:

  • 1. Durchlauf: A, B und C
  • 2. Durchlauf: A
  • 3. Durchlauf: C und D

Da alle Durchläufe am selben Tag abgeschlossen wurden, werden Ihnen Kosten basierend auf 4 eindeutigen IDs (A, B, C, D) in Rechnung gestellt. Da die IDs A und C in zwei verschiedenen Durchläufen, die am selben Tag abgeschlossen wurden, werden die IDs A und C nur einmal gezählt. Wenn diese 3 Übertragungsdurchläufe einen Monat lang jeden Tag abgeschlossen werden, beträgt Ihre monatliche Gebühr basierend auf 4 eindeutigen IDs. Wenn die Anzahl der abgeschlossenen Übertragungsausführungen geringer ist als die Anzahl werden die Kosten anteilig berechnet.

Beispiel 2: Sie haben mehrere Übertragungen mit Durchläufen, die am selben Tag abgeschlossen werden.

  • Übertragung 1 wird ausgeführt und zeichnet die folgenden eindeutigen IDs auf: A, B und C
  • 2. Übertragung: A
  • 3. Übertragung: C und D

Da die eindeutigen IDs in Durchläufen für verschiedene Übertragungen gezählt werden, Die Kosten werden basierend auf sechs eindeutigen IDs berechnet: A, B und C aus dem Durchlauf von Übertragung 1. A von Ausführung von Übertragung 2; sowie C und D aus dem Durchlauf von Übertragung 3. Wenn die Übertragung ausgeführt wird als die Anzahl der Tage im Monat, in denen sie aktiv sind, werden die Kosten anteilig berechnet.

BigQuery Omni-Preise

BigQuery Omni bietet die folgenden Preismodelle für Ihren Arbeitslasten und Anforderungen.

On-Demand-Computing-Preise

Ähnlich wie bei der On-Demand-Analyse in BigQuery werden Abfragen für BigQuery Omni standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet. Dabei bezahlen Sie für die von Ihren Abfragen gescannten Daten.

Bei On-Demand-Preisen haben Sie in der Regel Zugriff auf einen großen Pool an gleichzeitigen Slots, die auf alle Abfragen in einem Projekt aufgeteilt werden. BigQuery Omni greift in regelmäßigen Abständen vorübergehend über dieses Limit hinaus, um kleinere Abfragen zu beschleunigen. Außerdem kann es gelegentlich vorkommen, dass weniger Slots verfügbar sind, wenn es zu großen Konflikten um On-Demand-Kapazität an einem bestimmten Standort kommt.

Für On-Demand-Abfragen (pro TiB) von BigQuery Omni gelten folgende Preise:

Region Preis pro TiB
AWS North Virginia (aws-us-east-1) 7,82 $
Azure North Virginia (azure-eastus2) 9,13 $
AWS Seoul (aws-ap-northeast-2) 10,00 $
AWS Oregon (aws-us-west-2) 7,82 $
AWS Irland (aws-eu-west-1) 8,60 $
AWS Sydney (aws-ap-southeast-2) $10,55
AWS Frankfurt (aws-eu-central-1) $10,16

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisangaben

Die Details und Einschränkungen ähneln den Preisen für BigQuery-Analysen. Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):

  • BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend der verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der Datentypen in der Spalte berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Berechnung der Datengröße.
  • Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei prozeduralen Jobs muss diese Überlegung pro Anweisung erfolgen.
  • Die Gebühren werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
  • Durch das Abbrechen eines laufenden Abfragejobs können Gebühren bis zur volle Höhe der Abfrage anfallen, wenn Sie die Abfrage bis zum Abschluss ausführen lassen.
  • Beim Ausführen einer Abfrage werden Ihnen die Kosten entsprechend den Daten berechnet, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch dann, wenn Sie für die Ergebnisse ein explizites LIMIT festlegen.
  • Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
  • On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
  • Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dies kann die Anzahl der gescannten Byte reduzieren.

BigQuery bietet Mechanismen zur Kostenkontrolle, mit denen Sie Ihre Abfragekosten begrenzen können. Sie können Folgendes festlegen:

BigQuery Omni mit Versionen

BigQuery Omni-Regionen unterstützen BigQuery-Versionen. Derzeit wird in Omni-Regionen nur die Enterprise Edition unterstützt.

Die folgende Tabelle zeigt die Kosten für Slots in Omni-Regionen

AWS North Virginia (aws-us-east-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,50 $ (3 Jahre in Rechnung gestellt) 100

Azure North Virginia (azure-eastus2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 8,80 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,30 $ (3 Jahre in Rechnung gestellt) 100

AWS Seoul (aws-ap-northeast-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 9,60 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7,7 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,80 $ (3 Jahre in Rechnung gestellt) 100

AWS Oregon (aws-us-west-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6,00 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,50 $ (3 Jahre in Rechnung gestellt) 100

AWS Irland (aws-eu-west-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 8,25 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 6,60 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 4,95 $ (3 Jahre in Rechnung gestellt) 100

AWS Sydney (aws-ap-southeast-2)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 10,13 $ (pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 8,10 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 6,08 $ (3 Jahre in Rechnung gestellt) 100

AWS Frankfurt (aws-eu-central-1)

Zusicherungsmodell Kosten pro Stunde Anzahl der Slots
PAYG (keine Verpflichtung) 9,75 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) 100
Commit für 1 Jahr 7,80 $ (1 Jahr in Rechnung gestellt) 100
Commit für 3 Jahre 5,85 $ (3 Jahre in Rechnung gestellt) 100

Cloudübergreifende Omni-Channel-Datenübertragung

Wenn Sie die cloudübergreifenden Funktionen von Omni (Cloudübergreifende Übertragung, Tabelle als Auswahl erstellen, Einfügen in Auswahl, Cross-Cloud Joins und materialisierte Ansichten in der Cloud) verwenden, bei denen Daten von AWS oder Azure zu Google Cloud verschoben werden, fallen zusätzliche Gebühren für die Datenübertragung an.

Speziell für cloudübergreifende materialisierte Ansichten, „Create Table as Select“, „Insert Into Select“, und für Cross-Cloud Joins fallen während der Vorabversion keine Gebühren an. Ab dem 29. Februar 2024 sind diese Dienste allgemein verfügbar und Sie werden für die Datenübertragung in Rechnung gestellt. Ihnen werden nur Kosten für die Datenübertragung berechnet. Bei Verwendung eines der oben aufgeführten Dienste von einer AWS- oder Azure-Region in eine Google Cloud BigQuery-Region. Der Preis pro GiB basiert auf der übertragenen Datenmenge. von AWS oder Azure zu Google Cloud.

Link zur SKU-Tabelle: CCMV-Abrechnungs-SKUs

SKU Abrechnungsmodell Meter Preis
Cloudübergreifende Datenübertragung von AWS North Virginia (aws-us-east-1) zu Google Cloud North America nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von Azure North Virginia (azure-eastus2) zu Google Cloud North America nutzungsbasiert GiB übertragen 0,0875 $
Cloudübergreifende Datenübertragung von AWS Seoul (aws-ap-northeast-2) zu Google Cloud Asia nutzungsbasiert GiB übertragen 0,126 $
Cloudübergreifende Datenübertragung von AWS Oregon (aws-us-west-2) zu Google Cloud North America nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von AWS Ireland (aws-eu-west-1) zu Google Cloud Europe nutzungsbasiert GiB übertragen € 0,09
Cloudübergreifende Datenübertragung von AWS Sydney (aws-ap-southeast-2) zu Google Cloud Oceania nutzungsbasiert GiB übertragen 0,114 $
Cloudübergreifende Datenübertragung von AWS Frankfurt (aws-eu-central-1) zu Google Cloud Europe nutzungsbasiert GiB übertragen € 0,09

Omni-verwalteter Speicher

Wenn Sie die Funktion „Cross-Cloud Materialized View“ von Omni nutzen, wird Ihnen auch das Erstellen lokaler materialisierter Ansichten im verwalteten BigQuery-Speicher in AWS in Rechnung gestellt. Ihnen wird pro GiB der physische Speicher berechnet, der für die lokale materialisierte Ansicht verwendet wird.

Vorgang Preise
Aktiver physischer Speicher (aws-us-east-1) 0,05 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-us-east-1) 0,025 $ pro GiB und Monat
Aktiver physischer Speicher (azure-eastus2) 0,05 $ pro GiB und Monat
Langfristiger physischer Speicher (azure-eastus2) 0,025 $ pro GiB und Monat
Aktiver physischer Speicher (aws-ap-northeast-2) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-ap-northeast-2) 0,026 $ pro GiB und Monat
Aktiver physischer Speicher (aws-us-west-2) 0,04 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-us-west-2) 0,02 $ pro GiB und Monat
Aktiver physischer Speicher (aws-eu-west-1) 0,044 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-eu-west-1) 0,022 $ pro GiB und Monat
Aktiver physischer Speicher (aws-ap-southeast-2) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-ap-southeast-2) 0,026 $ pro GiB und Monat
Aktiver physischer Speicher (aws-eu-central-1) 0,052 $ pro GiB und Monat
Langfristiger physischer Speicher (aws-eu-central-1) 0,026 $ pro GiB und Monat

Preise für die Datenaufnahme

BigQuery bietet zwei Modi für die Datenaufnahme:

Weitere Informationen dazu, welcher Modus ausgewählt wird, finden Sie unter Einführung in das Laden von Daten.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisinformationen

Standardmäßig werden Ihnen keine Gebühren für das Laden von Daten aus dem Cloud-Speicher oder für lokale Dateien in BigQuery in Rechnung gestellt. Für Ladejobs wird standardmäßig ein gemeinsam genutzter Pool von Slots verwendet. BigQuery gibt keine Garantien für die verfügbaren Kapazitäten dieses gemeinsamen Pools oder den angezeigten Durchsatz. Alternativ können Sie dedizierte Slots erwerben, um Ladejobs auszuführen. Ihnen werden kapazitätsbasierte Preise berechnet. für dedizierte Slots. Wenn einer Reservierung Auslastungsjobs zugewiesen sind, verlieren sie diese Zugang zum kostenlosen Pool. Weitere Informationen finden Sie unter Zuweisungen.

Sobald die Daten in BigQuery geladen sind, gelten die entsprechenden Speicherpreise von BigQuery. Wenn Sie Daten aus Cloud Storage laden, wird Ihnen für die Speicherung der Daten in Cloud Storage speichern. Weitere Informationen finden Sie unter Datenspeicherung aktiviert finden Sie auf der Preisseite für Cloud Storage.

Preise für die Datenextraktion

BigQuery bietet die folgenden Modi der Datenextraktion:

  • Batch-Export. Mit einem Extrahierungsjob Tabellendaten nach Cloud Storage exportieren. Für den Export von Daten aus BigQuery fallen keine Verarbeitungsgebühren an. mit einem Extrahierjob.

  • Abfrageergebnisse exportieren. Verwenden Sie den EXPORT DATA. Anweisung zum Exportieren von Abfrageergebnissen nach Cloud Storage oder Bigtable. Ihnen wird die Verarbeitung der Abfrageanweisung über die On-Demand- oder Kapazitätskapazität in Rechnung gestellt. basierend auf dem Modell an.

  • Streaming-Lesevorgänge. Storage Read API verwenden um Tabellendaten mit hohem Durchsatz zu lesen. Ihnen wird der Betrag gelesene Daten.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preise für Datenübertragung im Batch-Export

Die Datenübertragung wird Ihnen in Rechnung gestellt, wenn Sie Daten im Batch exportieren aus BigQuery in einen Cloud Storage-Bucket in einer anderen Region wie folgt:

Fall Beispiel Preis
Innerhalb desselben Speicherorts exportieren Von us-east1 nach us-east1 Kostenlos
Aus BigQuery (multiregional) „US“ exportieren Von (multiregional) USA nach us-central1 (Iowa) Kostenlos
Aus BigQuery (multiregional) „US“ exportieren Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) Siehe folgende Tabelle
Aus BigQuery-Multi-Region EU exportieren Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) Kostenlos
Aus BigQuery-Multi-Region EU exportieren Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) Siehe folgende Tabelle
Standortübergreifend exportieren Von us-east1 nach us-central1 Siehe folgende Tabelle
Quellort Zielort
Nördliches Amerika Europa Asien Indonesien Ozeanien Naher Osten Lateinamerika Afrika
Nördliches Amerika 0,02 $ pro GiB 0,05 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Europa 0,05 $ pro GiB 0,02 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Asien 0,08 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Indonesien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Ozeanien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Naher Osten 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,08 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Lateinamerika 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Afrika 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB

Storage Read API-Datenübertragung in Google Cloud

Fall Beispiele Preis
Auf im Cache gespeicherte Abfrageergebnisse zugreifen von <ph type="x-smartling-placeholder"></ph> temporäre Tabellen
  • Temporäre Tabellen „anonymes Dataset“
Kostenlos
Datenlesevorgänge am selben Standort
  • Von us-east1 bis us-east1
Kostenlos
Daten werden aus einer BigQuery-Multi-Region an einen anderen BigQuery-Standort gelesen und beide Standorte befinden sich auf demselben Kontinent.
  • Vom us bis zum us-east1
  • Vom eu bis zum europe-west1
Kostenlos
Daten werden zwischen zwei Standorten auf demselben Kontinent gelesen (sofern keines der oben genannten kostenlosen Szenarien zutrifft).
  • Vom us-east1 bis zum northamerica-northeast1
  • Von europe-west1 bis europe-north1
0,01 $/GiB*
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen keiner Australien ist.
  • Vom us bis zum asia
  • Von europe-west1 bis southamerica-east1
0,08 $ pro GiB
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen einer Australien ist.
  • Vom us bis zum australia-southeast1
  • Von australia-southeast1 bis europe-west1
0,15 $ pro GiB

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Allgemeine Netzwerknutzung der Storage Read API

Monatliche Nutzung Datenübertragung an Ziele auf der ganzen Welt (außer Asien und Australien)
(pro GiB)
Datenübertragung an Ziele in Asien (außer China, aber einschließlich Hongkong)
(pro GiB)
Datenübertragung an Ziele in China (außer Hongkong)
(pro GiB)
Datenübertragung an Ziele in Australien
(pro GiB)
Eingehende Datenübertragung
0–1 TiB 0,12 $ 0,12 $ 0,19 $ 0,19 $ Kostenlos
1–10 TiB 0,11 $ 0,11 $ 0,18 $ 0,18 $ Kostenlos
10+ TiB 0,08 $ 0,08 $ 0,15 $ 0,15 $ Kostenlos

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Preisangaben zur Storage Read API

Für die Storage Read API gilt ein On-Demand-Preismodell. Bei On-Demand-Preisen berechnet BigQuery die Anzahl der verarbeiteten Byte (auch als gelesene Byte bezeichnet). Die On-Demand-Preise richten sich ausschließlich nach der Nutzung, mit einer kostenlosen Lesestufe von 300 TiB pro Monat für jedes Rechnungskonto. Byte, die bei Lesevorgängen aus temporären Tabellen gescannt werden sind kostenlos und werden nicht auf die kostenlose Stufe mit 300 TiB angerechnet. Diese 300 TiB gelesenen freien Byte befinden sich auf der Bytes-Read-Komponente. und gilt nicht für die zugehörige ausgehende Datenübertragung.

Beachten Sie außerdem folgende Hinweise zu den Storage Read API-Gebühren:

  • Ihnen wird die gesamte gelesene Datenmenge in Rechnung gestellt. Sowohl die insgesamt pro Spalte gelesenen Daten als auch die Datengröße werden anhand des Datentyps in der Spalte berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
  • Ihnen werden alle während einer Lesesitzung gelesenen Daten in Rechnung gestellt, auch wenn ein ReadRows-Aufruf fehlschlägt.
  • Wenn Sie einen ReadRows-Aufruf abbrechen, bevor das Ende des Streams erreicht ist, werden Ihnen alle Daten in Rechnung gestellt, die bis dahin gelesen wurden. Das betrifft auch Daten, die vor dem Abbruch des ReadRows-Aufrufs gelesen, aber nicht an Sie zurückgegeben wurden.
  • Sie sollten wann immer möglich partitionierte und geclusterte Tabellen verwenden. Sie können die gelesene Datenmenge reduzieren, indem Sie Partitionen mit einer WHERE-Klausel bereinigen. Weitere Informationen finden Sie unter Partitionierte Tabellen abfragen.
  • Preise für die Nutzung von Interconnect und Cloud Interconnect anstelle der Preise für die allgemeine Netzwerknutzung der BigQuery Storage Read API gilt.

Preise für Datenreplikation

BigQuery bietet zwei Modi zum Replizieren (Kopieren) von Daten zwischen Regionen:

  • Regionenübergreifender Text. eine einmalige oder geplante Kopie der Tabellendaten zwischen Regionen oder Mehrfachregionen, Siehe Datasets kopieren oder Tabellen kopieren.

  • Regionenübergreifende Replikation. Fortlaufende inkrementelle Replikation eines Datasets zwischen Mindestens zwei verschiedene Regionen oder Multiregionen finden Sie unter Regionenübergreifende Dataset-Replikation.

Speicher für replizierte Daten

Replizierte Daten, die in der Zielregion oder dem multiregionalen Standort gespeichert sind, werden nach BigQuery-Speicherpreise.

Preise für die Datenübertragung der Datenreplikation

Die Datenübertragung wird für das replizierte Datenvolumen in Rechnung gestellt. Die Verwendung Fälle und eine Aufschlüsselung der Datenübertragungsgebühren werden wie folgt bereitgestellt:

Fall Beispiel Preis
Innerhalb desselben Standorts replizieren Von us-east1 nach us-east1 Kostenlos
Aus BigQuery (multiregional) „US“ replizieren Von (multiregional) USA nach us-central1 (Iowa) Kostenlos
Aus BigQuery (multiregional) „US“ replizieren Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) Siehe folgende Tabelle
Aus BigQuery-Multi-Region EU replizieren Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) Kostenlos
Aus BigQuery-Multi-Region EU replizieren Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) Siehe folgende Tabelle
Standortübergreifend replizieren Von us-east1 nach us-central1 Siehe folgende Tabelle
Quellort Zielort
Nördliches Amerika Europa Asien Indonesien Ozeanien Naher Osten Lateinamerika Afrika
Nördliches Amerika 0,02 $ pro GiB 0,05 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Europa 0,05 $ pro GiB 0,02 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Asien 0,08 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Indonesien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Ozeanien 0,10 $ pro GiB 0,10 $ pro GiB 0,10 $ pro GiB 0,08 $ pro GiB 0,08 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Naher Osten 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,08 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB
Lateinamerika 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB
Afrika 0,11 $ pro GiB 0,11 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB 0,14 $ pro GiB 0,11 $ pro GiB

Externe Dienste

BigQuery kann externe Dienste nutzen, um Workflows für Datenanalysen zu vereinfachen. Bei einigen dieser Dienste außerhalb von BigQuery werden Ihnen weiterhin BigQuery-SKUs in Rechnung gestellt:

BigQuery Studio-Notebooks

BigQuery Studio Notebooks basieren auf einer Standard-Notebook-Laufzeit, die die Colab Enterprise-Laufzeit verwendet, um die Ausführung von Notebook-Code zulassen. Die Nutzung dieser Dienste wird als „Pay as you go“-Slots und als GB/s-Nutzung für SSDs abgerechnet. Für BigQuery-Notebooks werden ab dem 20. April Gebühren berechnet.

Die Standard-Notebook-Laufzeit ist eine von Google bereitgestellte virtuelle Maschine (VM), die den Code in Ihrem Notebook (IPYNB-Datei) ausführen kann. Damit können BigQuery-Kunden Python-Scripts ausführen. Bei Inaktivität fallen keine Kosten an.

*Die „Pay as you go“-Slots werden in der Version gemessen, die auf Projektebene verwendet wird.

Das Standard-Notebook weist PD und SSD im Hintergrund zu, damit Nutzer neue Data-Science-Pakete installieren und ihre Arbeit über den von ihnen ausgeführten Python-Code hinaus verwalten können. Sobald der nichtflüchtige Speicher und die SSD freigegeben sind, fallen keine Kosten mehr an.

Preisinformationen zu BigQuery Studio-Notebooks:

  • Die Standardlaufzeitkonfiguration kann zur Verbesserung der Nutzerfreundlichkeit geändert werden. Weitere Informationen
  • Colab Enterprise-Laufzeiten werden standardmäßig nach 180 Minuten Inaktivität beendet. Auf dieser Seite wird Folgendes beschrieben: und wie Sie die Standardeinstellungen für das Herunterfahren bei Inaktivität ändern oder die Funktion deaktivieren, wenn Sie eine Laufzeitvorlage erstellen.

BigQuery ML – Preise

BigQuery ML-Modelle können in zwei Kategorien unterteilt werden: eingebundene Modelle und externe Modelle. Integrierte BigQuery ML-Modelle werden in wie die lineare, logistische Regression, Matrixfaktorisierung, PCA- und Zeitreihenmodelle (z.B. ARIMA_PLUS) hochladen. BigQuery ML werden externe Modelle mithilfe anderer Google Cloud-Dienste trainiert, DNN, Boosted Tree und Random Forest (die mit Vertex AI) und AutoML-Modelle, die mit das Vertex AI Tables-Back-End). BigQuery ML-Modell Die Trainingspreise richten sich nach dem Modelltyp und Ihrem Nutzungsmuster: oder on demand verfügbar. Die Vorhersage- und Bewertungsfunktionen werden in BigQuery ML für alle Modelltypen entsprechend den unten angegebenen Preisen ausgeführt.

Preise für BigQuery ML-Versionen

BigQuery ML ist in der Enterprise- und Enterprise Plus-Version für Kunden, die ein Preismodell auf Basis von Rechenkapazität (Anzahl der Slots) bevorzugen im Vergleich zum On-Demand-Modell (Anzahl der verarbeiteten Byte). Kunden können Enterprise- oder Enterprise Plus-Reservierungen, um alle Features von BigQuery ML zu nutzen. Die Nutzung von BigQuery ML ist in der Nutzung von BigQuery-Versionen enthalten.

Reservierungen zum Erstellen eingebundener Modelle

BigQuery hat drei Jobtypen für Reservierungszuweisungen: QUERY, PIPELINE und ML_EXTERNAL. Zuweisungen vom Typ QUERY, die für Analyseabfragen verwendet werden, werden auch zum Ausführen von CREATE MODEL-Abfragen für integrierte BigQuery ML-Modelle verwendet. Integrierte Modellschulungen und analytische Abfragen teilen sich den gleichen Ressourcenpool in den zugewiesenen Reservierungen und verhalten sich in Bezug auf die Berechtigung und die Verwendung von freien Slots aus anderen Reservierungen gleich.

Reservierungen zum Erstellen externer Modelle

Da externe Modelle außerhalb von BigQuery trainiert werden, sind diese Arbeitslasten nicht auf Abruf verfügbar. Damit andere Workloads nicht betroffen sind, können für diese externen Jobs nur Reservierungen mit ML_EXTERNAL-Jobtypzuweisung verwendet werden. Unter Arbeitslastverwaltung mit Reservierungen wird beschrieben, wie Reservierungen für externe Modelltrainingsjobs erstellt werden. Die Slots wird die Nutzung pro Job berechnet, um die Preisparität zwischen Kosten für BigQuery-Slots und externe Google Cloud-Dienste.

On-Demand-Preise für BigQuery ML

Die Abrechnung der BigQuery ML-Nutzung nach On-Demand-Preisen hängt von der Art des jeweiligen Vorgangs ab, also Modelltyp, -erstellung, -bewertung, -prüfung oder ‑vorhersage.

Die On-Demand-Preise für BigQuery ML sehen so aus:

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Wenn Sie nicht in US-Dollar bezahlen, werden die Preise in Ihrer Währung Cloud Platform-SKUs angewendet werden.

1 Die CREATE MODEL-Anweisung stoppt bei iterativen Modellen nach 50 Iterationen. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.

2 Wenn bei Zeitachsenmodellen zur automatischen Hyperparameteroptimierung auto.arima aktiviert ist, werden in der Trainingsphase mehrere Kandidatenmodelle angepasst und bewertet. In diesem Fall ist die Anzahl der Byte die mit der eingegebenen SELECT-Anweisung verarbeitet wird, Anzahl möglicher Modelle, die vom AUTO_ARIMA_MAX_ORDER Trainingsoption für ARIMA_PLUS oder die AUTO_ARIMA_MAX_ORDER Trainingsoption für ARIMA_PLUS_XREG. Dies gilt sowohl für On-Demand- als auch für Editions-Preise. Die folgenden Hinweise gelten für die Erstellung von Zeitachsenmodellen:

  • Bei der Prognose für einzelne Zeitreihen mit aktiviertem Auto-Arima wenn AUTO_ARIMA_MAX_ORDER (1, 2, 3, 4, 5) ist, ist die Zahl der Kandidatenmodelle sind (6, 12, 20, 30, 42), wenn nicht saisonale Modelle vorhanden sind. d ist gleich eins; Andernfalls ist die Anzahl der Kandidatenmodelle (3, 6, 10, 15, 21).

  • Für die Prognose mehrerer Zeitreihen mit TIME_SERIES_ID_COL, die Belastung beläuft sich auf (6, 12, 20, 30, 42) Kandidatenmodelle, wenn AUTO_ARIMA_MAX_ORDER gleich (1, 2, 3, 4, 5).

  • Hinweis: Diese Modellauswahl gilt nur für die Modellerstellung. Für die Modellbewertung, -prüfung und -vorhersage sind nur die ausgewählten -Modell mit den regulären Abfragepreisen.

3 Weitere Informationen finden Sie unter „BigQuery ML – Remote-Modellinferenz“.

BigQuery ML-Remote-Modelltraining und -Inferenz

Mit BigQuery ML können Kunden ein Remote-Modell erstellen, das auf ein Vertex AI-Basismodell einen Vertex AI-Endpunkt für Onlinevorhersagen oder eine Cloud AI API, z. B. die Cloud AI Vision API.

Die Preise für die Inferenz von BigQuery ML-Remote-Modellen setzen sich aus folgenden Teilen zusammen:

  1. Die von BigQuery verarbeiteten Byte werden nach Standardpreise wie On-Demand- oder Editions-Preise an.
  2. Darüber hinaus fallen für den Remote-Endpunkt folgende Kosten an:
    Remote-Modelltypen Inferenzfunktionen Preise
    Vertex AI LLM ML.GENERATE_TEXT
    ML.GENERATE_EMBEDDING
    <ph type="x-smartling-placeholder"></ph> https://cloud.google.com/vertex-ai/pricing#generative_ai_models
    Cloud AI NLP ML.UNDERSTAND_TEXT <ph type="x-smartling-placeholder"></ph> https://cloud.google.com/natural-language/pricing
    KI-Übersetzung in Google Cloud ML.TRANSLATE <ph type="x-smartling-placeholder"></ph> https://cloud.google.com/translate/pricing
    Cloud AI Vision ML.ANNOTATE_IMAGE <ph type="x-smartling-placeholder"></ph> https://cloud.google.com/vision/pricing
    Vertex AI-Endpunkte ML.PREDICT <ph type="x-smartling-placeholder"></ph> https://cloud.google.com/vertex-ai/pricing

Die Preise für das Modell für Remote-Endpunkten werden separat abgerechnet. . Sie können das Abrechnungslabel billing_service = 'bigquery_ml' verwenden. und die Abrechnungslabel bigquery_job_id, um die exakten Gebühren zu filtern.

Überwachte Abstimmungskosten durch LLM

Bei Verwendung der überwachten Abstimmung mit Remote-Modellen über Vertex AI Für LLMs werden die Kosten so berechnet:

  • Die verarbeiteten Byte aus der Tabelle mit den Trainingsdaten, die im AS SELECT-Klausel. Diese Gebühren werden Ihrem Projekt von BigQuery in Rechnung gestellt.
  • Die GPU- oder TPU-Nutzung zum Abstimmen des LLM. Diese Gebühren werden über Vertex AI in Ihr Projekt einbinden. Weitere Informationen finden Sie unter Vertex AI-Preise.

BigQuery ML – Probelauf

Da eine erste Einschätzung wegen der zugrunde liegenden Algorithmen einiger Modelltypen und aufgrund von Abweichungen bei der Abrechnung sehr kompliziert ist, werden die verarbeiteten Datenmengen bei diesen Modelltypen erst nach Abschluss des Trainings berechnet.

BigQuery ML – Preisbeispiel

Die Kosten für BigQuery ML werden in Ihrer Abrechnung nicht gesondert aufgeführt. Wenn Sie für aktuelle Modelle BigQuery-Versionen verwenden, Die Kosten für BigQuery ML sind enthalten.

Bei Verwendung von On-Demand sind die Kosten für BigQuery ML Analyse- oder Abfragegebühren.

Für BigQuery ML-Jobs, die Prüfungs-, Bewertungs- und Vorhersagevorgänge ausführen, fallen die gleichen Kosten an wie bei On-Demand-Abfragen. Da für CREATE MODEL-Abfragen andere Gebühren gelten, müssen Sie Kosten für CREATE MODEL-Jobs mithilfe des Audit-Logs von Cloud Logging unabhängig voneinander berechnen. Anhand der Audit-Logs können Sie ermitteln, welche Byte vom BigQuery ML-Dienst für jeden BigQuery ML-Job vom Typ CREATE MODEL berechnet werden. Anschließend multiplizieren Sie die berechneten Byte mit den entsprechenden Kosten für CREATE MODEL-Abfragen an Ihrem regionalen oder multiregionalen Standort.

Die Kosten für einen Abfragejob am Standort US mit einer BigQuery ML-CREATE MODEL-Anweisung können Sie beispielsweise so berechnen:

  1. Öffnen Sie Cloud Logging. in der Google Cloud Console.

  2. Prüfen Sie, ob als Produkt BigQuery festgelegt ist.

  3. Klicken Sie auf den Drop-down-Pfeil neben dem Feld „Nach Label oder Textsuche filtern“ und wählen Sie In erweiterten Filter umwandeln aus. Hierdurch wird dem Filter der folgende Text hinzugefügt:

    resource.type="bigquery_resource"
    
  4. Fügen Sie in der zweiten Zeile unter der Zeile resource.type den folgenden Text hinzu:

    protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.statementType="CREATE_MODEL"
    
  5. Wählen Sie in der Drop-down-Liste rechts neben der Schaltfläche Filter senden einen geeigneten Zeitraum aus. Wenn Sie beispielsweise Letzte 24 Stunden auswählen, werden Ihnen die BigQuery ML-CREATE MODEL-Jobs angezeigt, die in den letzten 24 Stunden abgeschlossen wurden.

  6. Klicken Sie auf Filter senden, um die Jobs aus dem gewählten Zeitraum aufzurufen.

  7. Klicken Sie auf Ansichtsoptionen, sobald die Daten zu sehen sind, und wählen Sie Benutzerdefinierte Felder ändern aus.

  8. Geben Sie im Dialogfeld Benutzerdefinierte Felder hinzufügen Folgendes ein:

    protoPayload.serviceData.jobCompletedEvent.job.jobStatistics.totalBilledBytes
    
  9. Klicken Sie auf Speichern, um die Ergebnisse zu aktualisieren.

  10. Multiplizieren Sie die in Rechnung gestellten Byte mit dem On-Demand-Preis für BigQuery ML, um die Kosten für den BigQuery ML-CREATE MODEL-Job zu berechnen. In diesem Beispiel wurden vom CREATE MODEL-Job 100.873.011.200 Byte verarbeitet. Bis die Kosten für diesen Job am multiregionalen Standort US berechnen, dividieren die in Rechnung gestellten Byte mit der Anzahl von Byte pro TiB und mit dem Modell multiplizieren Erstellungskosten:

    100873011200/1099511627776 x $312.5 = $28.669

BI Engine-Preise

BI Engine beschleunigt SQL-Abfragen um Caching von BigQuery-Daten im Arbeitsspeicher. Die Menge der gespeicherten Daten wird durch die Kapazität begrenzt, die Sie erwerben. Wenn Sie BI Engine-Kapazität erwerben möchten, erstellen Sie eine BI Engine-Reservierung in dem Projekt, in dem Abfragen ausgeführt werden.

Wenn BI Engine eine Abfrage beschleunigt, ist die Abfragephase, die Tabellendaten liest, kostenlos. Die nachfolgenden Phasen hängen von der Art der BigQuery-Preise ab, die Sie verwenden:

  • Bei On-Demand-Preisen werden Phasen, die BI Engine verwenden, mit 0 gescannten Byte abgerechnet. Für nachfolgende Phasen fallen keine zusätzlichen On-Demand-Gebühren an.

  • Bei Editionspreisen werden für die erste Phase keine BigQuery-Reservierungsslots genutzt. Nachfolgende Phasen verwenden Slots aus der BigQuery-Reservierung.

Für BI Engine gelten folgende Preise:

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Wenn Sie nicht in US-Dollar bezahlen, werden die Preise in Ihrer Währung Cloud Platform-SKUs angewendet werden.

Versions-Zusicherungspaket

Wenn Sie BigQuery-Preise für Kapazitäts-Computing mit Zusicherungen für BigQuery-Versionen verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazität als Teil Ihres Editionspreises – ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der Ihre Versionsreservierung gespeichert ist. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. BI Engine-Reservierung in einer On-Demand-Analyse Projekt nicht auf die freie Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.

Anzahl der gekauften Slots Kostenlose, zusätzliche BI Engine-Kapazität (GiB)
100 5
500 25
1.000 50
1.500 75
2000 100 (maximal pro Organisation)

Kostenlose Vorgänge

Die folgenden BigQuery-Vorgänge sind an jedem Standort kostenlos. Kontingente und Limits auf diese Vorgänge anwenden können.

Vorgang Details
Daten laden Kostenlos über den gemeinsam genutzten Slot-Pool Kunden haben die Wahl zwischen Preise für Editionen für garantierte Kapazitäten. Nachdem die Daten in BigQuery geladen wurden, wird Ihnen der Speicherplatz in Rechnung gestellt. Weitere Informationen finden Sie unter Preise für Datenaufnahmeversionen
Daten kopieren Für das Kopieren einer Tabelle fallen keine Kosten an, aber es fallen Gebühren an. die Preise für die Aufnahmeversionen angeben oder die neue Tabelle und die kopiert. Weitere Informationen finden Sie unter Vorhandene Tabelle kopieren.
Daten exportieren Für den gemeinsam genutzten Slot-Pool, fallen keine Daten an, aber für das Speichern der Daten in Cloud Storage. Kunden haben die Wahl zwischen Preise der Versionen für garantierte Kapazität. Wenn Sie die EXPORT DATA SQL-Anweisung können Sie die Verarbeitung von Abfragen in Rechnung gestellt wird. Weitere Informationen finden Sie unter Daten exportieren
Vorgänge löschen Das Löschen von Datasets oder Tabellen, das Löschen einzelner Tabellenpartitionen, das Löschen von Ansichten oder benutzerdefinierten Funktionen
Metadatenvorgänge Die Aufrufe „list“, „get“, „patch“, „update“ und „delete“ werden Ihnen nicht in Rechnung gestellt. Darunter fallen beispielsweise das Auflisten von Datasets, das Aktualisieren der Access Control List eines Datasets, das Aktualisieren einer Tabellenbeschreibung oder das Auflisten benutzerdefinierter Funktionen in einem Dataset. Metadaten-Caching Vorgänge für BigLake-Tabellen sind in der kostenlosen Geschäftsabläufe.

Kostenlose Nutzungsstufe

Im Rahmen der kostenlosen Stufe von Google Cloud bietet BigQuery einige Ressourcen bis zu einem bestimmten Limit kostenlos an. Diese kostenlosen Nutzungskontingente sind während des kostenlosen Testzeitraums und auch danach verfügbar. Wenn Sie die Nutzungslimits überschreiten und der kostenlose Testzeitraum abgelaufen ist, fallen die auf dieser Seite genannten Gebühren an. Sie können die kostenlose Stufe von BigQuery in die BigQuery-Sandbox ohne Kreditkarte.

Ressource Monatliche Limits für kostenlose Nutzung Details
Speicher Die ersten 10 GiB pro Monat sind kostenlos. Das kostenlose Speicherkontingent beinhaltet BigQuery ML-Modelle und in BigQuery gespeicherte Trainingsdaten.
Abfragen (Analyse) Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.

Preise für BigQuery-Versionen ist auch für Großkunden verfügbar, die eine stabile, monatlichen Kosten.

BI Engine Bis zu 1 GiB Kapazität für Looker Studio-Nutzer, ohne eine BI Engine-Reservierung zu konfigurieren. Diese Kapazität ist für Looker Studio verfügbar Nutzer, die Looker Studio nicht im nativen BigQuery-Format verwenden Diese zusätzliche Kapazität wird auf Best-Effort-Basis bereitgestellt.

Pauschalpreise

Computing-Pauschalpreise

Wenn Sie das Computing-Pauschalpreismodell verwenden, erwerben Sie eine dedizierte Abfrage Verarbeitungskapazität, gemessen in BigQuery-Slots. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt. Wenn Ihre Kapazität Ihre zugesicherte Kapazität überschreiten, stellt BigQuery Abfragen in die Warteschlange Es fallen zusätzliche Gebühren an.

Computing-Pauschalpreise:

  • Bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
  • Gilt nicht für Speicherkosten oder BI Engine-Kosten
  • Gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
  • Wird als regionale Ressource gekauft. Bereich Zusicherungen die in einer oder mehreren Regionen erworben wurden, können nicht in einer anderen Region verwendet werden. multiregional und kann nicht verschoben werden.
  • Ist in Form von sekundengenauen (Flex-), monatlichen und jährlichen Zusicherungen verfügbar.
  • Kann für Ihre gesamte Organisation angewandt werden. Es besteht kein Bedarf an Slot-Zusicherungen für jedes Projekt.
  • Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
  • Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.

Zusicherungen zum monatlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten Ihrer monatlichen Pauschalpreis-Slotzusicherung. Weitere Informationen finden Sie unter Monatliche Zusicherungen.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Zusicherungen zu einem jährlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten Ihrer jährlichen pauschalen Slotzusicherung. Weitere Informationen finden Sie unter Jährliche Zusicherungen.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Flex-Slots: kurzfristige Pauschalpreiszusicherungen

Flex-Slots sind ein spezieller Zusicherungstyp:

  • Die Dauer der Zusicherung beträgt nur 60 Sekunden.
  • Sie können Flex-Slots jederzeit kündigen.
  • Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.

Flex-Slots unterliegen der Kapazitätsverfügbarkeit. Beim Kaufversuch Flex-Slots ist, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots

Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:

Pauschalpreise für BigQuery Omni

BigQuery Omni bietet Pauschalpreise mit vorhersehbaren Kosten für Abfragen. Verwenden Sie BigQuery Reservations, um Pauschalpreise zu aktivieren.

Wenn Sie sich für den Pauschalpreis von BigQuery Omni anmelden, erwerben Sie Verarbeitungskapazität für Abfragen, gemessen in Slots, in Amazon Web Services oder Microsoft Azure. Ihre Abfragen verbrauchen diese Kapazität. Die verarbeiteten Byte werden Ihnen nicht in Rechnung gestellt.

Pauschalpreise für BigQuery Omni:

  • Bezieht sich auf Abfragekosten. Gilt nicht für Speicherkosten.
  • Slot-Zusicherungen die für eine einzelne Multi-Cloud-Region erworben wurden. Die in einer Region erworbene Kapazität kann nicht in einer anderen Region genutzt werden.
  • Ist in Form von monatlichen und jährlichen Zusicherungen verfügbar. Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
  • Kann für Ihre gesamte Organisation angewandt werden. Sie müssen keine Slots kaufen Zusicherungen für jedes Projekt.
  • Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.

Zusicherungen zum monatlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung: Weitere Informationen finden Sie unter Monatliche Zusicherungen.

Zusicherungen zu einem jährlichen Pauschalpreis

Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung: Weitere Informationen finden Sie unter Jährliche Zusicherungen.

Flex-Slots: kurzfristige Zusicherungen

Flex-Slots sind ein spezieller Zusicherungstyp:

  • Die Dauer der Zusicherung beträgt nur 60 Sekunden.
  • Sie können Flex-Slots jederzeit kündigen.
  • Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.

Flex-Slots in BigQuery Omni unterliegen der Kapazitätsverfügbarkeit in AWS oder Azure. Wenn Sie versuchen, Flex-Slots zu kaufen, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots

Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:

BI Engine-Pauschalpreis-Zusicherungspaket

Wenn Sie BigQuery-Slotzusicherungen zum Pauschalpreis verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazitäten im Rahmen Ihres Pauschalpreises ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der sich auch Ihre Pauschalpreisreservierung befindet. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. Eine BI Engine-Reservierung in einem On-Demand-Compute-Projekt wird nicht auf die kostenlose Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.

Anzahl der gekauften Slots Kostenlose, zusätzliche BI Engine-Kapazität (GiB)
100 5
500 25
1.000 50
1.500 75
2000 100 (maximal pro Organisation)

Nächste Schritte

Individuelles Angebot einholen

Mit den „Pay as you go“-Preisen von Google Cloud bezahlen Sie nur für die Dienste, die Sie nutzen. Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Vertrieb kontaktieren