BigQuery-Preise
BigQuery ist eine serverlose Datenanalyseplattform. Zur Nutzung von BigQuery müssen Sie keine einzelnen Instanzen oder virtuellen Maschinen bereitstellen. Stattdessen weist BigQuery Rechenressourcen automatisch nach Bedarf zu. Sie können die Computing-Kapazität auch vorzeitig in Form von Slots reservieren, die virtuelle CPUs darstellen. Die Preisstruktur von BigQuery spiegelt dieses Design wider.
BigQuery-Preise
BigQuery-Preise haben zwei Hauptkomponenten:
Computing-Preise sind die Kosten für die Verarbeitung von Abfragen, einschließlich SQL-Abfragen, benutzerdefinierter Funktionen, Skripts und bestimmten Anweisungen in der Datenbearbeitungssprache (Data Manipulation Language, DML) und der Datendefinitionssprache (Data Definition Language, DDL).
Speicherpreise entsprechen den Kosten für das Speichern von Daten, die Sie in BigQuery laden.
Bei BigQuery fallen weitere Vorgänge an, darunter die Verwendung von BigQuery Omni, BigQuery ML, BI Engine und das Streaming von Lesevorgängen und Schreibvorgängen.
Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsstufe.
Jedes von Ihnen erstellte Projekt ist mit einem Rechnungskonto verknüpft. Alle Kosten, die für BigQuery-Jobs im Rahmen dieses Projekts entstehen, werden vom verknüpften Rechnungskonto abgebucht. Speichergebühren für BigQuery werden ebenfalls dem verknüpften Konto in Rechnung gestellt. Auf der Seite mit den Cloud Billing-Berichten in der Google Cloud Console können Sie sich die BigQuery-Kosten und -Trends ansehen.
Compute-Preismodelle
BigQuery bietet zwei Computing-Preismodelle für das Ausführen von Abfragen:
On-Demand-Preise (pro TiB). Bei diesem Preismodell wird Ihnen die Anzahl der von einer Abfrage verarbeiteten Byte in Rechnung gestellt. Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.
Kapazitätspreise (pro Slot-Stunde). Bei diesem Preismodell wird Ihnen die Rechenkapazität in Rechnung gestellt, die zum Ausführen von Abfragen verwendet wird, gemessen in Slots (virtuellen CPUs) im Zeitverlauf. Dieses Modell nutzt die BigQuery-Versionen. Sie können BigQuery-Autoscaling verwenden oder Slotzusicherungen erwerben, bei denen es sich um dedizierte Kapazitäten handelt, die für Ihre Arbeitslasten immer zu einem niedrigeren Preis verfügbar sind.
Weitere Informationen zu den Preisen für Ihre Arbeitslasten finden Sie unter Arbeitslastverwaltung mit Reservierungen.
On-Demand-Computing-Preise
Abfragen werden standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.
Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf bis zu 2.000 gleichzeitige Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.
Für On-Demand-Abfragen (pro TiB) gelten folgende Preise:
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend den verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der darin enthaltenen Datentypen berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Abfragekosten schätzen.
- Ihnen werden Abfragen in Rechnung gestellt, die für freigegebene Daten ausgeführt werden. Dem Dateninhaber fallen keine Kosten für den Zugriff auf seine Daten an.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei prozeduralen Jobs muss diese Überlegung pro Anweisung erfolgen.
- Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
- Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites
LIMIT
für die Ergebnisse festlegen. - Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.
Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:
- benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene
- Die maximal berechneten Byte pro Abfrage
Ausführliche Beispiele zur Berechnung der Anzahl der verarbeiteten Byte finden Sie unter Berechnung der Abfragegröße.
Preise für Kapazitäts-Computing
BigQuery bietet ein kapazitätsbasiertes Analysepreismodell für Kunden, die vorhersehbare Kosten für Abfragen bevorzugen, anstatt den On-Demand-Preis pro TiB verarbeiteter Daten zu bezahlen.
Zum Aktivieren von Kapazitätspreisen verwenden Sie BigQuery-Reservierungen.
BigQuery-Versionen
BigQuery-Versionen bieten „Pay as you go“-Preise (mit Autoscaling) und optionale Zusicherungen für ein Jahr und drei Jahre. Mit Versionen nutzen Sie die Verarbeitungskapazität für Abfragen, die in Slots gemessen wird, anstatt die verarbeiteten Byte in Rechnung zu stellen.
Slotkapazität der BigQuery-Versionen:
- ist in drei Versionen verfügbar: Standard, Enterprise und Enterprise Plus.
- gilt für Abfragekosten, einschließlich BigQuery ML-, DML- und DDL-Anweisungen.
- gilt nicht für Speicherkosten oder BI Engine-Kosten.
- gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- das BigQuery-Autoscaling nutzen kann.
- wird pro Sekunde mit einem Minimum von einer Minute abgerechnet
Optionale Slot-Zusicherungen in den BigQuery-Versionen:
- sind für ein oder drei Jahre verfügbar.
- sind in Enterprise und Enterprise Plus verfügbar.
- sind regionale Kapazitäten. Zusicherungen in einer Region oder Mehrfachregion können nicht in einer anderen Region oder Mehrfachregion verwendet werden und können auch nicht verschoben werden.
- können für Ihre gesamte Organisation freigegeben werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
- werden mit einem Minimum von 100 Slots und in Schritten von 100 Slots angeboten.
- werden automatisch verlängert, sofern sie nicht zum Ende der Laufzeit gekündigt werden.
Standardversion
In der folgenden Tabelle sind die Kosten für Slots in der Standardversion aufgeführt.
Enterprise-Version
In der folgenden Tabelle sind die Kosten für Slots in der Enterprise-Version aufgeführt.
Enterprise Plus-Version
In der folgenden Tabelle sind die Kosten für Slots in Enterprise Plus aufgeführt.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Speicherpreise
Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden. Sie zahlen für aktiven Speicherplatz und langfristigen Speicherplatz.
Aktiver Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die in den letzten 90 Tagen geändert wurden.
Langfristiger Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die 90 Tage lang nicht geändert wurden. Der Preis für die Speicherung für diese Tabelle sinkt automatisch um ca. 50 %. Aktiver und langfristiger Speicher unterscheiden sich nicht in Leistung, Langlebigkeit und Verfügbarkeit.
Die ersten 10 GiB Speicherplatz pro Monat sind kostenlos.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Informationen zu den Voraussetzungen finden Sie in der Dokumentation zum physischen Speicher.
Preisinformationen
Die Speicherpreise basieren auf der Datenmenge, die in Ihren Tabellen, temporären Sitzungstabellen und temporären Tabellen mit mehreren Anweisungen gespeichert ist. Für temporäre im Cache gespeicherte Abfrageergebnistabellen fallen keine Speichergebühren an.
Die Datengröße wird anhand der Datentypen in den einzelnen Spalten berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
Die Preise für die Speicherung werden pro MiB und Sekunde anteilig berechnet. Wenn Sie beispielsweise aktiven logischen Speicher in us-central1 verwenden:
- Für 512 MiB für einen halben Monat zahlen Sie 0, 00575 $
- Für 100 GiB für einen halben Monat zahlen Sie 1, 15 $.
- Für 1 TiB für einen vollen Monat bezahlen Sie 23, 552 $
Die Speichernutzung wird in Gibibyte-Monaten (GiB-Monaten) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB). Der endgültige Nutzungswert ist das Produkt aus der Datengröße in Gibibyte und der Speichernutzungszeit in Monaten.
Wenn die Daten in einer Tabelle nicht innerhalb von 90 aufeinanderfolgenden Tagen geändert oder gelöscht werden, wird die Langzeitspeicherung in Rechnung gestellt. Es kommt zu keiner Beeinträchtigung der Leistung, Langlebigkeit, Verfügbarkeit oder anderer Funktionen, wenn eine Tabelle in die Langzeitspeicherung übergeht.
Die Kosten für jede Partition einer partitionierten Tabelle werden bei der Langzeitspeicherung separat berechnet. Wenn eine Partition in den letzten 90 Tagen nicht geändert wurde, werden die Daten in dieser Partition als Langzeitspeicherung betrachtet und zum Rabattpreis in Rechnung gestellt.
Wird die Tabelle bearbeitet, gilt wieder der reguläre Speicherpreis, und der 90-Tage-Timer wird auf null zurückgesetzt. Durch jeden Vorgang, bei dem die Daten in einer Tabelle geändert werden, wird der Timer zurückgesetzt. Beispiele:
Vorgang | Details |
---|---|
Daten in eine Tabelle laden | Jeder Lade- oder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Daten in eine Tabelle kopieren | Jeder Kopierjob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Abfrageergebnisse in eine Tabelle schreiben | Jeder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Datenbearbeitungssprache (Data Manipulation Language, DML) verwenden | Einsatz einer DML-Anweisung, um Tabellendaten zu bearbeiten. |
Datendefinitionssprache (DDL) verwenden | CREATE OR REPLACE TABLE -Anweisung verwenden, um eine Tabelle zu ersetzen |
Daten in eine Tabelle streamen | Aufnahme von Daten mithilfe des API-Aufrufs tabledata.insertAll . |
Bei allen anderen Vorgängen wird der Timer nicht zurückgesetzt. Dazu gehören:
- Eine Tabelle abfragen
- Eine Ansicht erstellen, mit der eine Tabelle abgefragt wird
- Daten aus einer Tabelle exportieren
- Eine Tabelle (in eine andere Zieltabelle) kopieren.
- Eine Tabellenressource patchen oder aktualisieren
Für Tabellen, die den 90-Tage-Schwellenwert während eines Abrechnungszeitraums erreichen, wird der Preis entsprechend anteilig berechnet.
Die Kosten für die Langzeitspeicherung gelten nur für den BigQuery-Speicher und nicht für Daten in externen Datenquellen wie Bigtable, Cloud Storage und Google Drive.
Berechnung der Datengröße
Beim Laden von Daten in BigQuery oder beim Abfragen von Daten werden die Kosten anhand der Datengröße berechnet. Dazu wird die Größe des Datentyps der jeweiligen Spalte herangezogen.
Die Größe der gespeicherten Daten und die Größe der durch Ihre Abfragen verarbeiteten Daten wird in Gibibyte (GiB) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Dementsprechend ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB).
Weitere Informationen finden Sie unter Datentypgrößen.
Data Transfer Service – Preise
Die Gebühren für den BigQuery Data Transfer Service werden monatlich anteilig in Rechnung gestellt und so berechnet:
Datenquelle | Monatliche Gebühr (anteilig) | Hinweise |
---|---|---|
Campaign Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Cloud Storage | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Amazon S3 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1,2,3 |
Google Ads | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Ad Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Merchant Center | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Play | 25 $ pro eindeutigem Paketname in der Tabelle |
1 |
Search Ads 360 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Kanal | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Rechteinhaber | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Data Warehouse | Monatliche Gebühr (anteilig) | Hinweise |
Teradata | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3, 4 |
Amazon Redshift | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3 |
Drittanbieter-Connectors | Es fallen Kosten an | Weitere Informationen finden Sie unter 5. |
Hinweise zu den Übertragungskosten
Alle Übertragungen
1. Nach der Übertragung von Daten in BigQuery gelten die Standardpreise für Speicher und Abfragen in BigQuery.
Migrationen von anderen Plattformen
2. Das Extrahieren, das Hochladen in einen Cloud Storage-Bucket und das Laden von Daten in BigQuery ist kostenlos.
3. Kosten können auch außerhalb von Google Cloud durch die Nutzung des BigQuery Data Transfer Service anfallen, z. B. Gebühren für AWS- oder Azure-Datenübertragungen.
Teradata-Migrationen
4. Die Daten werden nach dem Hochladen in BigQuery nicht automatisch aus Ihrem Cloud Storage-Bucket gelöscht. Daher sollten Sie sie selbst herauslöschen, um weitere Speicherkosten zu vermeiden. Weitere Informationen finden Sie unter Cloud Storage – Preise.
Drittanbieter-Connectors
5. Für Connectors von Drittanbietern fallen Kosten an. Das Preismodell unterscheidet sich je nach Partner und Connector. Weitere Preisinformationen finden Sie in den einzelnen Connectors, wenn Sie sich in Marketplace registrieren.
Google Play-Paketname
Jede Android-App hat eine eindeutige App-ID, die wie der Name eines Java-Pakets aussieht, z. B. com.beispiel.meineapp. Der Bericht Installationen enthält die Spalte „Paketname“. Die Anzahl der eindeutigen Paketnamen wird verwendet, um die Nutzung von Übertragungen zu berechnen.
Jede Übertragung, die Sie erstellen, generiert eine oder mehrere Ausführungen pro Tag. Paketnamen werden nur an dem Tag gezählt, an dem die Übertragung abgeschlossen wird. Wenn beispielsweise ein Übertragungsdurchlauf am 14. Juli beginnt, aber am 15. Juli abgeschlossen wird, werden die Paketnamen am 15. Juli gezählt.
Kommt ein eindeutiger Paketname an einem bestimmten Tag in mehr als einem Übertragungsdurchlauf vor, wird er nur einmal gezählt. Paketnamen werden für unterschiedliche Übertragungskonfigurationen separat gezählt. Kommt ein eindeutiger Paketname in Durchläufen für zwei separate Übertragungskonfigurationen vor, wird der Paketname zweimal gezählt.
Wenn ein Paketname einen ganzen Monat lang jeden Tag angezeigt wird, werden Ihnen für diesen Monat die vollen 25 € berechnet. Ist dies nicht der Fall, wird die Gebühr anteilig in Rechnung gestellt, wenn sie nur für einen Teil des Monats erscheint.
Beispiel 1: Wenn wir für eine Anwendung synchronisieren – com.smule.singandroid, kostet das dann 25 $pro Monat plus Speicherpreis für BigQuery?
Die Antwort lautet 25 $pro Monat (anteilig) + Speicher-/Abfragekosten von BigQuery.
Beispiel 2: Wenn wir alle historischen Daten (für 10 Jahre) synchronisieren, werden dann 120 Monate oder 1 Monat in Rechnung gestellt, weil wir sie gleichzeitig übertragen haben?
Die Antwort lautet immer noch 25 $pro Monat (anteilig) plus Speicher-/Abfragekosten von BigQuery, da wir 25 $pro eindeutigem Paketname in der Tabelle "Installs_country" berechnen, unabhängig davon, auf wie viele Jahre die Verlaufsdaten für diesen eindeutigen Paketnamen zurückreichen.
BigQuery Omni-Preise
BigQuery Omni bietet abhängig von Ihren Arbeitslasten und Anforderungen die folgenden Preismodelle.
On-Demand-Computing-Preise
Ähnlich wie bei der On-Demand-Analyse in BigQuery werden Abfragen für BigQuery Omni standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet. Dabei bezahlen Sie für die von Ihren Abfragen gescannten Daten.
Bei On-Demand-Preisen haben Sie in der Regel Zugriff auf einen großen Pool an gleichzeitigen Slots, die auf alle Abfragen in einem Projekt aufgeteilt werden. BigQuery Omni greift in regelmäßigen Abständen vorübergehend über dieses Limit hinaus, um kleinere Abfragen zu beschleunigen. Außerdem kann es gelegentlich vorkommen, dass weniger Slots verfügbar sind, wenn es zu großen Konflikten um On-Demand-Kapazität an einem bestimmten Standort kommt.
Für On-Demand-Abfragen (pro TiB) von BigQuery Omni gelten folgende Preise:
Region | Preis pro TiB |
---|---|
AWS North Virginia (aws-us-east-1) | 7,82 $ |
Azure North Virginia (azure-eastus2) | 9,13 $ |
AWS Seoul (aws-ap-northeast-2) | 10,00 $ |
AWS Oregon (aws-us-west-2) | 7,82 $ |
AWS Irland (aws-eu-west-1) | 8,60 $ |
AWS Sydney (aws-ap-southeast-2) | $10,55 |
AWS Frankfurt (aws-eu-central-1) | $10,16 |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisangaben
Die Details und Einschränkungen ähneln den Preisen für BigQuery-Analysen. Beachten Sie Folgendes zu den On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend der verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der Datentypen in der Spalte berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Berechnung der Datengröße.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei prozeduralen Jobs muss diese Überlegung pro Anweisung erfolgen.
- Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die sich die Abfrage bezieht, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wenn Sie einen laufenden Abfragejob abbrechen, können Gebühren bis zur volle Höhe der Abfrage anfallen, wenn Sie die Abfrage bis zum Ende ausführen lassen.
- Beim Ausführen einer Abfrage werden Ihnen die Kosten entsprechend den Daten berechnet, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch dann, wenn Sie für die Ergebnisse ein explizites LIMIT festlegen.
- Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dies kann die Anzahl der gescannten Byte reduzieren.
BigQuery bietet Mechanismen zur Kostenkontrolle, mit denen Sie Ihre Abfragekosten begrenzen können. Sie können Folgendes festlegen:
- Benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene.
- Die maximal berechneten Byte pro Abfrage
BigQuery Omni mit Versionen
BigQuery Omni-Regionen unterstützen BigQuery-Versionen. Derzeit wird in Omni-Regionen nur die Enterprise Edition unterstützt.
Die folgende Tabelle zeigt die Kosten für Slots in Omni-Regionen
AWS North Virginia (aws-us-east-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,50 $ (3 Jahre in Rechnung gestellt) | 100 |
Azure North Virginia (azure-eastus2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 8,80 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,30 $ (3 Jahre in Rechnung gestellt) | 100 |
AWS Seoul (aws-ap-northeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 9,60 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7,7 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,80 $ (3 Jahre in Rechnung gestellt) | 100 |
AWS Oregon (aws-us-west-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6,00 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,50 $ (3 Jahre in Rechnung gestellt) | 100 |
AWS Irland (aws-eu-west-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 8,25 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6,60 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,95 $ (3 Jahre in Rechnung gestellt) | 100 |
AWS Sydney (aws-ap-southeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 10,13 $ (pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 8,10 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 6,08 $ (3 Jahre in Rechnung gestellt) | 100 |
AWS Frankfurt (aws-eu-central-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 9,75 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7,80 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,85 $ (3 Jahre in Rechnung gestellt) | 100 |
Cloudübergreifende Omni-Channel-Datenübertragung
Wenn Sie Cloud-übergreifende Funktionen von Omni (Cloudübergreifende Übertragung, Tabelle als Auswahl erstellen, Einfügen in Auswahl, Cross-Cloud Joins und materialisierte Ansichten in der Cloud) verwenden, bei denen Daten von AWS oder Azure zu Google Cloud verschoben werden, fallen zusätzliche Gebühren für die Datenübertragung an.
Speziell für cloudübergreifende materialisierte Ansichten, „Tabelle als Auswahl erstellen“, „In Auswahl einfügen“ und „Cloudübergreifende Joins“ fallen während der Vorabversion keine Gebühren an. Ab dem 29. Februar 2024 sind diese Dienste allgemein verfügbar. Die Datenübertragung wird Ihnen in Rechnung gestellt. Die Datenübertragung wird Ihnen nur in Rechnung gestellt, wenn Sie einen der oben aufgeführten Dienste von einer AWS- oder Azure-Region in eine Google Cloud BigQuery-Region nutzen. Der Preis pro GiB basiert auf der von AWS oder Azure zu Google Cloud übertragenen Datenmenge.
SKU | Abrechnungsmodell | Meter | Preis |
---|---|---|---|
Cloudübergreifende Datenübertragung von AWS North Virginia (aws-us-east-1) nach Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | € 0,09 |
Cloudübergreifende Datenübertragung von Azure North Virginia (azure-eastus2) nach Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | 0,0875 $ |
Cloudübergreifende Datenübertragung von AWS Seoul (aws-ap-northeast-2) zu Google Cloud Asia | nutzungsbasiert | GiB übertragen | 0,126 $ |
Cloudübergreifende Datenübertragung von AWS Oregon (aws-us-west-2) nach Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | € 0,09 |
Cloudübergreifende Datenübertragung von AWS Ireland (aws-eu-west-1) zu Google Cloud Europe | nutzungsbasiert | GiB übertragen | € 0,09 |
Cloudübergreifende Datenübertragung von AWS Sydney (aws-ap-southeast-2) zu Google Cloud Oceania | nutzungsbasiert | GiB übertragen | 0,114 $ |
Cloudübergreifende Datenübertragung von AWS Frankfurt (aws-eu-central-1) zu Google Cloud Europe | nutzungsbasiert | GiB übertragen | € 0,09 |
Omni-verwalteter Speicher
Wenn Sie die Funktion „Cross-Cloud Materialized View“ von Omni nutzen, wird Ihnen auch das Erstellen lokaler materialisierter Ansichten im verwalteten BigQuery-Speicher in AWS in Rechnung gestellt. Ihnen wird pro GiB der physische Speicher berechnet, der für die lokale materialisierte Ansicht verwendet wird.
Vorgang | Preise |
---|---|
Aktiver physischer Speicher (aws-us-east-1) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-east-1) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (azure-eastus2) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (azure-eastus2) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-northeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-northeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-us-west-2) | 0,04 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-west-2) | 0,02 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-west-1) | 0,044 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-eu-west-1) | 0,022 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-southeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-southeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-central-1) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-eu-central-1) | 0,026 $ pro GiB und Monat |
Preise für die Datenaufnahme
BigQuery bietet zwei Modi für die Datenaufnahme:
Laden im Batch: Laden Sie Quelldateien in einem einzigen Batchvorgang in eine oder mehrere BigQuery-Tabellen.
Streaming. Streamen Sie Daten einzeln oder in kleinen Batches mit der BigQuery Storage Write API oder der Legacy Streaming API.
Weitere Informationen dazu, welcher Modus ausgewählt wird, finden Sie unter Einführung in das Laden von Daten.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Standardmäßig werden Ihnen keine Gebühren für das Laden von Daten aus dem Cloud-Speicher oder für lokale Dateien in BigQuery in Rechnung gestellt. Für Ladejobs wird standardmäßig ein gemeinsam genutzter Pool von Slots verwendet. BigQuery gibt keine Garantien für die verfügbaren Kapazitäten dieses gemeinsamen Pools oder den angezeigten Durchsatz. Alternativ können Sie dedizierte Slots erwerben, um Ladejobs auszuführen. Für dedizierte Slots werden kapazitätsbasierte Preise berechnet. Wenn Nutzlasten einer Reservierung zugewiesen sind, verlieren sie den Zugriff auf den kostenlosen Pool. Weitere Informationen finden Sie unter Zuweisungen.
Sobald die Daten in BigQuery geladen sind, gelten die entsprechenden Speicherpreise von BigQuery. Wenn Sie Daten aus Cloud Storage laden, wird Ihnen das Speichern der Daten in Cloud Storage in Rechnung gestellt. Weitere Informationen finden Sie auf der Seite mit den Cloud Storage-Preisen unter Datenspeicherung.
Preise für die Datenextraktion
BigQuery bietet die folgenden Modi der Datenextraktion:
Batch-Export. Verwenden Sie einen Extrahierjob, um Tabellendaten nach Cloud Storage zu exportieren. Für den Export von Daten aus einer BigQuery-Tabelle mit einem Extrahierjob fallen keine Verarbeitungsgebühren an.
Abfrageergebnisse exportieren. Verwenden Sie die Anweisung
EXPORT DATA
, um Abfrageergebnisse in Cloud Storage oder Bigtable zu exportieren. Die Verarbeitung der Abfrageanweisung mit dem On-Demand- oder kapazitätsbasierten Modell wird Ihnen in Rechnung gestellt.Streaming-Lesevorgänge. Verwenden Sie die Storage Read API, um Tabellendaten mit hohem Durchsatz zu lesen. Ihnen wird die Menge der gelesenen Daten in Rechnung gestellt.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preise für Datenübertragung im Batch-Export
Die Datenübertragung wird Ihnen in Rechnung gestellt, wenn Sie Daten im Batch aus BigQuery in einen Cloud Storage-Bucket oder eine Bigtable-Tabelle in einer anderen Region exportieren. Gehen Sie dazu so vor:
Fall | Beispiel | Preis |
---|---|---|
Innerhalb desselben Speicherorts exportieren | Von us-east1 nach us-east1 | Kostenlos |
Aus BigQuery (multiregional) „US“ exportieren | Von (multiregional) USA nach us-central1 (Iowa) | Kostenlos |
Aus BigQuery (multiregional) „US“ exportieren | Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Aus BigQuery-Multi-Region EU exportieren | Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) | Kostenlos |
Aus BigQuery-Multi-Region EU exportieren | Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) | Siehe folgende Tabelle |
Standortübergreifend exportieren | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Quellort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Storage Read API-Datenübertragung in Google Cloud
Fall | Beispiele | Preis |
---|---|---|
Über temporäre Tabellen auf im Cache gespeicherte Abfrageergebnisse zugreifen |
|
Kostenlos |
Datenlesevorgänge am selben Standort |
|
Kostenlos |
Daten werden aus einer BigQuery-Multi-Region an einen anderen BigQuery-Standort gelesen und beide Standorte befinden sich auf demselben Kontinent. |
|
Kostenlos |
Daten werden zwischen zwei Standorten auf demselben Kontinent gelesen (sofern keines der oben genannten kostenlosen Szenarien zutrifft). |
|
0,01 $/GiB* |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen keiner Australien ist. |
|
0,08 $ pro GiB |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen einer Australien ist. |
|
0,15 $ pro GiB |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Allgemeine Netzwerknutzung der Storage Read API
Monatliche Nutzung |
Datenübertragung an Ziele auf der ganzen Welt (außer Asien und Australien) (pro GiB) |
Datenübertragung an Ziele in Asien (außer China, aber einschließlich Hongkong) (pro GiB) |
Datenübertragung an Ziele in China (außer Hongkong) (pro GiB) |
Datenübertragung an Ziele in Australien (pro GiB) |
Eingehende Datenübertragung |
---|---|---|---|---|---|
0–1 TiB | 0,12 $ | 0,12 $ | 0,19 $ | 0,19 $ | Kostenlos |
1–10 TiB | 0,11 $ | 0,11 $ | 0,18 $ | 0,18 $ | Kostenlos |
10+ TiB | 0,08 $ | 0,08 $ | 0,15 $ | 0,15 $ | Kostenlos |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisangaben zur Storage Read API
Für die Storage Read API gilt ein On-Demand-Preismodell. Bei On-Demand-Preisen berechnet BigQuery die Anzahl der verarbeiteten Byte (auch als gelesene Byte bezeichnet). Die On-Demand-Preise basieren ausschließlich auf der Nutzung mit einer kostenlosen Lesestufe von 300 TiB pro Monat für jedes Rechnungskonto. Byte, die im Rahmen von Lesevorgängen aus temporären Tabellen gescannt werden, sind kostenlos und werden nicht auf das kostenlose Kontingent von 300 TiB angerechnet. Diese 300 TiB gelesenen freien Byte befinden sich auf der Komponente für gelesene Byte und gelten nicht für die zugehörige ausgehende Datenübertragung.
Beachten Sie außerdem folgende Hinweise zu den Storage Read API-Gebühren:
- Ihnen wird die gesamte gelesene Datenmenge in Rechnung gestellt. Sowohl die insgesamt pro Spalte gelesenen Daten als auch die Datengröße werden anhand des Datentyps in der Spalte berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
- Ihnen werden alle während einer Lesesitzung gelesenen Daten in Rechnung gestellt, auch wenn ein
ReadRows
-Aufruf fehlschlägt. - Wenn Sie einen
ReadRows
-Aufruf abbrechen, bevor das Ende des Streams erreicht ist, werden Ihnen alle Daten in Rechnung gestellt, die bis dahin gelesen wurden. Das betrifft auch Daten, die vor dem Abbruch desReadRows
-Aufrufs gelesen, aber nicht an Sie zurückgegeben wurden. - Sie sollten wann immer möglich partitionierte und geclusterte Tabellen verwenden.
Sie können die gelesene Datenmenge reduzieren, indem Sie Partitionen mit einer
WHERE
-Klausel bereinigen. Weitere Informationen finden Sie unter Partitionierte Tabellen abfragen. - Bei Verwendung von Interconnect gelten die Cloud Interconnect-Preise anstelle der Preise für die allgemeine Netzwerknutzung der BigQuery Storage Read API.
Preise für Datenreplikation
BigQuery bietet zwei Modi zum Replizieren (Kopieren) von Daten zwischen Regionen:
Regionenübergreifender Text. Einmalige oder geplante Kopie von Tabellendaten zwischen Regionen oder Mehrfachregionen, siehe Datasets kopieren oder Tabellen kopieren.
Regionenübergreifende Replikation. Eine laufende inkrementelle Replikation eines Datasets zwischen zwei oder mehreren verschiedenen Regionen oder multiregionalen Standorten finden Sie unter Regionenübergreifende Replikation von Datasets.
Regionsübergreifende schnelle Replikation. Leistungsstarke, fortlaufende, inkrementelle Replikation eines Datasets zwischen zwei oder mehr verschiedenen Regionen oder Multiregionen. Nur bei verwalteter Notfallwiederherstellung verfügbar.
Speicher für replizierte Daten
Replizierte Daten, die in der Zielregion oder dem multiregionalen Standort gespeichert sind, werden gemäß den BigQuery-Speicherpreisen berechnet.
Preise für die Datenübertragung der Datenreplikation
Die Datenübertragung wird für das replizierte Datenvolumen in Rechnung gestellt. Die Anwendungsfälle und die Aufschlüsselung der Gebühren für die Datenübertragung werden so aufgeführt:
Fall | Beispiel | Preis |
---|---|---|
Innerhalb desselben Standorts replizieren | Von us-east1 nach us-east1 | Kostenlos |
Aus BigQuery (multiregional) „US“ replizieren | Von (multiregional) USA nach us-central1 (Iowa) | Kostenlos |
Aus BigQuery (multiregional) „US“ replizieren | Vom multiregionalen Standort „US“ in eine beliebige Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Aus BigQuery-Multi-Region EU replizieren | Vom multiregionalen Standort „EU“ nach europe-west4 (Niederlande) | Kostenlos |
Aus BigQuery-Multi-Region EU replizieren | Vom multiregionalen Standort „EU“ in eine beliebige Region (außer europe-west4 (Niederlande)) | Siehe folgende Tabelle |
Standortübergreifend replizieren | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Quellort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Preise für die Datenübertragung der Datenreplikation für die schnelle Replikation
Quellort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,04 $/GiB | 0,10 $ pro GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Europa | 0,10 $ pro GiB | 0,04 $/GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Asien | 0,16 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Indonesien | 0,20 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Ozeanien | 0,20 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Naher Osten | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,16 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Lateinamerika | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Afrika | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Externe Dienste
BigQuery kann externe Dienste nutzen, um Workflows für Datenanalysen zu vereinfachen. Für einige dieser Dienste außerhalb von BigQuery werden Ihnen weiterhin BigQuery-SKUs in Rechnung gestellt:
BigQuery Studio-Notebooks
BigQuery Studio Notebooks basieren auf einer Standard-Notebook-Laufzeit, die die Colab Enterprise-Laufzeit verwendet, um die Ausführung von Notebookcode zu ermöglichen. Die Nutzung dieser Dienste wird als „Pay as you go“-Slots und als GB/s-Nutzung für SSDs abgerechnet. Gebühren für BigQuery-Notebooks werden ab dem 20. April abgerechnet.
Die Standard-Notebook-Laufzeit ist eine von Google bereitgestellte virtuelle Maschine (VM), die den Code in Ihrem Notebook (IPYNB-Datei) ausführen kann. Damit können BigQuery-Kunden Python-Scripts ausführen. Bei Inaktivität fallen keine Kosten an.
*Die „Pay as you go“-Slots werden in der Version gemessen, die auf Projektebene verwendet wird.
Das Standard-Notebook weist PD und SSD im Hintergrund zu, damit Nutzer neue Data-Science-Pakete installieren und ihre Arbeit über den von ihnen ausgeführten Python-Code hinaus verwalten können. Sobald der nichtflüchtige Speicher und die SSD freigegeben sind, fallen keine Kosten mehr an.
Preisinformationen zu BigQuery Studio-Notebooks:
- Die Standardlaufzeitkonfiguration kann zur Verbesserung der Nutzerfreundlichkeit geändert werden. Weitere Informationen
- Colab Enterprise-Laufzeiten werden standardmäßig nach 180 Minuten Inaktivität beendet. Auf dieser Seite wird das Feature zum Herunterfahren bei Inaktivität beschrieben. Außerdem wird beschrieben, wie Sie die Standardeinstellungen für das Herunterfahren bei Inaktivität ändern oder das Feature deaktivieren, wenn Sie eine Laufzeitvorlage erstellen.
BigQuery ML – Preise
BigQuery ML-Modelle können in zwei Kategorien unterteilt werden: eingebundene Modelle und externe Modelle. Integrierte BigQuery ML-Modelle werden in BigQuery trainiert, z. B. lineare Regression, logistische Regression, Mittelwerte, Matrixfaktorisierung, PCA- und Zeitachsenmodelle (z. B. ARIMA_PLUS) hochladen. Externe BigQuery ML-Modelle werden mit anderen Google Cloud-Diensten, DNN, Boosted Tree und Random Forest (die mit Vertex AI trainiert werden) sowie AutoML-Modellen (im Vertex AI Tables-Back-End) trainiert. Die Preise für das BigQuery ML-Modelltraining richten sich nach dem Modelltyp, Ihrem Nutzungsmuster und Ihrem Preismodell: Editionen oder On-Demand. Die Vorhersage- und Bewertungsfunktionen von BigQuery ML werden in BigQuery ML für alle Modelltypen zu den unten erläuterten Preisen ausgeführt.
Preise für BigQuery ML-Versionen
BigQuery ML ist in Enterprise und Enterprise Plus für Kunden verfügbar, die ein auf Rechenkapazität (Anzahl der Slots) basierendes Preismodell gegenüber dem On-Demand-Modell (Anzahl der verarbeiteten Byte) bevorzugen. Kunden können mit Enterprise- oder Enterprise Plus-Reservierungen alle Features von BigQuery ML nutzen. Die Nutzung von BigQuery ML ist in der Nutzung von BigQuery-Versionen enthalten.
Reservierungen zum Erstellen eingebundener Modelle
BigQuery hat drei Jobtypen für Reservierungszuweisungen: QUERY
, PIPELINE
und ML_EXTERNAL
. Zuweisungen vom Typ QUERY
, die für Analyseabfragen verwendet werden, werden auch zum Ausführen von CREATE MODEL
-Abfragen für integrierte BigQuery ML-Modelle verwendet. Integrierte Modellschulungen und analytische Abfragen teilen sich den gleichen Ressourcenpool in den zugewiesenen Reservierungen und verhalten sich in Bezug auf die Berechtigung und die Verwendung von freien Slots aus anderen Reservierungen gleich.
Reservierungen zum Erstellen externer Modelle
Da externe Modelle außerhalb von BigQuery trainiert werden, sind diese Arbeitslasten nicht auf Abruf verfügbar. Damit andere Workloads nicht betroffen sind, können für diese externen Jobs nur Reservierungen mit ML_EXTERNAL
-Jobtypzuweisung verwendet werden. Unter Arbeitslastverwaltung mit Reservierungen wird beschrieben, wie Reservierungen für externe Modelltrainingsjobs erstellt werden. Die Slotnutzung pro Job wird so berechnet, dass die Preisparität zwischen BigQuery-Slots und den Kosten für externe Google Cloud-Dienste aufrechterhalten wird.
On-Demand-Preise für BigQuery ML
Die Abrechnung der BigQuery ML-Nutzung nach On-Demand-Preisen hängt von der Art des jeweiligen Vorgangs ab, also Modelltyp, -erstellung, -bewertung, -prüfung oder ‑vorhersage.
Die On-Demand-Preise für BigQuery ML sehen so aus:
1 Die CREATE MODEL
-Anweisung stoppt bei iterativen Modellen nach 50 Iterationen. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.
2 Wenn bei Zeitachsenmodellen zur automatischen Hyperparameteroptimierung auto.arima aktiviert ist, werden in der Trainingsphase mehrere Kandidatenmodelle angepasst und bewertet. In diesem Fall wird die Anzahl der Byte, die von der eingegebenen SELECT
-Anweisung verarbeitet werden, mit der Anzahl der Kandidatenmodelle multipliziert, die mit der Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS
oder der Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS_XREG
gesteuert werden kann. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.
Die folgenden Hinweise gelten für die Erstellung von Zeitachsenmodellen:
Bei Prognosen für einzelne Zeitachsen mit aktiviertem Auto-Arima ist die Anzahl der Kandidatenmodelle (1, 2, 3, 4, 5) (6, 12, 20, 30, 42), wenn das nicht saisonale d gleich 1 ist. Andernfalls beträgt die Anzahl der Kandidatenmodelle (3, 6, 10, 15, 21).
AUTO_ARIMA_MAX_ORDER
Bei Prognosen für mehrere Zeitachsen mit
TIME_SERIES_ID_COL
werden (6, 12, 20, 30, 42) Kandidatenmodelle berechnet, wennAUTO_ARIMA_MAX_ORDER
gleich (1, 2, 3, 4, 5) ist.Hinweis: Diese Modellauswahl gilt nur für die Modellerstellung. Für die Modellbewertung, -prüfung und -vorhersage wird nur das ausgewählte Modell zu den regulären Abfragepreisen verwendet.
3 Weitere Informationen finden Sie unter „BigQuery ML – Remote-Modellinferenz“.
BigQuery ML-Remote-Modelltraining, -Inferenz und -Feinabstimmung
Mit BigQuery ML können Kunden ein Remotemodell erstellen, das auf ein Vertex AI-Basismodell, einen Vertex AI-Endpunkt für Onlinevorhersagen oder eine Cloud AI API wie die Cloud AI Vision API ausgerichtet ist.
Die Preise für die Inferenz von BigQuery ML-Remote-Modellen setzen sich aus folgenden Teilen zusammen:
- Die von BigQuery verarbeiteten Byte werden gemäß Standardpreisen wie On-Demand- oder Editionspreisen abgerechnet.
- Darüber hinaus fallen für den Remote-Endpunkt folgende Kosten an:
Remote-Modelltypen Inferenzfunktionen Preise In Vertex AI gehostete Google-Modelle ML.GENERATE_TEXT
ML.GENERATE_EMBEDDING
Preise für generative KI in Vertex AI In Vertex AI aktivierte Anthropic-Claude-Modelle ML.GENERATE_TEXT
Preise für generative KI in Vertex AI Vertex AI-Endpunkte ML.PREDICT
Vertex AI-Preise Cloud Natural Language API ML.UNDERSTAND_TEXT
Cloud Natural Language API – Preise Cloud Translation API ML.TRANSLATE
Cloud Translation API – Preise Cloud Vision API ML.ANNOTATE_IMAGE
Cloud Vision API – Preise Document AI API ML.PROCESS_DOCUMENT
Document AI API-Preise Speech-to-Text API ML.TRANSCRIBE
Preise für die Speech-to-Text API
Die Preise für das Remote-Endpunktmodell werden direkt über die oben genannten Dienste abgerechnet. Sie können das Abrechnungslabel billing_service = 'bigquery_ml' und das Abrechnungslabel bigquery_job_id verwenden, um die exakten Gebühren zu filtern.
Überwachte Abstimmungskosten durch LLM
Wenn Sie die überwachte Abstimmung mit Remote-Modellen über Vertex AI-LLMs verwenden, werden die Kosten so berechnet:
- Die verarbeiteten Byte aus der Tabelle mit den Trainingsdaten, die in der
AS SELECT
-Klausel angegeben sind. Diese Gebühren werden Ihrem Projekt von BigQuery in Rechnung gestellt. - Die GPU- oder TPU-Nutzung zum Abstimmen des LLM. Diese Gebühren werden Ihrem Projekt von Vertex AI in Rechnung gestellt. Weitere Informationen finden Sie unter Vertex AI-Preise.
BigQuery ML – Probelauf
Da eine erste Einschätzung wegen der zugrunde liegenden Algorithmen einiger Modelltypen und aufgrund von Abweichungen bei der Abrechnung sehr kompliziert ist, werden die verarbeiteten Datenmengen bei diesen Modelltypen erst nach Abschluss des Trainings berechnet.
BigQuery ML – Preisbeispiel
Die Kosten für BigQuery ML werden in Ihrer Abrechnung nicht gesondert aufgeführt. Wenn Sie BigQuery-Versionen verwenden, sind die Gebühren für BigQuery ML bei aktuellen Modellen enthalten.
Wenn Sie On-Demand-Preise verwenden, sind die Kosten für BigQuery ML in den Kosten für BigQuery-Analysen (Abfragen) enthalten.
Für BigQuery ML-Jobs, die Prüfungs-, Bewertungs- und Vorhersagevorgänge ausführen, fallen die gleichen Kosten an wie bei On-Demand-Abfragen. Da für CREATE MODEL
-Abfragen andere Gebühren gelten, müssen Sie Kosten für CREATE MODEL
-Jobs mithilfe des Audit-Logs von Cloud Logging unabhängig voneinander berechnen. Anhand der Audit-Logs können Sie ermitteln, welche Byte vom BigQuery ML-Dienst für jeden BigQuery ML-Job vom Typ CREATE MODEL
berechnet werden. Anschließend multiplizieren Sie die berechneten Byte mit den entsprechenden Kosten für CREATE MODEL
-Abfragen an Ihrem regionalen oder multiregionalen Standort.
Die Kosten für einen Abfragejob am Standort US
mit einer BigQuery ML-CREATE MODEL
-Anweisung können Sie beispielsweise so berechnen:
Öffnen Sie in der Google Cloud Console die Seite Cloud Logging.
Prüfen Sie, ob als Produkt BigQuery festgelegt ist.
Klicken Sie auf den Drop-down-Pfeil neben dem Feld „Nach Label oder Textsuche filtern“ und wählen Sie In erweiterten Filter umwandeln aus. Hierdurch wird dem Filter der folgende Text hinzugefügt:
resource.type="bigquery_resource"
Fügen Sie in der zweiten Zeile unter der Zeile
resource.type
den folgenden Text hinzu:protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.statementType="CREATE_MODEL"
Wählen Sie in der Drop-down-Liste rechts neben der Schaltfläche Filter senden einen geeigneten Zeitraum aus. Wenn Sie beispielsweise Letzte 24 Stunden auswählen, werden Ihnen die BigQuery ML-
CREATE MODEL
-Jobs angezeigt, die in den letzten 24 Stunden abgeschlossen wurden.Klicken Sie auf Filter senden, um die Jobs aus dem gewählten Zeitraum aufzurufen.
Klicken Sie auf Ansichtsoptionen, sobald die Daten zu sehen sind, und wählen Sie Benutzerdefinierte Felder ändern aus.
Geben Sie im Dialogfeld Benutzerdefinierte Felder hinzufügen Folgendes ein:
protoPayload.serviceData.jobCompletedEvent.job.jobStatistics.totalBilledBytes
Klicken Sie auf Speichern, um die Ergebnisse zu aktualisieren.
Multiplizieren Sie die in Rechnung gestellten Byte mit dem On-Demand-Preis für BigQuery ML, um die Kosten für den BigQuery ML-
CREATE MODEL
-Job zu berechnen. In diesem Beispiel wurden vomCREATE MODEL
-Job 100.873.011.200 Byte verarbeitet. Zur Berechnung der Kosten dieses Jobs am multiregionalen StandortUS
teilen Sie die in Rechnung gestellten Byte durch die Anzahl der Byte pro TiB und multiplizieren das Ergebnis mit den Kosten für die Modellerstellung:100873011200/1099511627776 x $312.5 = $28.669
BI Engine-Preise
BI Engine beschleunigt SQL-Abfragen, indem BigQuery-Daten im Arbeitsspeicher zwischengespeichert werden. Die Menge der gespeicherten Daten wird durch die Kapazität begrenzt, die Sie erwerben. Wenn Sie BI Engine-Kapazität erwerben möchten, erstellen Sie eine BI Engine-Reservierung in dem Projekt, in dem Abfragen ausgeführt werden.
Wenn BI Engine eine Abfrage beschleunigt, ist die Abfragephase, die Tabellendaten liest, kostenlos. Die nachfolgenden Phasen hängen von der Art der BigQuery-Preise ab, die Sie verwenden:
Bei On-Demand-Preisen werden Phasen, die BI Engine verwenden, mit 0 gescannten Byte abgerechnet. Für nachfolgende Phasen fallen keine zusätzlichen On-Demand-Gebühren an.
Bei Editionspreisen werden für die erste Phase keine BigQuery-Reservierungsslots genutzt. Nachfolgende Phasen verwenden Slots aus der BigQuery-Reservierung.
Für BI Engine gelten folgende Preise:
Editions-Zusicherungspaket
Wenn Sie BigQuery-Preise für Kapazitäts-Computing mit Zusicherungen für BigQuery-Versionen verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazität als Teil Ihres Editionspreises – ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der Ihre Versionsreservierung gespeichert ist. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. Die BI Engine-Reservierung in einem On-Demand-Analyseprojekt wird nicht auf die kostenlose Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.
Anzahl der gekauften Slots | Kostenlose, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Kostenlose Vorgänge
Die folgenden BigQuery-Vorgänge sind an jedem Standort kostenlos. Für die genannten Vorgänge gelten Kontingente und Limits.
Vorgang | Details |
---|---|
Daten laden | Kostenlos über den gemeinsam genutzten Slot-Pool Kunden können für garantierte Kapazität die Preise der Versionen auswählen. Nachdem die Daten in BigQuery geladen wurden, wird Ihnen der Speicherplatz in Rechnung gestellt. Weitere Informationen finden Sie unter Preise für Datenaufnahmeversionen. |
Daten kopieren | Für das Kopieren einer Tabelle fallen keine Kosten an, aber das Speichern der neuen Tabelle und der kopierten Tabelle ist kostenpflichtig. Weitere Informationen finden Sie unter Vorhandene Tabelle kopieren. |
Daten exportieren | Für den gemeinsam genutzten Slot-Pool, fallen keine Daten an, aber für das Speichern der Daten in Cloud Storage. Kunden können für garantierte Kapazität die Preise der Versionen auswählen. Wenn Sie die SQL-Anweisung EXPORT DATA verwenden, wird Ihnen die Abfrageverarbeitung in Rechnung gestellt. Weitere Informationen finden Sie unter Daten exportieren. |
Vorgänge löschen | Für das Löschen von Datasets oder Tabellen, von einzelnen Tabellenpartitionen, von Ansichten oder benutzerdefinierten Funktionen fallen keine Kosten an. |
Metadatenvorgänge | Die Aufrufe "list", "get", "patch", "update" und "delete" werden Ihnen nicht in Rechnung gestellt. Beispiele: Auflisten von Datasets, Auflisten von Tabellendaten, Aktualisieren der Access Control List eines Datasets, Aktualisieren der Beschreibung einer Tabelle oder Auflisten benutzerdefinierter Funktionen in einem Dataset. Vorgänge zum Metadaten-Caching für BigLake-Tabellen sind nicht in den kostenlosen Vorgängen enthalten. |
Kostenlose Nutzungsstufe
Im Rahmen der kostenlosen Stufe von Google Cloud bietet BigQuery einige Ressourcen bis zu einem bestimmten Limit kostenlos an. Diese kostenlosen Nutzungskontingente sind während des kostenlosen Testzeitraums und auch danach verfügbar. Wenn Sie die Nutzungslimits überschreiten und der kostenlose Testzeitraum abgelaufen ist, fallen die auf dieser Seite genannten Gebühren an. Sie können die kostenlose Stufe von BigQuery in der BigQuery-Sandbox ohne Kreditkarte testen.
Ressource | Monatliche Limits für kostenlose Nutzung | Details |
---|---|---|
Speicher | Die ersten 10 GiB pro Monat sind kostenlos. | Das kostenlose Speicherkontingent beinhaltet BigQuery ML-Modelle und in BigQuery gespeicherte Trainingsdaten. |
Abfragen (Analyse) | Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos. |
Die Preise der BigQuery-Versionen gelten auch für Kunden mit hohem Datenvolumen, die gleichbleibende monatliche Kosten vorziehen. |
BI Engine | Bis zu 1 GiB Kapazität für Looker Studio-Nutzer, ohne eine BI Engine-Reservierung zu konfigurieren. | Diese Kapazität ist für Looker Studio-Nutzer verfügbar, die keine native BigQuery-Integration von Looker Studio verwenden. Diese zusätzliche Kapazität wird auf Best-Effort-Basis bereitgestellt. |
Pauschalpreise
Computing-Pauschalpreise
Wenn Sie das Computing-Preismodell zum Pauschalpreis verwenden, erwerben Sie eine dedizierte Kapazität für die Abfrageverarbeitung, die in BigQuery-Slots gemessen wird. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt. Wenn Ihre Kapazitätsanforderungen die zugesicherte Kapazität überschreiten, stellt BigQuery Abfragen in die Warteschlange und es werden keine zusätzlichen Gebühren berechnet.
Computing-Pauschalpreise:
- Bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
- Gilt nicht für Speicherkosten oder BI Engine-Kosten.
- Gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- Wird als regionale Ressource gekauft. Die in einer bestimmten Region oder Mehrfachregion erworbenen Slot-Zusicherungen können nicht in einer anderen Region oder Mehrfachregion verwendet oder verschoben werden.
- Ist in Form von sekundengenauen (Flex-), monatlichen und jährlichen Zusicherungen verfügbar.
- Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
- Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten Ihrer monatlichen Pauschalpreis-Slotzusicherung. Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten Ihrer jährlichen pauschalen Slotzusicherung. Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Flex-Slots: kurzfristige Pauschalpreiszusicherungen
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots unterliegen der Kapazitätsverfügbarkeit. Wenn Sie versuchen, Flex-Slots zu erwerben, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
Pauschalpreise für BigQuery Omni
BigQuery Omni bietet Pauschalpreise mit vorhersehbaren Kosten für Abfragen. Verwenden Sie BigQuery Reservations, um Pauschalpreise zu aktivieren.
Wenn Sie sich für BigQuery Omni zum Pauschalpreis anmelden, erwerben Sie mit Amazon Web Services oder Microsoft Azure eine in Slots gemessene Kapazität für die Abfrageverarbeitung. Ihre Abfragen verbrauchen diese Kapazität. Die verarbeiteten Byte werden Ihnen nicht in Rechnung gestellt.
Pauschalpreise für BigQuery Omni:
- Bezieht sich auf Abfragekosten. Gilt nicht für Speicherkosten.
- Slot-Zusicherungen werden für eine einzelne Multi-Cloud-Region erworben. Die in einer Region erworbene Kapazität kann nicht in einer anderen Region genutzt werden.
- Ist in Form von monatlichen und jährlichen Zusicherungen verfügbar. Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
- Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes Projekt erworben werden.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung: Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung: Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Flex-Slots: kurzfristige Zusicherungen
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots in BigQuery Omni unterliegen der Kapazitätsverfügbarkeit in AWS oder Azure. Wenn Sie versuchen, Flex-Slots zu kaufen, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
BI Engine-Pauschalpreis-Zusicherungspaket
Wenn Sie BigQuery-Slotzusicherungen zum Pauschalpreis verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazitäten im Rahmen Ihres Pauschalpreises ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazitäten ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazitäten in einem Projekt innerhalb der Organisation, in der sich Ihre Pauschalpreisreservierung befindet. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, sollten dem Projekt einige Slots zugewiesen sein. Eine BI Engine-Reservierung in einem On-Demand-Compute-Projekt wird nicht auf die kostenlose Kapazität angerechnet. Kostenlose Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, werden jedoch als „ausgabenbasierter Rabatt“ rabattiert.
Anzahl der gekauften Slots | Kostenlose, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Nächste Schritte
Weitere Informationen zum Analysieren von Abrechnungsdaten mithilfe von Berichten finden Sie unter Abrechnungsberichte und Kostentrends ansehen.
Informationen zum Analysieren der Abrechnungsdaten in BigQuery finden Sie unter Cloud Billing-Daten in BigQuery exportieren.
Informationen zu geschätzten Kosten finden Sie unter Speicher- und Abfragekosten schätzen.
Lesen Sie die BigQuery-Dokumentation.
Erste Schritte mit BigQuery.
Preisrechner ausprobieren
Informationen zu Anthos-Lösungen und -Anwendungsfällen.