Integrationen in Bigtable

Auf dieser Seite werden die Integrationen zwischen Cloud Bigtable und anderen Produkten und Diensten beschrieben.

Google Cloud-Dienste

In diesem Abschnitt werden die Google Cloud-Dienste beschrieben, die sich in Bigtable einbinden lassen.

BigQuery

BigQuery ist das vollständig verwaltete, kostengünstige Data Warehouse für Analysen im Petabyte-Bereich von Google. Sie können mit BigQuery die in Bigtable gespeicherten Daten abfragen.

Eine Einführung finden Sie unter Daten in Bigtable abfragen.

Cloud Functions

Cloud Functions ist eine ereignisgesteuerte serverlose Computing-Plattform, die sich in Bigtable einbinden lässt.

In der Anleitung Bigtable mit Cloud Functions verwenden wird gezeigt, wie Sie in Node.js, Python und Go eine HTTP-Bigtable schreiben, bereitstellen und auslösen.

Dataflow

Dataflow ist ein Cloud-Dienst und ein Programmiermodell für die Verarbeitung von großen Datenmengen. Dataflow unterstützt sowohl Batch- als auch Streamingverarbeitung. Sie können mit Dataflow Daten verarbeiten, die in Bigtable gespeichert sind, oder die Ausgabe Ihrer Dataflow-Pipeline speichern. Sie können Dataflow-Vorlagen auch zum Exportieren und Importieren Ihrer Daten als Avro-, Parquet- oder SequenceFiles-Dateien verwenden.

Eine Einführung finden Sie unter Dataflow Connector für Bigtable.

Dataproc

Dataproc stellt Apache Hadoop und verwandte Produkte als verwaltete Dienste in die Cloud. Mit Dataproc können Sie Hadoop-Jobs ausführen, die in Bigtable schreiben und lesen.

Ein Beispiel für einen Hadoop-MapReduce-Job, der Bigtable verwendet, finden Sie im Verzeichnis /java/dataproc-wordcount im GitHub-Repository GoogleCloudPlatform/cloud-bigtable-examples.

Big Data

In diesem Abschnitt werden Big Data-Produkte beschrieben, die sich in Bigtable integrieren lassen.

Apache Hadoop

Apache Hadoop ist ein Framework, das die verteilte Verarbeitung großer Datenmengen auf Clustern von Computern ermöglicht. Sie können mit Dataproc einen Hadoop-Cluster erstellen und dann MapReduce-Jobs ausführen, die in Bigtable lesen und schreiben.

Ein Beispiel für einen Hadoop-MapReduce-Job, der Bigtable verwendet, finden Sie im Verzeichnis /java/dataproc-wordcount im GitHub-Repository GoogleCloudPlatform/cloud-bigtable-examples.

StreamSets Data Collector

StreamSets Data Collector ist eine Datenstreaminganwendung, die Sie für das Schreiben von Daten in Bigtable konfigurieren können. StreamSets bietet in seinem GitHub-Repository unter streamsets/datacollector eine Bigtable-Bibliothek.

Raumbezogene Datenbanken

In diesem Abschnitt werden raumbezogene Datenbanken beschrieben, die sich in Bigtable integrieren lassen.

GeoMesa

GeoMesa ist eine verteilte, raum-zeitliche Datenbank, die räumliche Abfragen und Datenmanipulation unterstützt. GeoMesa kann Bigtable zum Speichern ihrer Daten nutzen.

Weitere Informationen zum Ausführen von GeoMesa mit Bigtable-Unterstützung finden Sie in der GeoMesa-Dokumentation.

Graphdatenbanken

In diesem Abschnitt werden Graphdatenbanken beschrieben, die sich in Bigtable integrieren lassen.

HGraphDB

HGraphDB ist eine Clientschicht für die Verwendung von Apache HBase oder Bigtable als Graphdatenbank. Sie implementiert die Apache TinkerPop3-Oberflächen.

Weitere Informationen zum Verwenden von HGraphDB mit Unterstützung für Bigtable finden Sie in der HGraphDB-Dokumentation.

JanusGraph

JanusGraph ist eine skalierbare Graphdatenbank. Sie ist für die Speicherung und Abfrage von Grafiken mit Hunderten von Milliarden Kanten und Eckpunkten optimiert.

Weitere Informationen zur Verwendung von JanusGraph mit Bigtable-Unterstützung finden Sie unter JanusGraph mit Bigtable ausführen oder in der JanusGraph-Dokumentation.

Infrastrukturverwaltung

In diesem Abschnitt werden die Tools zur Infrastrukturverwaltung beschrieben, die sich in Bigtable integrieren lassen.

Pivotal Cloud Foundry

Pivotal Cloud Foundry ist eine Plattform zur Anwendungsentwicklung und -bereitstellung, die die Möglichkeit bietet, eine Anwendung an Bigtable zu binden.

Terraform

Terraform ist ein Open-Source-Tool, das APIs in deklarative Konfigurationsdateien codiert. Diese Dateien können für Teammitglieder freigegeben, als Code behandelt, bearbeitet, überprüft und versioniert werden.

Weitere Informationen zur Verwendung von Bigtable mit Terraform finden Sie in der Terraform-Dokumentation unter Bigtable-Instanz und Bigtable-Tabelle.

Zeitachsen-Datenbanken und -Monitoring

In diesem Abschnitt werden Zeitachsen-Datenbanken und -Überwachungstools beschrieben, die sich in Bigtable integrieren lassen.

Heroic

Heroic ist ein Überwachungssystem und eine Zeitachsen-Datenbank. Heroic kann Bigtable zur Speicherung seiner Daten nutzen.

Weitere Informationen über Heroic finden Sie im GitHub-Repository spotify/heroic sowie in der Dokumentation zur Konfiguration von Bigtable und zur Konfiguration Messwerten.

OpenTSDB

OpenTSDB ist eine Zeitachsen-Datenbank, die Bigtable zum Speichern verwenden kann. Unter Monitoring von Zeitachsendaten mit OpenTSDB in Bigtable und GKE erfahren Sie, wie Sie mit OpenTSDB Zeitachsendaten in Google Cloud erfassen, aufzeichnen und überwachen können. Die OpenTSDB-Dokumentation enthält zusätzliche Informationen für den Einstieg.