Nehmen Sie am Workshop für Google Cloud Realtime Intelligence teil, um praktische Erfahrungen mit Streaming, KI und schnellen Batches zu sammeln. Hier anmelden.
Weiter zu

Pub/Sub

Sie können Ereignisse für das Streaming in BigQuery, Data Lakes oder operative Datenbanken aufnehmen.

Neukunden erhalten ein Guthaben im Wert von 300 $, das sie für Pub/Sub ausgeben können. Alle Kunden erhalten bis zu 10 GB für die Aufnahme oder Zustellung von Nachrichten pro Monat, die nicht mit dem Guthaben verrechnet werden.

  • Analyseereignisse aufnehmen und mit Dataflow in BigQuery streamen

  • Managementfreies, sicheres, skalierbares Nachrichten- oder Warteschlangensystem

  • In der Reihenfolge und in beliebiger Reihenfolge mit mindestens einmal Nachrichten-Zustellen mit Pull- und Push-Modus

  • Sichere Daten dank detaillierter Zugriffssteuerung und durchgehender Verschlüsselung

Vorteile

Hochverfügbarkeit ganz einfach

Synchrone zonenübergreifende Nachrichtenreplizierung und Eingangstracking jeder Nachricht sorgen für die zuverlässige Übermittlung bei jedem Umfang.

Keine Planung – alles ist automatisch

Dank der automatischen Skalierung und Bereitstellung ohne Partitionen müssen Sie sich keine Gedanken um die Planung machen. Die Arbeitslasten sind sofort bereit für die Produktion.

Einfache, offene Basis für Echtzeitdatensysteme

Eine schnelle und zuverlässige Möglichkeit, beliebige Volumen kleiner Datasets zu speichern; ein Einstiegspunkt für Echtzeit- und Batchpipelines, die BigQuery, Data Lakes und Betriebsdatenbanken speisen. Verwenden Sie dies mit ETL-/ELT-Pipelines in Dataflow.    

Wichtige Features

Wichtige Features

Streamanalysen und Connectors

Die native Einbindung in Dataflow ermöglicht die zuverlässige, genau einmalige Verarbeitung und Einbindung von Ereignisstreams in Java, Python und SQL.

Skalierbare Zustellung nach Reihenfolge

Optionales Sortieren pro Schlüssel vereinfacht die zustandsorientierte Anwendungslogik ohne Einschränkung der horizontalen Skalierung. Dafür müssen keine Partitionen verwaltet werden.

Kostenoptimierte Datenaufnahme mit Pub/Sub Lite

Pub/Sub Lite ergänzt Pub/Sub, um die kostengünstigste Option für die Aufnahme einer großen Anzahl Ereignisse zu bieten. Pub/Sub Lite bietet regionalen oder zonalen Speicher, sodass Sie die Kontrolle über die Kapazitätsverwaltung haben.

Alle Features ansehen

Kunden

Von Kunden lernen, die Pub/Sub nutzen

Dokumentation

Dokumentation

Google Cloud Basics
Was ist Pub/Sub?

Sie erhalten einen umfassenden Überblick über Pub/Sub: von zentralen Konzepten und dem Nachrichtenfluss bis zu gängigen Anwendungsfällen und Einbindungen.

Tutorial
Einführung in Pub/Sub

In dieser Anleitung erfahren Sie, wie Sie Pub/Sub in einem Google Cloud-Projekt aktivieren, ein Pub/Sub-Thema und -Abo erstellen sowie Nachrichten veröffentlichen und sie in das Abo abrufen.

Kurzanleitung
Kurzanleitung: Clientbibliotheken verwenden

Sehen Sie sich an, wie Anwendungen über den Pub/Sub-Dienst Nachrichten zuverlässig, schnell und asynchron austauschen können.

Tutorial
Nachrichtenzustellung nach Reihenfolge

Informationen zur Funktionsweise der skalierbaren Nachrichtenreihenfolge und zu Anwendungsfällen

Tutorial
Pub/Sub oder Pub/Sub Lite auswählen

Hier erfahren Sie, wie Sie beide Optionen bestmöglich nutzen.

Kurzanleitung
Kurzanleitung: Streamverarbeitung mit Dataflow

Darin lernen Sie, wie Sie mit Dataflow in einem Pub/Sub-Thema veröffentlichte Nachrichten lesen, die Nachrichten nach Zeitstempel einordnen und sie in Cloud Storage speichern können.

Tutorial
Leitfaden: Nachrichten in Themen veröffentlichen

Hier erfahren Sie, wie Sie eine Nachricht erstellen, die Ihre Daten enthält, und eine Anfrage an den Pub/Sub-Server senden, um die Nachricht im gewünschten Thema zu veröffentlichen.

Anwendungsfälle

Anwendungsfälle

Anwendungsfall
Streamanalysen

Mit Streamanalysen von Google Cloud sind Daten sofort nach ihrer Generierung besser organisiert, nutzbar und zugänglich. Unsere Streaming-Lösung beruht auf Pub/Sub, Dataflow und BigQuery und stellt die Ressourcen für die Aufnahme, Verarbeitung und Analyse schwankender Echtzeitdatenmengen bereit. Dadurch werden die geschäftliche Datenauswertung und Erstellung von Statistiken in Echtzeit möglich. Diese abstrahierte Bereitstellung reduziert die Komplexität und macht Streamanalysen sowohl für Datenanalysten als auch für Data Engineers zugänglich.

Datenfluss über 5 Spalten, z. B. „Trigger”, „Aufnahme”, „Anreicherung”, ”Analyse” und „Aktivierung”. Jede Spalte hat einen oberen und unteren Bereich. Oben in der Spalte „Trigger” sind Edge-Geräte (Mobilgeräte, Web, Datenspeicher und IoT), deren Daten zu Pub/Sub in die Spalte „Aufnahme” und weiter zu „Anreicherung” und „Apache Beam/Dataflow Streaming” fließen, dann nach unten zu den Feldern „Analyse” und dann „Aktivierung”, wo sie zurück zu den Edge-Geräten in Spalte 1 fließen. Von Apache Beam in Spalte 3 fließen die Daten bidirektional zur Spalte Analyze, in BigQuery zur AI Platform und zu Bigtable: alle 3 werden von Backfill/Neuverarbeitung (Dataflow-Batch) gefüttert. Der Datenfluss bewegt sich von BigQuery zur Spalte „Aktivierung”, in Data Studio, BI von Drittanbietern und Cloud Functions, die zurück zu den Edge-Geräten in Spalte 1 fließen. Im unteren Abschnitt von Spalten steht „Create Flow: Trigger“ (Quelle für Push-Ereignisnachricht an Pub/Sub-Thema konfigurieren) Abläufe zur Aufnahme von „Pub/Sub-Thema und -Abo erstellen“ Anreicherung „Streaming- oder Batch-Dataflow-Job mithilfe von Vorlagen, CLI oder Notebooks bereitstellen“ Um das Dataset „Dataset, Tabellen und Modelle zum Empfang erstellen“ zu analysieren. Aktivieren Sie „Dashboards in Echtzeit erstellen und externe APIs aufrufen“.
Anwendungsfall
Asynchrone Einbindung von Mikrodiensten

Pub/Sub fungiert als Messaging-Middleware für die Einbindung herkömmlicher Dienste oder als einfaches Kommunikationsmedium für moderne Mikrodienste. Über Push-Abos werden Ereignisse an serverlose Webhooks in Cloud Functions, App Engine oder Cloud Run bzw. an benutzerdefinierte Umgebungen in Google Kubernetes Engine oder Compute Engine gesendet. Eine Pull-Zustellung mit geringer Latenz wird für den Fall angeboten, dass die Bereitstellung von Webhooks nicht möglich ist oder Streams mit hohem Durchsatz effizient verarbeitet werden sollen.

Alle Features

Alle Features

Mindestens einmalige Übermittlung Synchrone zonenübergreifende Nachrichtenreplizierung und Eingangstracking jeder Nachricht sorgen für mindestens einmalige Übermittlung bei jedem Umfang.
Offen Offene APIs und Clientbibliotheken in sieben Sprachen unterstützen cloudübergreifende und hybride Bereitstellungen.
Genau einmalige Verarbeitung Dataflow unterstützt die zuverlässige, genau einmalige Verarbeitung von Pub/Sub-Streams.
Keine Bereitstellung – alles ist automatisch Pub/Sub enthält keine Shards oder Partitionen. Sie legen einfach Ihre Kontingente fest und veröffentlichen und nutzen die Angebote.
Compliance und Sicherheit Pub/Sub ist mit HIPAA kompatibel und bietet präzise Zugriffssteuerung sowie Ende-zu-Ende-Verschlüsselung.
Cloudnative Integrationen Sie können die Vorteile der Verknüpfung mit verschiedenen Diensten wie Cloud Storage, Gmail-Aktualisierungsereignissen und Cloud Functions für serverloses, ereignisgestütztes Computing nutzen.
Drittanbieter- und OSS-Integrationen Pub/Sub bietet Drittanbietereinbindungen in Splunk und Datadog für Logs sowie in Striim und Informatica für die Dateneinbindung. Darüber hinaus sind OSS-Integrationen über Confluent Cloud für Apache Kafka sowie über Knative Eventing für Kubernetes-basierte, serverlose Arbeitslasten verfügbar.
Suchen und wiederholen Sie können den Rückstand auf jeden Zeitpunkt oder einen Snapshot zurücksetzen, um die Nachrichten noch einmal zu verarbeiten. Veraltete Daten können durch Vorspulen verworfen werden.
Themen für unzustellbare Nachrichten Nachrichten, die von Abonnentenanwendungen nicht verarbeitet werden können, werden zur Offlineuntersuchung und zum Debuggen an diese Themen weitergeleitet. So können andere Nachrichten ohne Verzögerung verarbeitet werden.
Filtern Pub/Sub kann Nachrichten anhand von Attributen filtern, um die Datenmenge für die Abonnenten zu reduzieren.

Preise

Preise

Die Preise für Pub/Sub hängen vom monatlichen Datenvolumen ab. Die ersten 10 GB an Daten im Monat sind kostenlos.

Monatliches Datenvolumen1 Preis pro TB2
Erste 10 GB 0,00 $
Mehr als 10 GB 40,00 $

1 Detaillierte Preisinformationen finden Sie in der Preisübersicht.

2TB bezieht sich auf ein Tebibyte bzw. 240 Byte.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die unter Cloud Platform SKUs für Ihre Währung angegebenen Preise.