Nehmen Sie am Workshop für Google Cloud Realtime Intelligence teil, um praktische Erfahrungen mit Streaming, KI und schnellen Batches zu sammeln. Hier anmelden.
Weiter zu
Pub/Sub

Pub/Sub

Sie können Ereignisse für das Streaming in BigQuery, Data Lakes oder operative Datenbanken aufnehmen.

Neukunden erhalten ein Guthaben im Wert von 300 $, das sie für Pub/Sub ausgeben können. Alle Kunden erhalten bis zu 10 GB für die Aufnahme oder Zustellung von Nachrichten pro Monat, die nicht mit dem Guthaben verrechnet werden.

  • Analyseereignisse aufnehmen und mit Dataflow in BigQuery streamen

  • Managementfreies, sicheres, skalierbares Nachrichten- oder Warteschlangensystem

  • In der Reihenfolge und in beliebiger Reihenfolge mit mindestens einmal Nachrichten-Zustellen mit Pull- und Push-Modus

  • Sichere Daten dank detaillierter Zugriffssteuerung und durchgehender Verschlüsselung

Vorteile

Hochverfügbarkeit ganz einfach

Synchrone zonenübergreifende Nachrichtenreplizierung und Eingangstracking jeder Nachricht sorgen für die zuverlässige Übermittlung bei jedem Umfang.

Keine Planung – alles ist automatisch

Dank der automatischen Skalierung und Bereitstellung ohne Partitionen müssen Sie sich keine Gedanken um die Planung machen. Die Arbeitslasten sind sofort bereit für die Produktion.

Einfache, offene Basis für Echtzeitdatensysteme

Eine schnelle und zuverlässige Möglichkeit, beliebige Volumen kleiner Datasets zu speichern; ein Einstiegspunkt für Echtzeit- und Batchpipelines, die BigQuery, Data Lakes und Betriebsdatenbanken speisen. Verwenden Sie dies mit ETL-/ELT-Pipelines in Dataflow.    

Wichtige Features

Wichtige Features

Streamanalysen und Connectors

Die native Einbindung in Dataflow ermöglicht die zuverlässige, genau einmalige Verarbeitung und Einbindung von Ereignisstreams in Java, Python und SQL.

Skalierbare Zustellung nach Reihenfolge

Optionales Sortieren pro Schlüssel vereinfacht die zustandsorientierte Anwendungslogik ohne Einschränkung der horizontalen Skalierung. Dafür müssen keine Partitionen verwaltet werden.

Kostenoptimierte Datenaufnahme mit Pub/Sub Lite

Pub/Sub Lite ergänzt Pub/Sub, um die kostengünstigste Option für die Aufnahme einer großen Anzahl Ereignisse zu bieten. Pub/Sub Lite bietet regionalen oder zonalen Speicher, sodass Sie die Kontrolle über die Kapazitätsverwaltung haben.

Alle Features ansehen

Dokumentation

Dokumentation

Grundlagen zu Google Cloud

Was ist Pub/Sub?

Sie erhalten einen umfassenden Überblick über Pub/Sub: von zentralen Konzepten und dem Nachrichtenfluss bis zu gängigen Anwendungsfällen und Einbindungen.
Tutorial

Einführung in Pub/Sub

In dieser Anleitung erfahren Sie, wie Sie Pub/Sub in einem Google Cloud-Projekt aktivieren, ein Pub/Sub-Thema und -Abo erstellen sowie Nachrichten veröffentlichen und sie in das Abo abrufen.
Kurzanleitung

Kurzanleitung: Clientbibliotheken verwenden

Sehen Sie sich an, wie Anwendungen über den Pub/Sub-Dienst Nachrichten zuverlässig, schnell und asynchron austauschen können.
Tutorial

Nachrichtenzustellung nach Reihenfolge

Informationen zur Funktionsweise der skalierbaren Nachrichtenreihenfolge und zu Anwendungsfällen
Tutorial

Pub/Sub oder Pub/Sub Lite auswählen

Hier erfahren Sie, wie Sie beide Optionen bestmöglich nutzen.
Kurzanleitung

Kurzanleitung: Streamverarbeitung mit Dataflow

Darin lernen Sie, wie Sie mit Dataflow in einem Pub/Sub-Thema veröffentlichte Nachrichten lesen, die Nachrichten nach Zeitstempel einordnen und sie in Cloud Storage speichern können.
Tutorial

Leitfaden: Nachrichten in Themen veröffentlichen

Hier erfahren Sie, wie Sie eine Nachricht erstellen, die Ihre Daten enthält, und eine Anfrage an den Pub/Sub-Server senden, um die Nachricht im gewünschten Thema zu veröffentlichen.

Suchen Sie nach etwas anderem?

Anwendungsfälle

Anwendungsfälle

Anwendungsfall
Streamanalysen

Mit Streamanalysen von Google Cloud sind Daten sofort nach ihrer Generierung besser organisiert, nutzbar und zugänglich. Unsere Streaming-Lösung beruht auf Pub/Sub, Dataflow und BigQuery und stellt die Ressourcen für die Aufnahme, Verarbeitung und Analyse schwankender Echtzeitdatenmengen bereit. Dadurch werden die geschäftliche Datenauswertung und Erstellung von Statistiken in Echtzeit möglich. Diese abstrahierte Bereitstellung reduziert die Komplexität und macht Streamanalysen sowohl für Datenanalysten als auch für Data Engineers zugänglich.

Datenfluss über 5 Spalten, z. B. „Trigger”, „Aufnahme”, „Anreicherung”, ”Analyse” und „Aktivierung”. Jede Spalte hat einen oberen und unteren Bereich. Oben in der Spalte „Trigger” sind Edge-Geräte (Mobilgeräte, Web, Datenspeicher und IoT), deren Daten zu Pub/Sub in die Spalte „Aufnahme” und weiter zu „Anreicherung” und „Apache Beam/Dataflow Streaming” fließen, dann nach unten zu den Feldern „Analyse” und dann „Aktivierung”, wo sie zurück zu den Edge-Geräten in Spalte 1 fließen. Von Apache Beam in Spalte 3 fließen die Daten bidirektional zur Spalte Analyze, in BigQuery zur AI Platform und zu Bigtable: alle 3 werden von Backfill/Neuverarbeitung (Dataflow-Batch) gefüttert. Der Datenfluss bewegt sich von BigQuery zur Spalte „Aktivierung”, in Data Studio, BI von Drittanbietern und Cloud Functions, die zurück zu den Edge-Geräten in Spalte 1 fließen. Im unteren Abschnitt von Spalten steht „Create Flow: Trigger“ (Quelle für Push-Ereignisnachricht an Pub/Sub-Thema konfigurieren) Abläufe zur Aufnahme von „Pub/Sub-Thema und -Abo erstellen“ Anreicherung „Streaming- oder Batch-Dataflow-Job mithilfe von Vorlagen, CLI oder Notebooks bereitstellen“ Um das Dataset „Dataset, Tabellen und Modelle zum Empfang erstellen“ zu analysieren. Aktivieren Sie „Dashboards in Echtzeit erstellen und externe APIs aufrufen“.
Anwendungsfall
Asynchrone Einbindung von Mikrodiensten

Pub/Sub fungiert als Messaging-Middleware für die Einbindung herkömmlicher