Abotyp auswählen

In diesem Dokument erfahren Sie, wie Sie den passenden Pub/Sub-Typ auswählen. Abo, das Ihren Geschäftsanforderungen entspricht.

Hinweise

Vergleichstabelle für Pub/Sub-Abos

Die folgende Tabelle enthält Informationen zur Auswahl des richtigen Zustellungsmechanismus für Ihre Anwendung:

Von Pub/Sub-Abos unterstützte Funktionen
Anwendungsfall Pull-Abo
  • Große Nachrichtenmenge (GB pro Sekunde)
  • Effizienz und Durchsatz der Nachrichtenverarbeitung sind entscheidend.
  • Umgebungen, in denen ein öffentlicher HTTPS-Endpunkt mit einem nicht selbst signierten SSL-Zertifikat nicht eingerichtet werden kann.
Push-Abo
  • Mehrere Themen, die vom selben Webhook verarbeitet werden müssen.
  • Abonnenten von App Engine Standard- und Cloud Run-Funktionen.
  • Umgebungen, in denen keine Google Cloud-Abhängigkeiten (z. B. Anmeldedaten und die Clientbibliothek) eingerichtet werden können.
Abo exportieren
  • Große Nachrichtenmenge, die sich auf mehrere von Millionen Nachrichten pro Sekunde.
  • Nachrichten werden direkt an eine Google Cloud-Ressource gesendet ohne zusätzliche Verarbeitung.
Endpunkte Pull-Abo

Jedes Gerät im Internet, das autorisierte Anmeldedaten hat, kann um die Pub/Sub API aufzurufen.

Push-Abo
  • HTTPS-Server mit nicht selbst signiertem Zertifikat, auf das über aus dem öffentlichen Web.
  • Der empfangende Endpunkt kann von dem Pub/Sub-Abo getrennt werden, damit Nachrichten aus mehreren Abos an einen einzigen Endpunkt gesendet werden.
Abo exportieren
  • Ein BigQuery-Dataset und eine Tabelle für BigQuery-Abo.
  • Ein Cloud Storage-Bucket für ein Cloud Storage-Abo.
Load Balancing Pull-Abo
  • Mehrere Abonnenten können Abrufe bei dem gleichen „geteilten“ Abo durchführen.
  • Jeder Abonnent erhält einen Teil der Nachrichten.
Push-Abo

Push-Endpunkte können Load-Balancer sein.

Abo exportieren

Der Pub/Sub-Dienst verteilt die Last automatisch.

Konfiguration Pull-Abo

Keine Konfiguration notwendig.

Push-Abo
  • Es ist keine Konfiguration für App Engine-Anwendungen in wie der Abonnent.
  • Die Verifizierung der Push-Endpunkte ist in der Google Cloud Console nicht erforderlich.
  • Endpunkte müssen über DNS-Namen erreichbar sein und für sie müssen SSL-Zertifikate installiert sein.
Abo exportieren
  • Für das BigQuery-Abo müssen ein BigQuery-Dataset und eine BigQuery-Tabelle mit den entsprechenden Berechtigungen vorhanden sein.
  • Für die Property muss ein Cloud Storage-Bucket vorhanden sein. Cloud Storage-Abo, konfiguriert mit den entsprechenden Berechtigungen.
Ablaufsteuerung Pull-Abo

Der Abonnentenclient steuert das Tempo der Zustellung. Der Abonnent kann das Bestätigungszeitlimit dynamisch ändern und ermöglicht damit beliebig lange Nachrichtenverarbeitung.

Push-Abo

Der Pub/Sub-Server implementiert automatisch den Ablauf. Steuerung. Es ist nicht notwendig, den Nachrichtenfluss auf der Clientseite zu verarbeiten. Es ist jedoch möglich, anzugeben, dass der Client die aktuelle Nachrichtenlast nicht bewältigen kann, indem er einen HTTP-Fehler zurückgibt.

Abo exportieren

Der Pub/Sub-Server implementiert automatisch den Ablauf. um das Schreiben von Nachrichten in eine Google Cloud-Ressource zu optimieren.

Effizienz und Durchsatz Pull-Abo

Erzielt hohen Durchsatz bei geringer CPU-Leistung und Bandbreite durch Unterstützung von Stapelzustellung, -Bestätigungen und Massenparallelverarbeitung. Kann ineffizient sein, wenn aggressive Abfragen verwendet werden, um die Nachrichtenzustellungszeit zu minimieren.

Push-Abo

Sendet eine Nachricht pro Anfrage und begrenzt die maximale Anzahl von ausstehende Nachrichten.

Abo exportieren

Die Skalierbarkeit wird von Pub/Sub dynamisch verwaltet Server.

Wann ist ein Exportabo sinnvoll?

Ohne Exportabo benötigen Sie ein Pull- oder Push-Abo und einen Abonnenten (z. B. Dataflow), um Nachrichten zu lesen und in eine Google Cloud-Ressource zu schreiben. Der Aufwand beim Ausführen eines Dataflow-Jobs nicht notwendig, wenn Nachrichten erfordern eine zusätzliche Verarbeitung, bevor sie gespeichert werden.

Abos können exportiert werden. Das hat folgende Vorteile:

  • Einfache Bereitstellung. Sie können ein Exportabo über einen einzelnen Workflow in der Console, der Google Cloud CLI, der Clientbibliothek oder der Pub/Sub API einrichten.

  • Geringe Kosten. Reduziert die Zusatzkosten und Latenzen bei ähnlichen Pub/Sub-Pipelines, die Dataflow-Jobs enthalten. Diese Kostenoptimierung eignet sich für Nachrichtensysteme, die vor dem Speichern nicht zusätzlich verarbeitet werden müssen.

  • Minimales Monitoring Abos sind Teil der Multi-Tenant-Version Pub/Sub-Dienst bereitgestellt und Sie müssen keine separaten Monitoring von Jobs.

  • Flexibilität: Ein BigQuery-Abo kann den Schema des Themas, an das es angehängt ist, das nicht mit Dataflow-Vorlage zum Schreiben von Daten Pub/Sub zu BigQuery Ebenso bietet ein Cloud Storage-Abo konfigurierbare Optionen für die Dateigruppierung basierend auf der Dateigröße und der verstrichenen Zeit. Diese Optionen sind in der grundlegenden Dataflow-Vorlage für das Schreiben von Pub/Sub nach Cloud Storage nicht konfigurierbar.

Für Pub/Sub-Systeme, bei denen eine gewisse Datentransformation erforderlich ist, bevor die Daten in einer Google Cloud-Ressource wie einer BigQuery-Tabelle oder einem Cloud Storage-Bucket gespeichert werden, wird jedoch weiterhin eine Dataflow-Pipeline empfohlen.

Weitere Informationen zum Streamen von Daten aus Pub/Sub zu BigQuery mit Transformation mit Dataflow finden Sie unter Von Pub/Sub zu BigQuery streamen.

Um zu erfahren, wie Sie Daten von Pub/Sub zu Cloud Storage mit Transformation unter Dataflow, siehe Nachrichten aus Pub/Sub mit Dataflow streamen.

Nächste Schritte

Mache dich mit dem Workflow für jeden Abotyp vertraut: