Vai a
Pub/Sub

Pub/Sub

Importa eventi per trasmetterli in flussi in BigQuery, data lake o database operativi.

I nuovi clienti ricevono 300 $ di crediti gratuiti da spendere su Pub/Sub. Tutti i clienti ricevono fino a 10 GB gratis al mese per l'importazione o la consegna dei messaggi, senza consumare i crediti.

  • Esegui il deployment di una soluzione di data warehouse di esempio per esplorare, analizzare e visualizzare i dati utilizzando BigQuery e Looker Studio. Inoltre, applica l'AI generativa per riassumere i risultati dell'analisi.

  • Importa eventi di analisi e trasmettili in flussi in BigQuery con Dataflow

  • Sistema di messaggistica o di coda autonomo, sicuro e scalabile

  • Distribuzione "at least once" di messaggi in ordine e in qualsiasi ordine con modalità pull e push

  • Proteggi i dati con controlli degli accessi granulari e crittografia sempre attiva 

Vantaggi

Alta disponibilità resa semplice

Il monitoraggio della replica sincrona dei messaggi tra le zone e delle conferme di ricezione per messaggio garantisce la distribuzione affidabile su qualsiasi scala.

Nessuna pianificazione, automazione completa

Scalabilità automatica e provisioning automatico senza partizioni eliminano la pianificazione e garantiscono che i carichi di lavoro siano production-ready dal primo giorno.

Base aperta e semplice per sistemi di dati in tempo reale

Un modo rapido e affidabile per inserire piccoli record in qualsiasi volume, un punto di ingresso per pipeline batch e in tempo reale che alimentano BigQuery, data lake e database operativi. Utilizzala con le pipeline ETL/ELT in Dataflow.    

Funzionalità principali

Funzionalità principali

Analisi dei flussi e connettori

L'integrazione nativa con Dataflow consente l'elaborazione e l'integrazione "exactly-once", significativa e affidabile di flussi di eventi in Java, Python e SQL.

Consegna in ordine su larga scala

L'ordinamento facoltativo in base alla chiave semplifica la logica dell'applicazione stateful senza sacrificare la scalabilità orizzontale. Non sono richieste partizioni.

Importazione di flussi di dati semplificata con integrazioni native

Importa flussi di dati da Pub/Sub direttamente in BigQuery o Cloud Storage con le nostre sottoscrizioni native.



Visualizza tutte le funzionalità

Documentazione

Documentazione

Google Cloud Basics

Che cos'è Pub/Sub?

Una panoramica completa di Pub/Sub: dai concetti fondamentali e dal flusso di messaggi ai casi d'uso e alle integrazioni più comuni.
Tutorial

Introduzione a Pub/Sub

Scopri come attivare Pub/Sub in un progetto Google Cloud, creare un argomento e una sottoscrizione Pub/Sub e pubblicare messaggi ed eseguirne il pull alla sottoscrizione.
Quickstart

Guida rapida all'utilizzo delle librerie client

Scopri come il servizio Pub/Sub consente alle applicazioni di scambiare messaggi in modo affidabile, rapido e asincrono.
Tutorial

Consegna dei messaggi in ordine

Scopri come funziona l'ordinamento scalabile dei messaggi e come utilizzarlo.
Tutorial

Come scegliere tra Pub/Sub e Pub/Sub Lite

Scopri come ottenere il massimo da entrambe le opzioni.
Quickstart

Guida rapida all'elaborazione dei flussi con Dataflow

Scopri come utilizzare Dataflow per leggere messaggi pubblicati per un argomento Pub/Sub, visualizzare i messaggi per timestamp e scrivere i messaggi su Cloud Storage.
Tutorial

Guida: Pubblicazione di messaggi per argomenti

Scopri come creare un messaggio contenente i tuoi dati e inviare una richiesta al server Pub/Sub per pubblicare il messaggio sull'argomento desiderato.

Non trovi ciò che stai cercando?

Casi d'uso

Casi d'uso

Caso d'uso
Analisi dei flussi

L'analisi dei flussi di Google rende i dati più organizzati, utili e accessibili fin dal momento in cui vengono generati. Costruita su Pub/Sub insieme a Dataflow e BigQuery, la nostra soluzione per i flussi di dati fornisce le risorse necessarie per importare, elaborare e analizzare volumi variabili di dati in tempo reale per insight sull'attività commerciale in tempo reale. Questo provisioning astratto riduce la complessità e rende l'analisi dei flussi accessibile sia ai data analyst che ai data engineer.

Flusso tra 5 colonne, da Trigger, a Ingest, Enrich, Analyze e Activate. Ogni colonna contiene una sezione superiore e inferiore. Nella parte superiore della colonna Trigger si trovano i dispositivi periferici (dispositivi mobili, web, datastore e IoT) che passano a Pub/Sub nella colonna Ingest e poi nella colonna Enrich a Apache Beam/Dataflow Streaming, quindi passa ai riquadri Analyze e Activate da cui ritorna ai dispositivi periferici nella prima colonna. Da Apache Beam nella colonna 3, il flusso passa da/a la colonna Analyze, in BigQuery, AI Platform e Bigtable: tutti e tre provenivano da Backfill/ Reprocess - Dataflow Batch. Il flusso si sposta da BigQuery alla colonna Activate, a Data Studio, BI di terze parti e Cloud Functions, che passa di nuovo ai dispositivi periferici nella colonna 1. La sezione inferiore delle colonne riporta il flusso di creazione: Trigger indica "Configure source to push event message to Pub/Sub topic". Passa a Ingest "Create Pub/Sub Topic and subscription". Poi a Enrich "Deploy streaming or batch Dataflow job using templates, CLI, or notebooks". Poi ad Analyze "Create dataset, tables, and models to receive stream". Poi ad Activate "Build real-time dashboards and call external APIs".
Caso d'uso
Integrazione di microservizi asincroni

Pub/Sub opera come middleware di messaggistica per l'integrazione di servizi tradizionali o come semplice mezzo di comunicazione per microservizi moderni. Le sottoscrizioni push consegnano gli eventi a webhook serverless su Cloud Functions, App Engine, Cloud Run o ambienti personalizzati su Google Kubernetes Engine o Compute Engine. La consegna pull a bassa latenza è disponibile quando l'esposizione ai webhook non è possibile o per una gestione efficiente di flussi a velocità effettiva più alta.

Tutte le funzionalità

Tutte le funzionalità

Distribuzione "at-least-once"
Il monitoraggio della replica sincrona dei messaggi tra le zone e delle conferme di ricezione per messaggio garantisce la distribuzione "at-least-once" su qualsiasi scala.
Servizio aperto
Le API aperte e le librerie client in sette linguaggi supportano deployment di tipo ibrido e cross-cloud.
Elaborazione "exactly-once"
Dataflow supporta l'elaborazione "exactly-once", significativa e affidabile dei flussi di Pub/Sub.
Nessun provisioning, automazione completa
Pub/Sub non ha shard o partizioni. Devi solo impostare la tua quota, pubblicare e utilizzare i messaggi.
Sicurezza e conformità
Cloud Pub/Sub è un servizio conforme alla normativa HIPAA e offre controlli granulari degli accessi e crittografia end-to-end.
Integrazioni native di Google Cloud
Sfrutta l'integrazione con numerosi servizi come gli eventi di aggiornamento di Gmail e Cloud Storage e con Cloud Functions per il serverless computing basato su eventi.
Integrazioni con software open source o di terze parti
Pub/Sub fornisce integrazioni con prodotti di terze parti come Splunk e Datadog per i log e Striim e Informatica per l'integrazione di dati. In più, sono disponibili integrazioni di software open source tramite Confluent Cloud per Apache Kafka e Knative Eventing per i carichi di lavoro serverless basati su Kubernetes.
Ricerca e riproduzione
Riavvolgi in qualsiasi momento il tuo backlog eseguendo la ricerca fino a un punto temporale specifico o uno snapshot, per consentire la rielaborazione dei messaggi. Avanza rapidamente per eliminare i dati obsoleti.
Argomenti non recapitabili
Gli argomenti non recapitabili consentono di mettere da parte i messaggi che non possono essere elaborati dalle applicazioni del sottoscrittore per esaminarli ed eseguirne il debug offline, in modo che altri messaggi possano essere elaborati senza ritardi.
Filtri
Pub/Sub può filtrare i messaggi a seconda degli attributi per ridurre i volumi di consegna ai sottoscrittori.

Prezzi

Prezzi

Il prezzo di Pub/Sub è calcolato su volumi di dati mensili. I primi 10 GB di dati mensili vengono offerti senza alcun addebito. 

Volume di dati mensile1
Prezzo per TB2
Primi 10 GB
0,00 $
Oltre 10 GB
40,00 $

1Per informazioni più dettagliate sui prezzi, consulta la guida ai prezzi.

2TB significa terabyte, pari a 240 byte.

Se la valuta utilizzata per il pagamento è diversa da USD, si applicano i prezzi elencati nella tua valuta negli SKU di Cloud Platform .

Fai il prossimo passo

Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud