Accéder à
Pub/Sub

Pub/Sub

Ingérez des événements pour les insérer en flux dans BigQuery, des lacs de données ou des bases de données opérationnelles.

Les nouveaux clients bénéficient de 300 $ de crédits gratuits à dépenser sur Pub/Sub. Tous les clients disposent d'un espace de stockage gratuit de 10 Go par mois pour l'ingestion ou la distribution de messages, non déduit de vos crédits.

  • Déployez un exemple de solution d'entrepôt de données pour explorer, analyser et visualiser des données à l'aide de BigQuery et Looker Studio. Enfin, appliquez l'IA générative pour résumer les résultats de l'analyse.

  • Ingérez des événements d'analyse et diffusez-les dans BigQuery avec Dataflow

  • Système de messagerie ou de file d'attente no-ops, sécurisé et évolutif

  • Diffusion des messages au moins une fois, dans l'ordre et dans n'importe quel ordre avec les modes pull et push

  • Sécurisez les données avec des contrôles d'accès précis et un chiffrement permanent. 

Avantages

Haute disponibilité simplifiée

Le suivi synchrone et interzone des réplications de messages et des accusés de réception par message garantit une distribution fiable à n'importe quelle échelle.

Zéro planification et automatisation complète

Les fonctionnalités d'autoscaling et de provisionnement automatique sans partitions vous dispensent de planification et garantissent que les charges de travail sont prêtes pour la production dès le premier jour.

Base simple et ouverte pour les systèmes de données en temps réel

Cette solution est un moyen rapide et fiable d'envoyer de petits enregistrements à n'importe quel volume, un point d'entrée pour les pipelines en temps réel et par lot qui alimentent BigQuery, les lacs de données et les bases de données opérationnelles. Utilisez-la avec des pipelines ETL/ELT dans Dataflow.    

Principales fonctionnalités

Principales fonctionnalités

Analyses de flux et connecteurs

L'intégration native à Dataflow permet le traitement et l'intégration de type "exactement une fois" fiables et expressifs des flux d'événements dans Java, Python et SQL.

Diffusion dans l'ordre à grande échelle

Le tri par clé facultative (bêta) simplifie la logique des applications avec état sans impact sur le scaling horizontal ; aucune partition n'est requise.

Ingestion en flux continu simplifiée grâce à des intégrations natives

Ingérez des flux de données depuis Pub/Sub directement dans BigQuery ou Cloud Storage avec nos abonnements natifs.



Voir toutes les fonctionnalités

Documentation

Documentation

Google Cloud Basics

Qu'est-ce que Pub/Sub ?

Obtenez une présentation complète de Pub/Sub : concepts fondamentaux, flux de messages, cas d'utilisation courants et intégrations.
Tutorial

Présentation de Pub/Sub

Découvrez comment activer Pub/Sub dans un projet Google Cloud, créer un sujet et un abonnement Pub/Sub, publier des messages et les extraire de l'abonnement.
Quickstart

Démarrage rapide : Utiliser des bibliothèques

Découvrez comment le service Pub/Sub permet aux applications d'échanger des messages de manière fiable, rapide et asynchrone.
Tutorial

Distribution des messages dans l'ordre

Découvrez comment fonctionne le tri évolutif des messages et quand l'utiliser.
Tutorial

Pub/Sub ou Pub/Sub Lite ?

Découvrez comment tirer le meilleur parti des deux options.
Quickstart

Démarrage rapide : traitement par flux avec Dataflow

Découvrez comment utiliser Dataflow pour lire des messages publiés dans un sujet Pub/Sub, filtrer des messages par horodatage, et écrire les messages dans Cloud Storage.
Tutorial

Guide : Publier des messages dans des sujets

Découvrez comment créer un message contenant vos données et envoyer une requête au serveur Pub/Sub pour publier le message dans le sujet souhaité.

Vous ne trouvez pas ce que vous cherchez ?

Cas d'utilisation

Cas d'utilisation

Cas d'utilisation
Analyse de flux

L'analyse de flux de Google permet de mieux organiser les données, et de les rendre utiles et accessibles dès qu'elles sont générées. Basées sur Pub/Sub, Dataflow et BigQuery, nos solutions de streaming assurent le provisionnement des ressources dont vous avez besoin pour ingérer, traiter et analyser des volumes fluctuants de données en temps réel afin d'obtenir des insights métier instantanés. Ce provisionnement distinct réduit la complexité et rend les analyses de flux accessibles aux analystes et aux ingénieurs de données.

Flux sur 5 colonnes : "Trigger" (Déclencher), "Ingest" (Ingérer), "Enrich" (Enrichir), "Analyze" (Analyser) et "Activate" (Activer). Chaque colonne est associée à une section supérieure et inférieure. En haut de la colonne "Trigger" on trouve les appareils de périphérie ("mobile", "Web", "Data Store" et "IoT") dont le flux va vers "Pub/Sub" dans la colonne "Ingest" et vers la colonne "Enrich" et "Apache Beam"/"Dataflow", vers les cadres "Analyze", puis "Activate" où le flux revient aux appareils de périphérie dans la colonne 1. Depuis "Apache Beam" dans la colonne 3, le flux passe d'une colonne à l'autre dans "Analyze", "BigQuery", "AI Platform" et "Bigtable" : les trois flux proviennent de "Backfill" (Remplissage)/"Reprocess" (Retraitement) - "Dataflow Batch" (Lot Dataflow). Le flux passe de "BigQuery" à la colonne "Activate", à "Data Studio", à "Third-party BI" (Informatique décisionnelle tierce) et à "Cloud Functions", qui renvoie vers les appareils de périphérie de la colonne 1. La section inférieure des colonnes, "Creation Flow" (Flux de création) indique pour la colonne "Trigger" : "Configure source to push event message to Pub/Sub topic" ("Configurer la source pour transmettre un message d'événement push à un sujet Pub/Sub") ; pour la colonne "Enrich" "Deploy streaming or batch Dataflow job using templates, CLI, or notebooks" (Déployer des tâches Dataflow par flux ou par lot à l'aide de modèles, de CLI ou de notebooks” ; pour la colonne "Analyze" : "Create dataset, tables, and models to receive stream" (Créer un ensemble de données, des tables et des modèles pour recevoir des flux)" ; pour la colonne "Activate" : "Build real-time dashboards and call external APIs" (Créer des tableaux de bord en temps réel et appeler des API externes).
Cas d'utilisation
Intégration asynchrone de microservices

Pub/Sub fonctionne comme un middleware de messagerie pour l'intégration de services traditionnels ou comme un simple moyen de communication pour les microservices modernes. Les abonnements Push diffusent des événements aux webhooks sans serveur sur Cloud Functions, App Engine, Cloud Run ou des environnements personnalisés sur Google Kubernetes Engine ou Compute Engine. La diffusion pull à faible latence est disponible lorsque l'exposition des webhooks n'est pas possible ou pour permettre la gestion efficace des flux de débit plus importants.

Toutes les fonctionnalités

Toutes les fonctionnalités

Distribution de type "au moins une fois"
Le suivi synchrone et interzone des réplications de messages et des accusés de réception par message garantit une distribution de type "au moins une fois" à n'importe quelle échelle.
Ouvrir
Les API ouvertes et les bibliothèques clientes dans sept langages permettent des déploiements hybrides et sur plusieurs clouds.
Traitement de type "exactement une fois"
Dataflow permet le traitement de type "exactement une fois" fiable et expressif des flux Pub/Sub.
Zéro provisionnement et automatisation complète
Pub/Sub ne comporte ni segments, ni partitions. Définissez simplement votre quota, publiez et consommez.
Conformité et sécurité
Pub/Sub est un service conforme à la loi HIPAA, offrant un contrôle ultraprécis des accès et un chiffrement de bout en bout.
Intégrations Google Cloud natives
Tirez parti des intégrations à plusieurs services tels que les événements de mise à jour Cloud Storage et Gmail, et Cloud Functions pour le calcul informatique basé sur des événements et sans serveur.
Intégrations tierces et OSS
Pub/Sub offre des intégrations tierces : Splunk et Datadog pour les journaux, Striim et Informatica pour l'intégration des données. De plus, les intégrations OSS sont disponibles via Confluent Cloud pour Apache Kafka et Knative Eventing pour les charges de travail sans serveur basées sur Kubernetes.
Recherche et répétition
Remontez à n'importe quel moment dans le temps ou utilisez un instantané afin de traiter à nouveau les messages. Avancez pour supprimer les données obsolètes.
Sujets des lettres mortes
La fonctionnalité Sujets des lettres mortes permet de mettre de côté les messages qui n'ont pas pu être traités par les applications de l'abonné afin de procéder à l'examen et au débogage hors ligne de ces derniers, et d'éviter de retarder le traitement des autres messages.
Filtrage
Pub/Sub peut filtrer les messages en fonction d'attributs afin de réduire les volumes de diffusion de messages aux abonnés.

Tarification

Tarifs

Les tarifs de Pub/Sub sont calculés en fonction des volumes de données mensuels. Les 100 premiers Go de données du mois sont gratuits.

Volume de données mensuel1
Prix par Tio2
10 premiers Go
0,00 $
Au-delà de 10 Go
40,00 $

1 Pour obtenir des informations détaillées sur les prix, consultez notre grille tarifaire.

2 "Tio" fait référence à "tébioctet", soit 240 octets.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des codes SKU Cloud Platform s'appliquent.

Passez à l'étape suivante

Profitez de 300 $ de crédits gratuits et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
  • Faites des économies grâce à notre approche transparente concernant la tarification
  • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
Google Cloud