Découvrez les différentes architectures de mise en œuvre de l'analyse de flux en regardant la session Générer de la valeur en temps réel grâce à l'analyse de flux de la conférence Next.

Accéder à

Pub/Sub

Ingérez des événements pour les insérer en flux dans BigQuery, des lacs de données ou des bases de données opérationnelles.

Les nouveaux clients bénéficient de 300 $ de crédit offert à dépenser sur Google Cloud pendant les 90 premiers jours d'utilisation. Tous les clients peuvent obtenir gratuitement jusqu'à 10 Go/mois pour l'ingestion ou la distribution des messages.

  • action/check_circle_24px Créé avec Sketch.

    Ingérez des événements d'analyse et diffusez-les dans BigQuery avec Dataflow

  • action/check_circle_24px Créé avec Sketch.

    Système de messagerie ou de file d'attente no-ops, sécurisé et évolutif

  • action/check_circle_24px Créé avec Sketch.

    Diffusion des messages au moins une fois, dans l'ordre et dans n'importe quel ordre avec les modes pull et push

  • action/check_circle_24px Créé avec Sketch.

    Sécurisez les données avec des contrôles d'accès précis et un chiffrement permanent. 

Avantages

Haute disponibilité simplifiée

Le suivi synchrone et interzone des réplications de messages et des accusés de réception par message garantit une distribution fiable à n'importe quelle échelle.

Zéro planification et automatisation complète

Les fonctionnalités d'autoscaling et de provisionnement automatique sans partitions vous dispensent de planification et garantissent que les charges de travail sont prêtes pour la production dès le premier jour.

Base simple et ouverte pour les systèmes de données en temps réel

Un moyen rapide et fiable de stocker de petits enregistrements à n'importe quel volume, un point d'entrée pour les pipelines en temps réel et par lot qui alimentent BigQuery, les lacs de données et les bases de données opérationnelles. Utilisez-le avec des pipelines ETL/ELT dans Dataflow.    

Principales fonctionnalités

Principales fonctionnalités

Analyses de flux et connecteurs

L'intégration native à Dataflow permet le traitement et l'intégration de type "exactement une fois" fiables et expressifs des flux d'événements dans Java, Python et SQL.

Livraison dans l'ordre à grande échelle

Le tri par clé facultative (bêta) simplifie la logique des applications avec état sans impact sur le scaling horizontal ; aucune partition n'est requise.

Coûts d'ingestion optimisés avec Pub/Sub Lite

Proposé en complément de Pub/Sub, Pub/Sub Lite a pour objectif d'être la solution la plus économique pour l'ingestion volumineuse d'événements. Pub/Sub Lite propose un stockage zonal et vous donne le contrôle de la gestion des capacités.

Découvrir toutes les fonctionnalités

Nouveautés

Nouveautés

Inscrivez-vous à la newsletter Google Cloud pour recevoir des informations sur les produits et événements, des offres spéciales et bien plus encore.

Documentation

Documentation

Principes de base de Google Cloud
Qu'est-ce que Pub/Sub ?

Obtenez une présentation complète de Pub/Sub : concepts fondamentaux, flux de messages, cas d'utilisation courants et intégrations.

Tutoriel
Présentation de Pub/Sub

Découvrez comment activer Pub/Sub dans un projet Google Cloud, créer un sujet et un abonnement Pub/Sub, publier des messages et les extraire de l'abonnement.

Guide de démarrage rapide
Guide de démarrage rapide : utiliser des bibliothèques clientes

Découvrez comment le service Pub/Sub permet aux applications d'échanger des messages de manière fiable, rapide et asynchrone.

Tutoriel
Distribution des messages dans l'ordre

Découvrez comment fonctionne le tri évolutif des messages et quand l'utiliser.

Tutoriel
Pub/Sub ou Pub/Sub Lite ?

Découvrez comment tirer le meilleur parti des deux options.

Guide de démarrage rapide
Démarrage rapide : traitement par flux avec Dataflow

Découvrez comment utiliser Dataflow pour lire des messages publiés dans un sujet Pub/Sub, filtrer des messages par horodatage, et écrire les messages dans Cloud Storage.

Tutoriel
Guide : Publier des messages dans des sujets

Découvrez comment créer un message contenant vos données et envoyer une requête au serveur Pub/Sub pour publier le message dans le sujet souhaité.

Cas d'utilisation

Cas d'utilisation

Cas d'utilisation
Analyse de flux

L'analyse de flux de Google permet de mieux organiser les données, et de les rendre utiles et accessibles dès qu'elles sont générées. Basées sur Pub/Sub, Dataflow et BigQuery, nos solutions de streaming assurent le provisionnement des ressources dont vous avez besoin pour ingérer, traiter et analyser des volumes fluctuants de données en temps réel afin d'obtenir des insights métier instantanés. Ce provisionnement distinct réduit la complexité et rend les analyses de flux accessibles aux analystes et aux ingénieurs de données.

Flux sur 5 colonnes : "Trigger" (Déclencher), "Ingest" (Ingérer), "Enrich" (Enrichir), "Analyze" (Analyser) et "Activate" (Activer). Chaque colonne est associée à une section supérieure et inférieure. En haut de la colonne "Trigger" on trouve les appareils de périphérie ("mobile", "Web", "Data Store" et "IoT") dont le flux va vers "Pub/Sub" dans la colonne "Ingest" et vers la colonne "Enrich" et "Apache Beam"/"Dataflow", vers les cadres "Analyze", puis "Activate" où le flux revient aux appareils de périphérie dans la colonne 1. Depuis "Apache Beam" dans la colonne 3, le flux passe d'une colonne à l'autre dans "Analyze", "BigQuery", "AI Platform" et "Bigtable" : les trois flux proviennent de "Backfill" (Remplissage)/"Reprocess" (Retraitement) - "Dataflow Batch" (Lot Dataflow). Le flux passe de "BigQuery" à la colonne "Activate", à "Data Studio", à "Third-party BI" (Informatique décisionnelle tierce) et à "Cloud Functions", qui renvoie vers les appareils de périphérie de la colonne 1. La section inférieure des colonnes, "Creation Flow" (Flux de création) indique pour la colonne "Trigger" : "Configure source to push event message to Pub/Sub topic" ("Configurer la source pour transmettre un message d'événement push à un sujet Pub/Sub") ; pour la colonne "Enrich" "Deploy streaming or batch Dataflow job using templates, CLI, or notebooks" (Déployer des tâches Dataflow par flux ou par lot à l'aide de modèles, de CLI ou de notebooks” ; pour la colonne "Analyze" : "Create dataset, tables, and models to receive stream" (Créer un ensemble de données, des tables et des modèles pour recevoir des flux)" ; pour la colonne "Activate" : "Build real-time dashboards and call external APIs" (Créer des tableaux de bord en temps réel et appeler des API externes).
Cas d'utilisation
Intégration asynchrone de microservices

Pub/Sub fonctionne comme un middleware de messagerie pour l'intégration de services traditionnels ou comme un simple moyen de communication pour les microservices modernes. Les abonnements Push diffusent des événements aux webhooks sans serveur sur Cloud Functions, App Engine, Cloud Run ou des environnements personnalisés sur Google Kubernetes Engine ou Compute Engine. La diffusion pull à faible latence est disponible lorsque l'exposition des webhooks n'est pas possible ou pour permettre la gestion efficace des flux de débit plus importants.

Toutes les fonctionnalités

Toutes les fonctionnalités

Distribution de type "au moins une fois" Le suivi synchrone et interzone des réplications de messages et des accusés de réception par message garantit une distribution de type "au moins une fois" à n'importe quelle échelle.
Ouvrir Les API ouvertes et les bibliothèques clientes dans sept langages permettent des déploiements hybrides et sur plusieurs clouds.
Traitement de type "exactement une fois" Dataflow permet le traitement de type "exactement une fois" fiable et expressif des flux Pub/Sub.
Zéro provisionnement et automatisation complète Pub/Sub ne comporte ni segments, ni partitions. Définissez simplement votre quota, publiez et consommez.
Conformité et sécurité Pub/Sub est un service conforme à la loi HIPAA, offrant un contrôle ultraprécis des accès et un chiffrement de bout en bout.
Intégrations Google Cloud natives Tirez parti des intégrations à plusieurs services tels que les événements de mise à jour Cloud Storage et Gmail, et Cloud Functions pour le calcul informatique basé sur des événements et sans serveur.
Intégrations tierces et OSS Pub/Sub offre des intégrations tierces : Splunk et Datadog pour les journaux, Striim et Informatica pour l'intégration des données. De plus, les intégrations OSS sont disponibles via Confluent Cloud pour Apache Kafka et Knative Eventing pour les charges de travail sans serveur basées sur Kubernetes.
Recherche et répétition Remontez à n'importe quel moment dans le temps ou utilisez un instantané afin de traiter à nouveau les messages. Avancez pour supprimer les données obsolètes.
Sujets des lettres mortes La fonctionnalité Sujets des lettres mortes permet de mettre de côté les messages qui n'ont pas pu être traités par les applications de l'abonné afin de procéder à l'examen et au débogage hors ligne de ces derniers, et d'éviter de retarder le traitement des autres messages.
Filtrage Pub/Sub peut filtrer les messages en fonction d'attributs afin de réduire les volumes de diffusion de messages aux abonnés.

Tarifs

Tarifs

Les tarifs de Pub/Sub sont calculés en fonction des volumes de données mensuels. Les 100 premiers Go de données du mois sont gratuits.

Volume de données mensuel1 Prix par Tio2
10 premiers Go 0,00 $
Au-delà de 10 Go 40,00 $

1 Pour obtenir des informations détaillées sur les prix, consultez notre grille tarifaire.

2 "Tio" fait référence à "tébioctet", soit 240 octets.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des codes SKU Cloud Platform s'appliquent.