Faça a ingestão de eventos para streaming no BigQuery, data lakes ou bancos de dados operacionais.
Clientes novos ganham US$ 300 em créditos para gastar no Pub/Sub. Todos os clientes recebem até 10 GB para ingestão ou entrega de mensagens gratuitamente por mês, sem desconto de créditos.
Implante um exemplo de solução de data warehouse para explorar, analisar e visualizar dados usando o BigQuery e o Looker Studio. Além disso, aplique a IA generativa para resumir os resultados da análise.
Sistema de filas ou de mensagens autônomo, seguro e escalonável
Entrega de mensagens em ordem e em qualquer ordem pelo menos uma vez com os modos pull e push
Proteja dados com controles de acesso refinado e criptografia sempre ativada
Vantagens
A replicação de mensagens síncrona e entre zonas e o acompanhamento do recebimento de cada mensagem garantem entregas confiáveis a qualquer escala.
Escalonamento e provisionamento automáticos sem partições eliminam o planejamento e garantem que as cargas de trabalho estejam prontas para produção desde o primeiro dia.
Uma maneira rápida e confiável de armazenar pequenos registros em qualquer volume, um ponto de entrada para pipelines em tempo real e em lote que alimentam o BigQuery, data lakes e bancos de dados operacionais. Use-a com pipelines de ETL/ELT no Dataflow.
Principais recursos
A integração nativa do Dataflow permite o processamento e a integração confiáveis, expressivos e exatos dos fluxos de evento em Java, Python e SQL.
A ordem opcional por chave simplifica a lógica dos aplicativos com estado sem sacrificar o escalonamento horizontal; não há a necessidade de partições.
Faça a ingestão de dados de streaming do Pub/Sub diretamente no BigQuery ou no Cloud Storage com nossas assinaturas nativas.
Clientes
O que há de novo
Inscreva-se na newsletter do Google Cloud para receber atualizações de produtos, informações sobre eventos, ofertas especiais e muito mais.
Documentação
Casos de uso
A análise de streams do Google torna os dados mais organizados, úteis e acessíveis assim que são gerados. Criada no Pub/Sub com o Dataflow e o BigQuery, nossa solução de streaming oferece os recursos de que você precisa para ingerir, processar e analisar volumes flutuantes de dados em tempo real, para que você extraia insights valiosos de negócios em tempo real. Este provisionamento abstraído reduz a complexidade e torna a análise de streams mais acessível para os analistas e engenheiros de dados.
O Pub/Sub funciona como um middleware de mensagens para integração de serviços tradicional ou um simples meio de comunicação para microsserviços modernos. As assinaturas por push entregam os eventos a webhooks sem servidor no Cloud Functions, App Engine, Cloud Run ou em ambientes personalizados no Kubernetes Engine ou no Compute Engine. A entrega por pull de baixa latência está disponível quando não for possível expor os webhooks ou para tratar de modo eficiente os fluxos de maior capacidade.
Todos os recursos
Entrega do tipo "pelo menos uma vez" | A replicação de mensagens síncrona e entre zonas e o acompanhamento do recebimento de cada mensagem garantem entregas confiáveis do tipo "pelo menos uma vez" a qualquer escala. |
Aberto | Bibliotecas de clientes e APIs abertas em sete linguagens com suporte a implantações híbridas e em nuvem. |
Processamento do tipo "exatamente uma vez" | O Dataflow oferece suporte ao processamento confiável, expressivo e exato dos fluxos do Pub/Sub. |
Nenhum provisionamento, tudo automático | O Pub/Sub não está fragmentado nem tem partições. Basta definir uma cota, publicar e consumir. |
Segurança e conformidade | O Cloud Pub/Sub é um serviço em conformidade com a HIPAA, oferecendo controles de acesso refinados e criptografia de ponta a ponta. |
Integrações nativas com o Google Cloud | Aproveite as integrações com vários serviços, como os eventos de atualização do Cloud Storage e do Gmail e o Cloud Functions, para computação orientada a eventos sem servidor. |
Integrações de terceiros e OSS | O Pub/Sub oferece integrações de terceiros com Splunk Datadog para os registros, além de Striim e Informatica para integração de dados. Além disso, as integrações com OSS estão disponíveis pelo Confluent Cloud for Apache Kafka e Knative Eventing para cargas de trabalho sem servidor com base em Kubernetes. |
Procure e reproduza | Retroceda o backlog a qualquer momento ou a um snapshot, oferecendo a capacidade de processar novamente as mensagens. Avance rapidamente para descartar dados desatualizados. |
Tópicos de mensagens mortas | Os tópicos de mensagens inativas permitem que mensagens que não podem ser processadas pelos aplicativos do assinante sejam separadas para análise e depuração off-line para que outras mensagens possam ser processadas sem atraso. |
Filtro | O Pub/Sub pode filtrar mensagens com base em atributos para reduzir os volumes de entrega para os assinantes. |
Preços
Os preços do Pub/Sub são calculados com base nos volumes mensais de dados. Os primeiros 10 GB de dados por mês são oferecidos gratuitamente.
Volume de dados mensal1 | Preço por TB2 |
---|---|
Primeiros 10 GB | US$ 0,00 |
Mais de 10 GB | US$ 40,00 |
1 Para informações detalhadas sobre preços, consulte o guia de preços.
2 TB refere-se a um tebibyte, ou 240 bytes.
Se você não paga em dólar americano, valem os preços na sua moeda local listados na página SKUs do Cloud Platform.
Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.