Granularidade dos serviços do Google Cloud

Cada serviço do Google Cloud divide os dados em um nível diferente de granularidade para criptografia. Neste documento, descrevemos a granularidade da criptografia para o conteúdo do cliente nos serviços. O conteúdo do cliente são os dados que você gera ou fornece para nós, como dados armazenados no Cloud Storage, snapshots de disco usados pelo Compute Engine e políticas do IAM. O conteúdo do cliente não inclui metadados do cliente, como nomes de recursos. Em alguns serviços, todos os metadados são criptografados com uma única DEK.

Tipo Serviço do Google Cloud Granularidade da criptografia de dados do cliente (tamanho dos dados criptografados com uma única DEK)
Armazenamento Bigtable Para cada bloco de dados (vários para cada tabela)
Datastore Para cada bloco de dados (não é exclusivo de um único cliente)
Firestore Para cada bloco de dados (não é exclusivo de um único cliente)
Spanner Para cada bloco de dados (vários para cada tabela)
Cloud SQL
  • Segunda geração: para cada instância, assim como no Google Compute Engine (cada instância pode conter vários bancos de dados)
  • Primeira geração: para cada instância
Cloud Storage Para cada bloco de dados (geralmente 256 KB a 8 MB)
Computação App Engine Para cada bloco de dados (não é único para um único cliente)

O App Engine inclui o código e as configurações do aplicativo. Os dados usados no App Engine são armazenados no Datastore, Cloud SQL ou Cloud Storage dependendo das configurações do cliente.
Cloud Functions Para cada bloco de dados (não é único para um único cliente)

O Cloud Functions inclui código de função, configurações e dados de eventos. Dados de eventos são armazenados no Pub/Sub.
Compute Engine
  • Várias para cada disco
  • Para cada grupo de snapshots, com intervalos de snapshots individuais derivados da chave mestra do grupo de snapshots.
  • Para cada imagem
Google Kubernetes Engine no Google Cloud Várias para cada disco, como o Compute Engine
Artifact Registry Armazenados no Cloud Storage para cada bloco de dados
Análise de dados BigQuery Um ou mais para cada tabela
Dataflow Armazenados no Cloud Storage para cada bloco de dados
Dataproc Armazenados no Cloud Storage para cada bloco de dados
Pub/Sub Alterado a cada 30 dias (não é exclusivo de um único cliente)

A seguir

Leia mais sobre a criptografia em repouso padrão.