Ir para o conteúdo principal
Google Cloud
Documentação Áreas de tecnologia
  • IA e AA
  • Desenvolvimento de aplicações
  • Alojamento de aplicações
  • Computação
  • Estatísticas e pipelines de dados
  • Bases de dados
  • Distribuído, híbrido e multinuvem
  • IA generativa
  • Soluções para setores
  • Trabalhar em rede
  • Observabilidade e monitorização
  • Segurança
  • Storage
Ferramentas em vários produtos
  • Gestão de acesso e recursos
  • Gestão de custos e utilização
  • SDK Cloud da Google, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
Sites relacionados
  • Google Cloud Home
  • Avaliação gratuita e nível gratuito
  • Architecture Center
  • Blogue
  • Contactar equipa de vendas
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentação do Google Cloud Marketplace
  • Melhoria de competências do Google Cloud
  • Google Cloud Solution Center
  • Apoio técnico do Google Cloud
  • Canal do YouTube do Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Fazer login
  • Dataproc
Guias Referência Amostras Recursos
Contacte-nos Começar gratuitamente
Google Cloud
  • Documentação
    • Guias
    • Referência
    • Amostras
    • Recursos
  • Áreas de tecnologia
    • Mais
  • Ferramentas em vários produtos
    • Mais
  • Sites relacionados
    • Mais
  • Console
  • Contacte-nos
  • Começar gratuitamente
  • Descubra
  • Vista geral do produto
  • Conceitos principais
  • Componentes
    • Visão geral
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • Hive WebHCat
    • Hudi
    • Icebergue
    • Jupyter
    • Porco
    • Presto
    • Ranger
      • Instale o Ranger
      • Use o Ranger com o Kerberos
      • Use o Ranger com colocação em cache e redução do âmbito
      • Faça uma cópia de segurança e restaure um esquema do Ranger
    • Solr
    • Trino
    • Zeppelin
    • Zelador de jardim zoológico
  • Serviços
  • Opções de computação
    • Tipos de máquinas
    • GPUs
    • Plataforma de CPU mínima
    • Trabalhadores secundários
    • Unidades de estado sólido locais
    • Discos de arranque
  • Controlo de versões
    • Visão geral
    • Versões de lançamento 3.0.x
    • Versões de lançamento 2.3.x
    • Versões de lançamento 2.2.x
    • Versões de lançamento 2.1.x
    • Versões de lançamento 2.0.x
    • Listas de versões de imagens de clusters
  • Perguntas frequentes
  • Começar
  • Execute o Spark no Dataproc
    • Use a consola
    • Use a linha de comandos
    • Use o Explorador de APIs REST
      • Crie um cluster
      • Execute uma tarefa do Spark
      • Atualize um cluster
      • Elimine um cluster
    • Use bibliotecas de cliente
    • Execute o Spark com o Kubernetes
  • Criar
  • Configure um projeto
  • Use modelos do Dataproc
  • Crie clusters do Dataproc
    • Crie um cluster
    • Crie um cluster de alta disponibilidade
    • Crie um cluster de grupo de nós
    • Crie um cluster parcial
    • Crie um cluster de nó único
    • Crie um cluster de inquilino único
    • Recrie um cluster
    • Crie uma imagem personalizada
  • Crie clusters do Kubernetes
    • Vista geral
    • Versões de lançamento
    • Recrie um cluster
    • Crie node pools
    • Crie uma imagem personalizada
  • Crie uma tabela Apache Iceberg com metadados no metastore do BigQuery
  • Programar
  • Apache Hadoop
  • Apache HBase
  • Apache Hive e Kafka
  • Apache Spark
    • Configurar
      • Faça a gestão das dependências do Spark
      • Personalize o ambiente do Spark
      • Ative as escritas simultâneas
      • Melhore o desempenho do Spark
      • Tune Spark
    • Ligar
      • Use o conetor do BigQuery do Spark
      • Use o conetor do Cloud Storage
      • Use o conetor do Spark Spanner
    • Executar
      • Use o HBase
      • Use a simulação de Monte Carlo
      • Use o Spark ML
      • Use o Spark Scala
  • Use blocos de notas
    • Visão geral
    • Execute um bloco de notas do Jupyter num cluster do Dataproc
    • Execute uma análise genómica num notebook
    • Use a extensão do JupyterLab para desenvolver cargas de trabalho do Spark sem servidor
  • Python
    • Configurar ambiente
    • Use bibliotecas de cliente da nuvem
  • Trino
  • Implementação
  • Executar tarefas
    • Ciclo de vida de um trabalho
    • Envie um trabalho
    • Reiniciar tarefas
    • Veja o histórico de trabalhos
  • Use modelos de fluxos de trabalho
    • Vista geral
    • Parametrização
    • Use ficheiros YAML
    • Use seletores de clusters
    • Use fluxos de trabalho inline
  • Orquestre fluxos de trabalho
    • Soluções de agendamento de fluxos de trabalho
    • Use modelos de fluxo de trabalho do Dataproc
    • Use o Cloud Composer
    • Use o Cloud Functions
    • Use o Cloud Scheduler
  • Ajuste o desempenho
    • Otimize o desempenho do Spark
    • Métricas do Dataproc
    • Crie alertas de métricas
    • Perfil de utilização de recursos
  • Gerir
  • Faça a gestão de clusters
    • Inicie e pare clusters
      • Inicie e pare um cluster manualmente
      • Agende a paragem do cluster
    • Atualize e elimine um cluster
    • Alterne clusters
    • Configure clusters
      • Defina as propriedades do cluster
      • Selecionar região
      • Selecionar zona automaticamente
      • Defina ações de inicialização
      • Dê prioridade aos tipos de VMs
      • Agende a eliminação do cluster
    • Dimensione clusters
      • Dimensione clusters
      • Escala automática de clusters
    • Faça a gestão dos dados
      • Armazenamento de dados Hadoop
      • Selecione o tipo de armazenamento
      • Coloque em cache os dados de cluster
      • Transfira dados de reprodução aleatória
    • Faça a gestão das redes
      • Configure uma rede
      • Redes de clusters do Dataproc com o Private Service Connect
  • Faça a gestão de clusters do Kubernetes
    • Dimensione clusters
    • Elimine um cluster
  • Aceda a clusters
    • Use SSH
    • Estabeleça ligação a interfaces Web
    • Use o gateway de componentes
    • Defina o acesso da força de trabalho
  • Faça a gestão de metadados e etiquetas
    • Ative a linhagem de dados do Spark
    • Ative a linhagem de dados do Hive
    • Defina metadados
    • Defina etiquetas para filtragem
    • Use etiquetas seguras
  • Estabeleça ligação ao Dataproc
    • Migre o Hadoop
    • Associe ao BigQuery
      • Conector do BigQuery
      • Conetor Hive-BigQuery
      • Exemplos de código
    • Estabeleça ligação ao Bigtable
    • Estabeleça ligação ao Cloud Storage
    • Estabeleça ligação ao Pub/Sub Lite
  • Práticas recomendadas de produção
  • Segurança e conformidade
  • Práticas recomendadas de segurança
  • Autentique utilizadores
    • Autentique-se no Dataproc
    • Autentique clusters pessoais
  • Atribua funções e autorizações
    • Funções e autorizações do Dataproc
    • Principais do Dataproc
    • IAM detalhado
    • Atribua funções para o Kubernetes
  • Crie contas de serviço
  • Clusters seguros
    • Proteja a multi-posse com o Kerberos
    • Proteja a multi-posse com contas de serviço
    • Encripte a memória
    • Faça a gestão das chaves de encriptação de dados
    • Ative o serviço de autorização do Ranger
    • Use o fornecedor de credenciais do Secret Manager
    • Crie e proteja um cluster de metastore do Hive
  • Crie restrições personalizadas
  • Assured Workloads
  • Conformidade com a FedRAMP
  • Verifique a faturação
  • Resolver problemas
  • Vista geral
  • Analise registos
    • Registos do Dataproc
    • Registos de saída de tarefas
    • Registos de auditoria
  • Resolva problemas de clusters
    • Veja os dados de diagnóstico do cluster
    • Resolva problemas de criação de clusters
    • Diagnostique clusters do Kubernetes
    • Ative o registo do Kubernetes
  • Resolva problemas de tarefas
    • Resolva problemas de tarefas
    • Resolva problemas de erros de memória
    • Resolva problemas de atrasos nas tarefas
    • Veja o histórico de trabalhos
    • Resolva problemas com modelos de fluxo de trabalho
  • IA e AA
  • Desenvolvimento de aplicações
  • Alojamento de aplicações
  • Computação
  • Estatísticas e pipelines de dados
  • Bases de dados
  • Distribuído, híbrido e multinuvem
  • IA generativa
  • Soluções para setores
  • Trabalhar em rede
  • Observabilidade e monitorização
  • Segurança
  • Storage
  • Gestão de acesso e recursos
  • Gestão de custos e utilização
  • SDK Cloud da Google, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
  • Google Cloud Home
  • Avaliação gratuita e nível gratuito
  • Architecture Center
  • Blogue
  • Contactar equipa de vendas
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentação do Google Cloud Marketplace
  • Melhoria de competências do Google Cloud
  • Google Cloud Solution Center
  • Apoio técnico do Google Cloud
  • Canal do YouTube do Google Cloud Tech
Esta página foi traduzida pela API Cloud Translation.
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • Guias

Use o Apache Spark com o HBase no Dataproc
Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

<0x A versão 1.5 do Dataproc e a versão 2.0 do Dataproc oferecem uma versão beta do HBase sem suporte. No entanto, devido à natureza efémera dos clusters do Dataproc, não é recomendável usar o HBase.

Objetivos

Este tutorial mostra como:

  1. Crie um cluster do Dataproc, instalando o Apache HBase e o Apache ZooKeeper no cluster
  2. Crie uma tabela HBase com o shell HBase em execução no nó principal do cluster Dataproc
  3. Use o Cloud Shell para enviar uma tarefa do Spark Java ou PySpark para o serviço Dataproc que escreve dados na tabela HBase e, em seguida, lê dados da mesma

Custos

Neste documento, usa os seguintes componentes faturáveis do Google Cloud:

  • Dataproc
  • Compute Engine

Para gerar uma estimativa de custos com base na sua utilização projetada, use a calculadora de preços.

Os novos Google Cloud utilizadores podem ser elegíveis para uma avaliação gratuita.

Antes de começar

Se ainda não o fez, crie um projeto da Google Cloud Platform.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.
    Note: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Dataproc and Compute Engine APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.
    Note: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Dataproc and Compute Engine APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. Crie um cluster do Dataproc

    1. Execute o seguinte comando num terminal de sessão do Cloud Shell para:

      • Instale os componentes HBase e ZooKeeper
      • Aprovisione três nós de trabalho (recomenda-se que tenha entre três e cinco trabalhadores para executar o código neste tutorial)
      • Ative o Component Gateway
      • Use a versão 2.0 da imagem
      • Use a flag --properties para adicionar a configuração do HBase e a biblioteca do HBase aos caminhos de classe do controlador e do executor do Spark.
    gcloud dataproc clusters create cluster-name \
        --region=region \
        --optional-components=HBASE,ZOOKEEPER \
        --num-workers=3 \
        --enable-component-gateway \
        --image-version=2.0 \
        --properties='spark:spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark:spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
    

    Valide a instalação do conetor

    1. A partir da Google Cloud consola ou de um terminal de sessão do Cloud Shell, use SSH no nó principal do cluster do Dataproc.

    2. Valide a instalação do conetor Apache HBase Spark no nó principal:

      ls -l /usr/lib/spark/jars | grep hbase-spark
      
      Exemplo de saída:
      -rw-r--r-- 1 root root size date time hbase-spark-connector.version.jar
      

    3. Mantenha o terminal da sessão SSH aberto para:

      1. Crie uma tabela HBase
      2. (Utilizadores de Java): execute comandos no nó principal do cluster para determinar as versões dos componentes instalados no cluster
      3. Leia a sua tabela Hbase depois de executar o código

    Crie uma tabela HBase

    Execute os comandos indicados nesta secção no terminal da sessão SSH do nó principal que abriu no passo anterior.

    1. Abra a shell do HBase:

      hbase shell
      

    2. Crie uma tabela "my-table" do HBase com uma família de colunas "cf":

      create 'my_table','cf'
      

      1. Para confirmar a criação da tabela, na Google Cloud consola, clique em HBase nos Google Cloud links do Component Gateway da consola para abrir a IU do Apache HBase. my-table é apresentado na secção Tabelas da página Página inicial.

    Veja o código do Spark

    Java

    package hbase;
    
    import org.apache.hadoop.hbase.spark.datasources.HBaseTableCatalog;
    import org.apache.spark.sql.Dataset;
    import org.apache.spark.sql.Row;
    import org.apache.spark.sql.SparkSession;
    
    import java.io.Serializable;
    import java.util.Arrays;
    import java.util.HashMap;
    import java.util.Map;
    
    public class SparkHBaseMain {
        public static class SampleData implements Serializable {
            private String key;
            private String name;
    
    
            public SampleData(String key, String name) {
                this.key = key;
                this.name = name;
            }
    
            public SampleData() {
            }
    
            public String getName() {
                return name;
            }
    
            public void setName(String name) {
                this.name = name;
            }
    
            public String getKey() {
                return key;
            }
    
            public void setKey(String key) {
                this.key = key;
            }
        }
        public static void main(String[] args) {
            // Init SparkSession
            SparkSession spark = SparkSession
                    .builder()
                    .master("yarn")
                    .appName("spark-hbase-tutorial")
                    .getOrCreate();
    
            // Data Schema
            String catalog = "{"+"\"table\":{\"namespace\":\"default\", \"name\":\"my_table\"}," +
                    "\"rowkey\":\"key\"," +
                    "\"columns\":{" +
                    "\"key\":{\"cf\":\"rowkey\", \"col\":\"key\", \"type\":\"string\"}," +
                    "\"name\":{\"cf\":\"cf\", \"col\":\"name\", \"type\":\"string\"}" +
                    "}" +
                    "}";
    
            Map<String, String> optionsMap = new HashMap<String, String>();
            optionsMap.put(HBaseTableCatalog.tableCatalog(), catalog);
    
            Dataset<Row> ds= spark.createDataFrame(Arrays.asList(
                    new SampleData("key1", "foo"),
                    new SampleData("key2", "bar")), SampleData.class);
    
            // Write to HBase
            ds.write()
                    .format("org.apache.hadoop.hbase.spark")
                    .options(optionsMap)
                    .option("hbase.spark.use.hbasecontext", "false")
                    .mode("overwrite")
                    .save();
    
            // Read from HBase
            Dataset dataset = spark.read()
                    .format("org.apache.hadoop.hbase.spark")
                    .options(optionsMap)
                    .option("hbase.spark.use.hbasecontext", "false")
                    .load();
            dataset.show();
        }
    }
    

    Python

    from pyspark.sql import SparkSession
    
    # Initialize Spark Session
    spark = SparkSession \
      .builder \
      .master('yarn') \
      .appName('spark-hbase-tutorial') \
      .getOrCreate()
    
    data_source_format = ''
    
    # Create some test data
    df = spark.createDataFrame(
        [
            ("key1", "foo"),
            ("key2", "bar"),
        ],
        ["key", "name"]
    )
    
    # Define the schema for catalog
    catalog = ''.join("""{
        "table":{"namespace":"default", "name":"my_table"},
        "rowkey":"key",
        "columns":{
            "key":{"cf":"rowkey", "col":"key", "type":"string"},
            "name":{"cf":"cf", "col":"name", "type":"string"}
        }
    }""".split())
    
    # Write to HBase
    df.write.format('org.apache.hadoop.hbase.spark').options(catalog=catalog).option("hbase.spark.use.hbasecontext", "false").mode("overwrite").save()
    
    # Read from HBase
    result = spark.read.format('org.apache.hadoop.hbase.spark').options(catalog=catalog).option("hbase.spark.use.hbasecontext", "false").load()
    result.show()

    Executar o código

    1. Abra um terminal de sessão do Cloud Shell.

      Nota: execute os comandos indicados nesta secção num terminal de sessão do Cloud Shell. O Cloud Shell tem as ferramentas necessárias para este tutorial pré-instaladas, incluindo a CLI gcloud, o git, o Apache Maven, o Java e o Python, além de outras ferramentas.
    2. Clone o repositório do GitHub GoogleCloudDataproc/cloud-dataproc para o terminal da sessão do Cloud Shell:

      git clone https://github.com/GoogleCloudDataproc/cloud-dataproc.git
      

    3. Altere para o diretório cloud-dataproc/spark-hbase:

      cd cloud-dataproc/spark-hbase
      
      Exemplo de saída:
      user-name@cloudshell:~/cloud-dataproc/spark-hbase (project-id)$
      

    4. Envie a tarefa do Dataproc.

    Java

    1. Defina as versões dos componentes no ficheiro pom.xml.
      1. A página Versões de lançamento do Dataproc 2.0.x apresenta as versões dos componentes Scala, Spark e HBase instalados com as quatro subversões 2.0 de imagem mais recentes e a última.
        1. Para encontrar a versão secundária do cluster da versão de imagem 2.0, clique no nome do cluster na página Clusters na Google Cloud consola para abrir a página Detalhes do cluster, onde a versão de imagem do cluster é apresentada.
      2. Em alternativa, pode executar os seguintes comandos num terminal de sessão SSH a partir do nó principal do cluster para determinar as versões dos componentes:
        1. Verifique a versão do Scala:
          scala -version
          
        2. Verifique a versão do Spark (prima Control + D para sair):
          spark-shell
          
        3. Verifique a versão do HBase:
          hbase version
          
        4. Identifique as dependências de versão do Spark, Scala e HBase no Maven pom.xml:
          <properties>
            <scala.version>scala full version (for example, 2.12.14)</scala.version>
            <scala.main.version>scala main version (for example, 2.12)</scala.main.version>
            <spark.version>spark version (for example, 3.1.2)</spark.version>
            <hbase.client.version>hbase version (for example, 2.2.7)</hbase.client.version>
            <hbase-spark.version>1.0.0(the current Apache HBase Spark Connector version)>
          </properties>
          
          Nota: hbase-spark.version é a versão atual do conector do Spark HBase; deixe este número da versão inalterado.
      3. Edite o ficheiro pom.xml no editor do Cloud Shell para inserir os números de versão corretos do Scala, Spark e HBase. Clique em Abrir terminal quando terminar a edição para voltar à linha de comandos do terminal do Cloud Shell.
        cloudshell edit .
        
      4. Mude para o Java 8 no Cloud Shell. Esta versão do JDK é necessária para criar o código (pode ignorar quaisquer mensagens de aviso de plug-ins):
        sudo update-java-alternatives -s java-1.8.0-openjdk-amd64 && export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
        
      5. Valide a instalação do Java 8:
        java -version
        
        Exemplo de saída:
        openjdk version "1.8..."
         
    2. Crie o ficheiro jar:
      mvn clean package
      
      O ficheiro .jar é colocado no subdiretório /target (por exemplo, target/spark-hbase-1.0-SNAPSHOT.jar.
    3. Envie o trabalho.

      gcloud dataproc jobs submit spark \
          --class=hbase.SparkHBaseMain  \
          --jars=target/filename.jar \
          --region=cluster-region \
          --cluster=cluster-name
      
      • --jars: insira o nome do ficheiro .jar após "target/" e antes de ".jar".
      • Se não definiu os caminhos de classe do HBase do controlador e do executor do Spark quando criou o cluster, tem de defini-los com cada envio de tarefa, incluindo a seguinte flag ‑‑properties no comando de envio de tarefa:
        --properties='spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
               

    4. Veja a saída da tabela HBase na saída do terminal da sessão do Cloud Shell:

      Waiting for job output...
      ...
      +----+----+
      | key|name|
      +----+----+
      |key1| foo|
      |key2| bar|
      +----+----+
      

    Python

    1. Envie o trabalho.

      gcloud dataproc jobs submit pyspark scripts/pyspark-hbase.py \
          --region=cluster-region \
          --cluster=cluster-name
      
      • Se não definiu os caminhos de classe do HBase do controlador e do executor do Spark quando criou o cluster, tem de defini-los com cada envio de tarefa, incluindo a seguinte flag ‑‑properties no comando de envio de tarefa:
        --properties='spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
               

    2. Veja a saída da tabela HBase na saída do terminal da sessão do Cloud Shell:

      Waiting for job output...
      ...
      +----+----+
      | key|name|
      +----+----+
      |key1| foo|
      |key2| bar|
      +----+----+
      

    Analise a tabela HBase

    Pode analisar o conteúdo da sua tabela HBase executando os seguintes comandos no terminal da sessão SSH do nó principal que abriu em Verifique a instalação do conector:

    1. Abra a shell do HBase:
      hbase shell
      
    2. Analisar "my-table":
      scan 'my_table'
      
      Exemplo de saída:
      ROW               COLUMN+CELL
       key1             column=cf:name, timestamp=1647364013561, value=foo
       key2             column=cf:name, timestamp=1647364012817, value=bar
      2 row(s)
      Took 0.5009 seconds
      

      Limpar

      Depois de concluir o tutorial, pode limpar os recursos que criou para que deixem de usar a quota e incorrer em custos. As secções seguintes descrevem como eliminar ou desativar estes recursos.

      Elimine o projeto

      A forma mais fácil de eliminar a faturação é eliminar o projeto que criou para o tutorial.

      Para eliminar o projeto:

        Atenção: a eliminação de um projeto tem os seguintes efeitos:
        • Tudo no projeto é eliminado. Se usou um projeto existente para as tarefas neste documento, quando o elimina, também elimina qualquer outro trabalho que tenha feito no projeto.
        • Os IDs dos projetos personalizados são perdidos. Quando criou este projeto, pode ter criado um ID do projeto personalizado que quer usar no futuro. Para preservar os URLs que usam o ID do projeto, como um URL appspot.com, elimine os recursos selecionados no projeto em vez de eliminar o projeto inteiro.

        Se planeia explorar várias arquiteturas, tutoriais ou inícios rápidos, a reutilização de projetos pode ajudar a evitar exceder os limites de quota de projetos.

      1. In the Google Cloud console, go to the Manage resources page.

        Go to Manage resources

      2. In the project list, select the project that you want to delete, and then click Delete.
      3. In the dialog, type the project ID, and then click Shut down to delete the project.

      Elimine o cluster

      • Para eliminar o cluster:
        gcloud dataproc clusters delete cluster-name \
            --region=${REGION}
        

    Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.

    Última atualização 2025-09-29 UTC.

    • Por que o Google

      • Por que escolher o Google Cloud
      • Confiança e segurança
      • Nuvem com infraestrutura moderna
      • Várias nuvens
      • Infraestrutura global
      • Clientes e estudos de caso
      • Relatórios de analistas
      • Artigos
    • Produtos e preços

      • Veja todos os produtos
      • Veja todas as soluções
      • Google Cloud para startups
      • Google Cloud Marketplace
      • Preços do Google Cloud
      • Entre em contato com a equipe de vendas.
    • Suporte

      • Community forums
      • Suporte
      • Notas da versão
      • Status do sistema
    • Recursos

      • GitHub
      • Introdução ao Google Cloud
      • Documentação do Google Cloud
      • Exemplos de código
      • Centro de arquitetura do Cloud
      • Treinamento e certificação
      • Centro para Desenvolvedores
    • Envolver

      • Blog
      • Eventos
      • X (Twitter)
      • Google Cloud no YouTube
      • Google Cloud Tech no YouTube
      • Seja um parceiro
      • Google Cloud Affiliate Program
      • Área da imprensa
    • Sobre o Google
    • Privacidade
    • Termos do site
    • Termos do Google Cloud
    • Manage cookies
    • Essa é nossa terceira década de ação climática: participe!
    • Inscreva-se para receber a newsletter do Google Cloud Inscrever-se
    • English
    • Deutsch
    • Español
    • Español – América Latina
    • Français
    • Indonesia
    • Italiano
    • Português
    • Português – Brasil
    • 中文 – 简体
    • 中文 – 繁體
    • 日本語
    • 한국어