跳至主要內容
Google Cloud
說明文件 技術領域
  • AI 和機器學習
  • 應用程式開發
  • 應用程式託管
  • 運算
  • 資料分析和管道
  • 資料庫
  • 分散式混合雲與多雲端
  • 生成式 AI
  • 產業解決方案
  • 網路
  • 觀測能力與監控
  • 安全性
  • Storage
跨產品工具
  • 存取權和資源管理
  • 費用和用量管理
  • Google Cloud SDK、語言、架構和工具
  • 基礎架構即程式碼
  • 遷移
相關網站
  • Google Cloud 首頁
  • 免費試用與免費方案
  • Architecture Center
  • 網誌
  • 聯絡銷售人員
  • Google Cloud Developer Center
  • Google 開發人員中心
  • Google Cloud Marketplace
  • Google Cloud Marketplace 說明文件
  • Google Cloud Skills Boost
  • Google Cloud 解決方案中心
  • Google Cloud 支援
  • Google Cloud Tech YouTube 頻道
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
控制台 登入
  • Dataproc
指南 參考資料 範例 資源
聯絡我們 免費試用
Google Cloud
  • 說明文件
    • 指南
    • 參考資料
    • 範例
    • 資源
  • 技術領域
    • 更多
  • 跨產品工具
    • 更多
  • 相關網站
    • 更多
  • 控制台
  • 聯絡我們
  • 免費試用
  • Discover
  • 產品總覽
  • 基本概念
  • 元件
    • 總覽
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • Hive WebHCat
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • 安裝 Ranger
      • 將 Ranger 與 Kerberos 搭配使用
      • 搭配快取和範圍縮減功能使用 Ranger
      • 備份及還原 Ranger 結構定義
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • 服務
  • 運算選項
    • 機器類型
    • GPU
    • 最低 CPU 平台
    • 次要工作站
    • 本機固態硬碟
    • 開機磁碟
  • 版本管理
    • 總覽
    • 3.0.x 發布版本
    • 2.3.x 發布版本
    • 2.2.x 發布版本
    • 2.1.x 發布版本
    • 2.0.x 發布版本
    • 叢集映像檔版本清單
  • 常見問題
  • 開始使用
  • 在 Dataproc 上執行 Spark
    • 使用控制台
    • 使用指令列
    • 使用 REST API Explorer
      • 建立叢集
      • 執行 Spark 工作
      • 更新叢集
      • 刪除叢集
    • 使用用戶端程式庫
    • 使用 Kubernetes 執行 Spark
  • 建立
  • 設定專案
  • 使用 Dataproc 範本
  • 建立 Dataproc 叢集
    • 建立叢集
    • 建立高可用性叢集
    • 建立節點群組叢集
    • 建立部分叢集
    • 建立單一節點叢集
    • 建立單一租戶叢集
    • 重新建立叢集
    • 建立自訂映像檔
  • 建立 Kubernetes 叢集
    • 總覽
    • 發行版本
    • 重新建立叢集
    • 建立節點集區
    • 建立自訂映像檔
  • 在 BigQuery metastore 中建立含有中繼資料的 Apache Iceberg 資料表
  • 開發
  • Apache Hadoop
  • Apache HBase
  • Apache Hive 和 Kafka
  • Apache Spark
    • 設定
      • 管理 Spark 依附元件
      • 自訂 Spark 環境
      • 啟用並行寫入
      • 提升 Spark 效能
      • Tune Spark
    • 連結
      • 使用 Spark BigQuery 連接器
      • 使用 Cloud Storage 連接器
      • 使用 Spark Spanner 連接器
    • 執行
      • 使用 HBase
      • 使用蒙地卡羅模擬
      • 使用 Spark ML
      • 使用 Spark Scala
  • 使用筆記本
    • 總覽
    • 在 Dataproc 叢集中執行 Jupyter 筆記本
    • 在筆記本上執行基因體分析
    • 使用 JupyterLab 擴充功能開發無伺服器 Spark 工作負載
  • Python
    • 設定環境
    • 使用 Cloud 用戶端程式庫
  • Trino
  • 部署
  • 執行工作
    • 工作的生命週期
    • 提交工作
    • 重新啟動工作
    • 查看工作記錄
  • 使用工作流程範本
    • 總覽
    • 參數化
    • 使用 YAML 檔案
    • 使用叢集選取器
    • 使用內嵌工作流程
  • 自動化調度管理工作流程
    • 工作流程排程解決方案
    • 使用 Dataproc 工作流程範本
    • 使用 Cloud Composer
    • 使用 Cloud Functions
    • 使用 Cloud Scheduler
  • 調整效能
    • 提升 Spark 效能
    • Dataproc 指標
    • 建立指標快訊
    • 剖析檔資源用量
  • 管理
  • 管理叢集
    • 啟動及停止叢集
      • 手動啟動及停止叢集
      • 排定叢集停止運作時間
    • 更新及刪除叢集
    • 輪替叢集
    • 設定叢集
      • 設定叢集屬性
      • 選取區域
      • 自動選取可用區
      • 定義初始化動作
      • 優先使用 VM 類型
      • 排定刪除叢集
    • 調度叢集資源
      • 調度叢集資源
      • 自動調度叢集資源
    • 管理資料
      • Hadoop 資料儲存空間
      • 選取儲存空間類型
      • 快取叢集資料
      • 卸載重組資料
    • 管理網路
      • 設定網路
      • 透過 Private Service Connect 建立 Dataproc 叢集網路
  • 管理 Kubernetes 叢集
    • 調度叢集資源
    • 刪除叢集
  • 存取叢集
    • 使用 SSH
    • 連線至網路介面
    • 使用元件閘道
    • 設定工作團隊存取權
  • 管理中繼資料和標籤
    • 啟用 Spark 資料歷程
    • 啟用 Hive 資料歷程
    • 設定中繼資料
    • 設定用於篩選的標籤
    • 使用安全標記
  • 連線至 Dataproc
    • 遷移 Hadoop
    • 連結至 BigQuery
      • BigQuery 連接器
      • Hive-BigQuery 連接器
      • 程式碼範例
    • 連結至 Bigtable
    • 連線至 Cloud Storage
    • 連線至 Pub/Sub Lite
  • 實際工作環境最佳做法
  • 安全性與法規遵循
  • 安全性最佳做法
  • 驗證使用者
    • 向 Dataproc 進行驗證
    • 驗證個人叢集
  • 指派角色和權限
    • Dataproc 角色和權限
    • Dataproc 主體
    • 精細的身分與存取權管理
    • 指派 Kubernetes 角色
  • 建立服務帳戶
  • 保護叢集
    • 使用 Kerberos 保護多用戶群
    • 使用服務帳戶確保多用戶群架構安全無虞
    • 加密記憶體
    • 管理資料加密金鑰
    • 啟用 Ranger 授權服務
    • 使用 Secret Manager 憑證提供者
    • 建立及保護 Hive 中繼存放區叢集
  • 建立自訂限制
  • Assured Workloads
  • FedRAMP 法規遵循
  • 查看帳單
  • 疑難排解
  • 總覽
  • 分析記錄檔
    • Dataproc 記錄檔
    • 工作輸出記錄檔
    • 稽核記錄
  • 排解叢集問題
    • 查看叢集診斷資料
    • 排解叢集建立問題
    • 診斷 Kubernetes 叢集
    • 啟用 Kubernetes 記錄功能
  • 排解工作問題
    • 排解工作問題
    • 排解記憶體錯誤
    • 排解工作延遲問題
    • 查看工作記錄
    • 排解工作流程範本問題
  • AI 和機器學習
  • 應用程式開發
  • 應用程式託管
  • 運算
  • 資料分析和管道
  • 資料庫
  • 分散式混合雲與多雲端
  • 生成式 AI
  • 產業解決方案
  • 網路
  • 觀測能力與監控
  • 安全性
  • Storage
  • 存取權和資源管理
  • 費用和用量管理
  • Google Cloud SDK、語言、架構和工具
  • 基礎架構即程式碼
  • 遷移
  • Google Cloud 首頁
  • 免費試用與免費方案
  • Architecture Center
  • 網誌
  • 聯絡銷售人員
  • Google Cloud Developer Center
  • Google 開發人員中心
  • Google Cloud Marketplace
  • Google Cloud Marketplace 說明文件
  • Google Cloud Skills Boost
  • Google Cloud 解決方案中心
  • Google Cloud 支援
  • Google Cloud Tech YouTube 頻道
本頁面由 Cloud Translation API 翻譯而成。
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • 指南

在 Dataproc 上使用 Apache Spark 搭配 HBase

<Dataproc 1.5 版和 Dataproc 2.0 版提供 Beta 版 HBase,但不提供支援。不過,由於 Dataproc 叢集具有暫時性,因此不建議使用 HBase。

目標

本教學課程將示範如何:

  1. 建立 Dataproc 叢集,並在叢集上安裝 Apache HBase 和 Apache ZooKeeper
  2. 使用在 Dataproc 叢集主要節點上執行的 HBase Shell 建立 HBase 資料表
  3. 使用 Cloud Shell 將 Java 或 PySpark Spark 工作提交至 Dataproc 服務,該服務會將資料寫入 HBase 資料表,然後從該資料表讀取資料

費用

在本文件中,您會使用下列 Google Cloud的計費元件:

  • Dataproc
  • Compute Engine

如要根據預測用量估算費用,請使用 Pricing Calculator。

初次使用 Google Cloud 的使用者可能符合免費試用資格。

事前準備

如果您尚未建立 Google Cloud Platform 專案,請先建立專案。

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.
    Note: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Dataproc and Compute Engine APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.
    Note: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Dataproc and Compute Engine APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. 建立 Dataproc 叢集

    1. 在 Cloud Shell 工作階段終端機中執行下列指令,即可:

      • 安裝 HBase 和 ZooKeeper 元件
      • 佈建三個工作站節點 (建議使用三到五個工作站,執行本教學課程中的程式碼)
      • 啟用元件閘道
      • 使用 2.0 版圖片
      • 使用 --properties 旗標,將 HBase 設定和 HBase 程式庫新增至 Spark 驅動程式和執行器類別路徑。
    gcloud dataproc clusters create cluster-name \
        --region=region \
        --optional-components=HBASE,ZOOKEEPER \
        --num-workers=3 \
        --enable-component-gateway \
        --image-version=2.0 \
        --properties='spark:spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark:spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
    

    驗證連接器安裝作業

    1. 從 Google Cloud 控制台或 Cloud Shell 工作階段終端機,使用 SSH 連結至 Dataproc 叢集的主要節點。

    2. 在主節點上驗證 Apache HBase Spark 連接器的安裝作業:

      ls -l /usr/lib/spark/jars | grep hbase-spark
      
      輸出範例:
      -rw-r--r-- 1 root root size date time hbase-spark-connector.version.jar
      

    3. 請將 SSH 工作階段終端機保持為開啟狀態,以便:

      1. 建立 HBase 資料表
      2. (Java 使用者):在叢集的主節點上執行指令,判斷叢集上安裝的元件版本
      3. 掃描 Hbase 資料表,然後執行程式碼

    建立 HBase 資料表

    在上一步開啟的主節點 SSH 工作階段終端機中,執行本節列出的指令。

    1. 開啟 HBase shell:

      hbase shell
      

    2. 建立 HBase「my-table」,並使用「cf」資料欄系列:

      create 'my_table','cf'
      

      1. 如要確認表格建立作業,請在 Google Cloud 控制台中,按一下Google Cloud 控制台元件閘道連結中的「HBase」HBase,開啟 Apache HBase UI。my-table 會列於「首頁」頁面的「資料表」區段中。

    查看 Spark 程式碼

    Java

    package hbase;
    
    import org.apache.hadoop.hbase.spark.datasources.HBaseTableCatalog;
    import org.apache.spark.sql.Dataset;
    import org.apache.spark.sql.Row;
    import org.apache.spark.sql.SparkSession;
    
    import java.io.Serializable;
    import java.util.Arrays;
    import java.util.HashMap;
    import java.util.Map;
    
    public class SparkHBaseMain {
        public static class SampleData implements Serializable {
            private String key;
            private String name;
    
    
            public SampleData(String key, String name) {
                this.key = key;
                this.name = name;
            }
    
            public SampleData() {
            }
    
            public String getName() {
                return name;
            }
    
            public void setName(String name) {
                this.name = name;
            }
    
            public String getKey() {
                return key;
            }
    
            public void setKey(String key) {
                this.key = key;
            }
        }
        public static void main(String[] args) {
            // Init SparkSession
            SparkSession spark = SparkSession
                    .builder()
                    .master("yarn")
                    .appName("spark-hbase-tutorial")
                    .getOrCreate();
    
            // Data Schema
            String catalog = "{"+"\"table\":{\"namespace\":\"default\", \"name\":\"my_table\"}," +
                    "\"rowkey\":\"key\"," +
                    "\"columns\":{" +
                    "\"key\":{\"cf\":\"rowkey\", \"col\":\"key\", \"type\":\"string\"}," +
                    "\"name\":{\"cf\":\"cf\", \"col\":\"name\", \"type\":\"string\"}" +
                    "}" +
                    "}";
    
            Map<String, String> optionsMap = new HashMap<String, String>();
            optionsMap.put(HBaseTableCatalog.tableCatalog(), catalog);
    
            Dataset<Row> ds= spark.createDataFrame(Arrays.asList(
                    new SampleData("key1", "foo"),
                    new SampleData("key2", "bar")), SampleData.class);
    
            // Write to HBase
            ds.write()
                    .format("org.apache.hadoop.hbase.spark")
                    .options(optionsMap)
                    .option("hbase.spark.use.hbasecontext", "false")
                    .mode("overwrite")
                    .save();
    
            // Read from HBase
            Dataset dataset = spark.read()
                    .format("org.apache.hadoop.hbase.spark")
                    .options(optionsMap)
                    .option("hbase.spark.use.hbasecontext", "false")
                    .load();
            dataset.show();
        }
    }
    

    Python

    from pyspark.sql import SparkSession
    
    # Initialize Spark Session
    spark = SparkSession \
      .builder \
      .master('yarn') \
      .appName('spark-hbase-tutorial') \
      .getOrCreate()
    
    data_source_format = ''
    
    # Create some test data
    df = spark.createDataFrame(
        [
            ("key1", "foo"),
            ("key2", "bar"),
        ],
        ["key", "name"]
    )
    
    # Define the schema for catalog
    catalog = ''.join("""{
        "table":{"namespace":"default", "name":"my_table"},
        "rowkey":"key",
        "columns":{
            "key":{"cf":"rowkey", "col":"key", "type":"string"},
            "name":{"cf":"cf", "col":"name", "type":"string"}
        }
    }""".split())
    
    # Write to HBase
    df.write.format('org.apache.hadoop.hbase.spark').options(catalog=catalog).option("hbase.spark.use.hbasecontext", "false").mode("overwrite").save()
    
    # Read from HBase
    result = spark.read.format('org.apache.hadoop.hbase.spark').options(catalog=catalog).option("hbase.spark.use.hbasecontext", "false").load()
    result.show()

    執行程式碼

    1. 開啟 Cloud Shell 工作階段終端機。

      注意: 請在 Cloud Shell 工作階段終端機中執行本節列出的指令。Cloud Shell 已預先安裝本教學課程所需的工具,包括 gcloud CLI、git、Apache Maven、Java 和 Python,以及其他工具。
    2. 將 GitHub GoogleCloudDataproc/cloud-dataproc 存放區複製到 Cloud Shell 工作階段終端機:

      git clone https://github.com/GoogleCloudDataproc/cloud-dataproc.git
      

    3. 切換至 cloud-dataproc/spark-hbase 目錄:

      cd cloud-dataproc/spark-hbase
      
      輸出範例:
      user-name@cloudshell:~/cloud-dataproc/spark-hbase (project-id)$
      

    4. 提交 Dataproc 工作。

    Java

    1. 在 pom.xml 檔案中設定元件版本。
      1. Dataproc 2.0.x 版頁面列出安裝在最新和最後四個映像檔 2.0 次要版本中的 Scala、Spark 和 HBase 元件版本。
        1. 如要找出 2.0 版映像檔叢集的次要版本,請在Google Cloud 主控台的「Clusters」(叢集) 頁面中,按一下叢集名稱開啟「Cluster details」(叢集詳細資料) 頁面,其中會列出叢集的「Image version」(映像檔版本)。
      2. 或者,您也可以在叢集主要節點的 SSH 工作階段終端機中執行下列指令,判斷元件版本:
        1. 檢查 Scala 版本:
          scala -version
          
        2. 檢查 Spark 版本 (按 Ctrl + D 鍵即可退出):
          spark-shell
          
        3. 檢查 HBase 版本:
          hbase version
          
        4. 在 Maven pom.xml 中找出 Spark、Scala 和 HBase 版本依附元件:
          <properties>
            <scala.version>scala full version (for example, 2.12.14)</scala.version>
            <scala.main.version>scala main version (for example, 2.12)</scala.main.version>
            <spark.version>spark version (for example, 3.1.2)</spark.version>
            <hbase.client.version>hbase version (for example, 2.2.7)</hbase.client.version>
            <hbase-spark.version>1.0.0(the current Apache HBase Spark Connector version)>
          </properties>
          
          注意:hbase-spark.version 是目前的 Spark HBase 連接器版本,請勿變更這個版本號碼。
      3. 在 Cloud Shell 編輯器中編輯 pom.xml 檔案,插入正確的 Scala、Spark 和 HBase 版本號碼。編輯完成後,按一下「Open Terminal」(開啟終端機),返回 Cloud Shell 終端機指令列。
        cloudshell edit .
        
      4. 在 Cloud Shell 中切換至 Java 8。建構程式碼時需要這個 JDK 版本 (你可以忽略任何外掛程式警告訊息):
        sudo update-java-alternatives -s java-1.8.0-openjdk-amd64 && export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
        
      5. 驗證 Java 8 安裝狀態:
        java -version
        
        輸出範例:
        openjdk version "1.8..."
         
    2. 建構 jar 檔案:
      mvn clean package
      
      .jar 檔案會放在 /target 子目錄中 (例如 target/spark-hbase-1.0-SNAPSHOT.jar)。
    3. 提交工作。

      gcloud dataproc jobs submit spark \
          --class=hbase.SparkHBaseMain  \
          --jars=target/filename.jar \
          --region=cluster-region \
          --cluster=cluster-name
      
      • --jars:在「target/」後方和「.jar」前方插入 .jar 檔案名稱。
      • 如果您在建立叢集時未設定 Spark 驅動程式和執行器 HBase 類別路徑,則必須在每次提交工作時設定,方法是在工作提交指令中加入下列 ‑‑properties 標記:
        --properties='spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
               

    4. 在 Cloud Shell 工作階段終端機輸出中,查看 HBase 資料表輸出內容:

      Waiting for job output...
      ...
      +----+----+
      | key|name|
      +----+----+
      |key1| foo|
      |key2| bar|
      +----+----+
      

    Python

    1. 提交工作。

      gcloud dataproc jobs submit pyspark scripts/pyspark-hbase.py \
          --region=cluster-region \
          --cluster=cluster-name
      
      • 如果您在建立叢集時未設定 Spark 驅動程式和執行器 HBase 類別路徑,則必須在每次提交工作時設定,方法是在工作提交指令中加入下列 ‑‑properties 標記:
        --properties='spark.driver.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*,spark.executor.extraClassPath=/etc/hbase/conf:/usr/lib/hbase/*'
               

    2. 在 Cloud Shell 工作階段終端機輸出中,查看 HBase 資料表輸出內容:

      Waiting for job output...
      ...
      +----+----+
      | key|name|
      +----+----+
      |key1| foo|
      |key2| bar|
      +----+----+
      

    掃描 HBase 資料表

    如要掃描 HBase 表格的內容,請在「驗證連接器安裝作業」中開啟主要節點 SSH 工作階段終端機,然後執行下列指令:

    1. 開啟 HBase shell:
      hbase shell
      
    2. 掃描「my-table」:
      scan 'my_table'
      
      輸出範例:
      ROW               COLUMN+CELL
       key1             column=cf:name, timestamp=1647364013561, value=foo
       key2             column=cf:name, timestamp=1647364012817, value=bar
      2 row(s)
      Took 0.5009 seconds
      

      清除所用資源

      完成教學課程後,您可以清除所建立的資源,這樣資源就不會繼續使用配額,也不會產生費用。下列各節將說明如何刪除或關閉這些資源。

      刪除專案

      如要避免付費,最簡單的方法就是刪除您為了本教學課程所建立的專案。

      如要刪除專案:

        注意:刪除專案會造成以下結果:
        • 專案中的所有內容都會遭到刪除。 如果您使用現有專案來進行本文中的工作,刪除專案將一併刪除其中已完成的所有工作。
        • 自訂的專案 ID 會消失。當您之前建立這個專案時,可能建立了想要在日後使用的自訂專案 ID。如要保留使用該專案 ID 的網址 (例如 appspot.com 網址),請刪除在該專案中選取的資源,而不是刪除整個專案。

        如想瞭解多種架構、教學課程或快速入門導覽課程,重複使用專案可避免超出專案配額限制。

      1. In the Google Cloud console, go to the Manage resources page.

        Go to Manage resources

      2. In the project list, select the project that you want to delete, and then click Delete.
      3. In the dialog, type the project ID, and then click Shut down to delete the project.

      刪除叢集

      • 如要刪除叢集:
        gcloud dataproc clusters delete cluster-name \
            --region=${REGION}
        

    除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。

    上次更新時間:2025-10-21 (世界標準時間)。

    • 選用 Google 的理由

      • 選擇 Google Cloud
      • 信任與安全性
      • 新型基礎架構雲端
      • 多雲端
      • 全球基礎架構
      • 客戶與個案研究
      • 分析師報告
      • 白皮書
    • 產品與定價

      • 查看所有產品/服務
      • 查看所有解決方案
      • Google Cloud for Startups
      • Google Cloud Marketplace
      • Google Cloud 定價
      • 與銷售人員聯絡
    • 支援服務

      • Community forums
      • 支援服務
      • 版本資訊
      • 系統狀態
    • 實用資源

      • GitHub
      • 開始使用 Google Cloud
      • Google Cloud 說明文件
      • 程式碼範例
      • 雲端架構中心
      • 訓練與認證
      • 開發人員中心
    • 互動交流

      • 網誌
      • 活動
      • X (Twitter)
      • Google Cloud 的 YouTube 頻道
      • Google Cloud Tech 的 YouTube 頻道
      • 成為合作夥伴
      • Google Cloud Affiliate Program
      • 新聞中心
    • 關於 Google
    • 隱私權
    • 網站條款
    • Google Cloud 服務條款
    • Manage cookies
    • 我們的第三個十年氣候計畫:加入我們
    • 訂閱 Google Cloud 電子報 訂閱
    • English
    • Deutsch
    • Español
    • Español – América Latina
    • Français
    • Indonesia
    • Italiano
    • Português
    • Português – Brasil
    • 中文 – 简体
    • 中文 – 繁體
    • 日本語
    • 한국어