15. 物件儲存空間啟動程序

預計完成時間:7 小時

可操作元件擁有者:OBJ

技能設定檔:部署工程師

15.1. 網路需求

請參閱下圖的 SG1000 和 SG6060 纜線圖,設定 GRID、管理員和用戶端網路:

儲存空間機架設定

15.1.1. 管理節點 SG1000

SG1000 至少要有兩個管理節點。

每個管理員節點都必須有四個 IP 位址,每個位址分別位於下列位置:

  • BMC Network。
  • 管理員網路。
  • 用戶端網路。
  • Grid Network。

您必須有三個子網路,分別用於下列項目:

  • 管理員網路。
  • BMC Network。

用戶端網路和格線網路,以及每個子網路的子網路遮罩,最多只能有 30 位元。

15.1.2. 儲存節點 SG6060 和 SG6000

SG6060 和 SG6000 型號必須至少有三個儲存節點。

每個儲存節點都必須有五個 IP 位址,分別位於下列位置:

  • BMC 網路(管理)。
  • 管理網路(mgmt)。
  • Grid Network。
  • 儲存空間控制器網路 (管理)。注意:儲存空間控制器網路必須有兩個 IP 位址。

您必須為下列各項建立兩個子網路:

  • BMC Network。
  • 管理員網路。
  • 儲存空間控制器網路。
  • Grid Network。

下表列出管理員和儲存節點的 IP 位址數量:

需要的 IP 數量 管理員網路 用戶端網路 電網
管理節點 2 1 1
儲存空間節點 4 0 1

您必須具備下列三個子網路:

  • 管理員網路。
  • 用戶端網路。
  • Grid Network。

每個子網路的子網路遮罩最多只能有 30 位元。

15.1.3. 網路詳細資料

15.1.3.1. Distributed Cloud 管理層網路:

Distributed Cloud 頻外 (OOB) 管理網路包含物件儲存空間主機板管理控制器 (BMC) 網路和管理網路。網路會連線至 mgmtsw

您必須在下列各項上擁有 OOB BMC IP 位址:

  • SG1000
  • SG6000

您必須在下列各項上設定 OOB 管理 IP 位址:

  • SG1000
  • SG6000
  • SG6060

15.1.3.2. Distributed Cloud 資料平面網路

資料平面網路包含外部物件 StorageGRID (SG1000) 用戶端 LIF 和 NetApp 中的用戶端網路。

  • 請按照下列步驟,找出每個裝置上的 SubnetClaim

    • S3 API 端點:
    1. cellconfig 檔案中,搜尋 external-objectstorage-client-lif-subnet
    2. 找出對應的 SubnetClaim,其中指定了指派的 CIDR/閘道 IP 位址。
    • SG1000 格線網路設備端點:

      1. cellconfig 檔案中,搜尋 objectstorage-admin-nodes-lif-subnet
      2. 找出對應的 SubnetClaim,其中指定了指派的 CIDR/閘道 IP 位址。
  • SG6060 格線網路設備端點:

    1. cellconfig 檔案中,搜尋 objectstorage-storage-nodes-lif-subnet
    2. 找出對應的 SubnetClaim,其中指定了指派的 CIDR/閘道 IP 位址。

15.2. 準備

15.2.1. 收集資訊

預估時間:5 到 10 分鐘

繼續本節之前,請確認網路啟動程序和設定已完成 Distributed Cloud 執行個體,且作業人員可存取最準確或最新的 cellconfig 檔案,或啟動程序。

15.2.1.1. 收集儲存裝置資訊

Distributed Cloud 執行個體遵循固定命名慣例,可識別機架中的硬體裝置。具體來說,是下列物件儲存裝置:

  • 管理節點(SG1000):<cell>-<rack>-objsadm[node-number]。例如:af-ae-objsadm01 代表管理員節點。
  • 儲存空間運算控制器節點 (SG6000-CN): <cell>-<rack>-objs[node-number]. 例如:af-ae-objs01
  • 儲存空間控制器機架(E2860):<cell>-<rack>-objs[node-number]-s1。例如:af-ae-objs01-s1
  • 儲存節點控制器(SG6060): <cell>-<rack>-objs[node-number]-s1-[controller number]. 例如: af-ae-objs01-s1-01af-ae-objs01-s1-02

15.2.1.2. 收集管理平面網路資訊

在網路啟動和設定期間,營運商必須為管理平面建立子網路。在啟動程序中,物件儲存空間系統需要下列資訊:

  1. 管理子網路。
  2. 管理閘道 IP 位址。
  3. 管理子網路中保留 16 個 IP 位址,每個管理節點兩個 IP 位址,每個儲存節點四個 IP 位址。

從 SubnetClaim <cell>-<rack>-mgmtsw01-objs-os-subnet 找出管理閘道 IP 位址。<cell><rack> 與「收集儲存裝置硬體資訊」步驟中識別的相同。舉例來說:af-ae-mgmtsw01-objs-os-subnet

kubectl get subnetclaim -n root <cell>-<rack>-mgmtsw01-objs-os-subnet -o jsonpath='{.status.ipv4SubnetStatus.reservedIpRanges[?(.type == "GatewayReservation")].ipRange.startIPAddress}'

將指令的值儲存在 MANAGEMENT_SWITCH_GATEWAY 中。

15.2.1.3. 收集資料平面網路資訊

繼續操作前,請確認您已在網路啟動和設定期間,為物件儲存系統佈建三個子網路。

檢查下列子網路是否存在:

  • objectstorage-admin-nodes-lif-subnet
  • objectstorage-storage-nodes-lif-subnet
  • external-objectstorage-client-lif-subnet

使用 SubnetClaim 的名稱執行下列指令:

kubectl -n root get SubnetClaim SUBNET_CLAIM_NAME

您會看見以下輸出內容:

NAME                                    CIDRCLAIM                             OVERLAY-NETWORK   IPV4-CIDR     IPV6-CIDR   VLAN   READY   VLANREADY
objectstorage-admin-nodes-lif-subnet   objectstorage-admin-nodes-lif-cidr   ObjectStorage     10.7.7.0/24                  7      True    True

確認是否包含下列欄位:

  1. VLAN
  2. READY: True
  3. VLANREADY: True

15.2.1.4. 收集依附元件資訊

物件儲存系統依賴 Distributed Cloud 中的下列核心服務和基礎架構:

  • NTP
  • 硬體安全性模組 (HSM)
  • DNS

15.2.1.5. 更新 TO-BE-FILLED 欄位

檢查 obj-cellobj.yaml 檔案是否有任何 TO-BE-FILLED 值,並更新這些值。

執行下列指令,確保 YAML 檔案中沒有該值:

cat OBJ_CELLOBJ_YAML_PATH | grep "TO-BE-FILLED"

15.2.2. 透過本機連線管理設定網路

預估時間:30 至 45 分鐘

這個小節會為每個 StorageGRID 設備節點設定管理網路。管理網路設定完成後,即可使用管理網路中的 IP 從啟動程序存取 StorageGRID 節點。

請按照下列步驟操作所有 ObjectStorage 裝置:

  • af-ae-objsadm01
  • af-ae-objsadm02
  • af-ae-objs01
  • af-ae-objs02
  • af-ae-objs03

如要啟動 StorageGRID 裝置,請使用管理網路通訊埠 6 上的故障排除車連線至每個裝置 (包括兩個管理節點和三個儲存節點),然後前往 https://169.254.0.1:8443,在管理網路上設定管理 IP 位址。

  1. 使用乙太網路線,將故障排除車直接連至服務設備最右側的 RJ-45 連接埠。以下圖表以管理員和儲存節點的連接埠 6 為例:

    管理員節點的通訊埠 6

    儲存空間節點的通訊埠 6

  2. 在急救車上開啟網路瀏覽器。

  3. 在每部電腦上前往 https://169.254.0.1:8443

  4. 在 StorageGRID 設備安裝程式的選單列中,依序點選「Configure Networking」>「Link Configuration」。確認管理員網路是否已啟用。

    啟用管理員網路

  5. 如要設定管理網路的 IP 位址,請依序選取「Configure Networking」>「IP Configuration」

  6. 向下捲動至「Admin Network」(管理網路) 區段,然後在「IP Assignment」(IP 指派) 中選取「Static」(靜態),並輸入節點的相應管理 IP 位址 managementIP。您可以在 obj-cellobj.yaml 檔案中找到每個節點的管理 IP。例如:

    • ObjectStorageAdminNode (SG1000):

      apiVersion: storagegrid.netapp.storage.private.gdc.goog/v1alpha1
      kind: ObjectStorageAdminNode
      metadata:
        creationTimestamp: null
        name: af-ae-objsadm01
      spec:
        network:
          bmcIP: 10.251.188.11/24
          clientIP: 10.251.113.2/28
          dataIP: 10.1.0.66/26
          managementIP: 10.251.188.10/24
        siteName: objectstorage-site
      
    • ObjectStorageStorageNode (SG6000):

      apiVersion: storagegrid.netapp.storage.private.gdc.goog/v1alpha1
      kind: ObjectStorageStorageNode
      metadata:
        creationTimestamp: null
        name: af-ae-objs01
      spec:
        network:
          bmcIP: 10.251.243.34/24
          controllerAManagementIP: 10.251.243.35/24
          controllerBManagementIP: 10.251.243.36/24
          dataIP: 10.1.0.132/26
          managementIP: 10.251.243.33/24
        siteName: objectstorage-site
      

    將閘道設為 MANAGEMENT_SWITCH_GATEWAY

    下圖顯示使用 obj-cellobj.yaml 檔案中分配的管理 IP 位址,為 af-ae-objs01 進行的設定:

    設定管理員網路

  7. 按一下「儲存」,確認 IP 位址是否更新。

  8. 從啟動程式連線偵測 (ping) 管理 IP 位址,確認可連線。

    1. 從啟動程式連線偵測 (ping) 管理 IP 位址,確認可以連上。
    2. 所有節點在管理網路中都有 IP 位址後,請使用管理 IP 位址存取 StorageGRID 節點安裝 GUI。

疑難排解:

如果節點無法 Ping:

  1. 從上述步驟 3 存取 StorageGRID 節點安裝使用者介面,並檢查對話方塊橫幅中是否顯示任何錯誤。嘗試解決錯誤。視需要聯絡工程師。
  2. 依序前往「Configure Networking」>「IP Configuration」。確認已在正確的「管理網路」部分設定正確的靜態 IP 和閘道。有時,StorageGRID 節點在確認後,不會完全註冊管理網路設定。
  3. 再次執行步驟 5 至 8,並驗證管理員節點網路。

如要繼續安裝物件儲存系統,必須存取每個節點上的 StorageGRID 節點安裝 GUI。

15.2.3. 升級 StorageGRID

預估時間:1 至 1.5 小時

升級 StorageGRID 之前,請先檢查 StorageGRID 軟體版本。依序前往「Advanced」>「Upload StorageGRID Software」。您會看到目前的 StorageGRID 版本。

檢查隨附的 StorageGRID 安裝版本:

gdcloud artifacts tree oci | grep object-storage/os

範例輸出內容如下:

             └── gpc-system-object-storage/os:11.8.0
    ├── gpc-system-object-storage/os:sha256-d4cb75f91f43a92cb580db98faae12e87ec49d2b27c7db8a056d6411ac3b6044.sig

版本會標記在構件上,在本例中為 11.8.0

將版本的值儲存在 SG_INSTALL_VERSION 中。

檢查隨附的 StorageGRID 韌體版本:

gdcloud artifacts tree oci | grep object-storage/firmware

範例輸出內容如下:

             ├── gpc-system-object-storage/firmware:3.8.1
    ├── gpc-system-object-storage/firmware:sha256-20a664504c342b5f14188114fad7a1e7d40abc042690bb0f776aa67cecff52e1.sig

版本會標記在構件上,在本例中為 3.8.1

將版本的值儲存在 SG_FIRMWARE_VERSION 中。

如果節點上的版本不是 SG_INSTALL_VERSION,請繼續執行後續步驟,升級或降級 StorageGRID 安裝版本。如果目前版本為 SG_INSTALL_VERSION,請移至「升級 SANtricity」一節。

檢查 StorageGRID 版本

15.2.3.1. 升級韌體

請對所有 StorageGRID 節點執行下列步驟:

  • af-ae-objsadm01
  • af-ae-objsadm02
  • af-ae-objs01
  • af-ae-objs02
  • af-ae-objs03
  1. 從套件擷取韌體映像檔:

    gdcloud artifacts extract oci storage --image-name=gpc-system-object-storage/firmware:SG_FIRMWARE_VERSION
    
    tar -xvzf storage/gpc-system-object-storage/firmware.tar.gz
    

    檔案位於 storagegrid_firmware_install/ 中。

  2. 前往 StorageGRID 節點上的 StorageGRID Appliance Installer。 依序選擇「進階」 >「升級韌體」。上傳所選韌體版本的韌體映像檔 storagegrid_SG_FIRMWARE_VERSION_firmware_image.bin.tar.bz2 和檢查碼 storagegrid_SG_FIRMWARE_VERSION_firmware_checksum.bin.sha1。上傳後,StorageGRID 會自動開始驗證檔案。驗證程序通常需要五到十分鐘。

    上傳韌體映像檔

  3. 出現兩個綠色勾號後,按一下「Upgrade Inactive Partition」(升級非使用中分割區)

    升級閒置分區

    收到訊息 Successfully updated the firmware on the inactive partition 後,請查看「目前的韌體」部分,確認非使用中的分割區確實是正確版本。

    按兩下「重新啟動」和「交換分割區」

  4. 節點完成重新啟動後,請重複步驟一和二,升級其他分割區的韌體。使用中的分割區是所選版本,而閒置分割區則包含舊版。

    升級其他閒置分區

15.2.3.2. 升級 StorageGRID 軟體

所有節點的韌體升級至正確版本後,請在兩個管理員節點上將軟體升級至所選版本。儲存空間節點會模仿並提取管理節點上的軟體,因此不必升級。

請按照 SG1000 管理節點上的下列操作說明執行:

  • af-ae-objsadm01
  • af-ae-objsadm02
  1. 從套件擷取安裝映像檔:

    gdcloud artifacts extract oci storage --image-name=gpc-system-object-storage/os:SG_INSTALL_VERSION
    
    tar -xvzf storage/gpc-system-object-storage/os.tar.gz
    

    檔案位於 storagegrid_os_install/

  2. 依序前往「Advanced」->「Upload StorageGRID Software」。按一下「移除」即可移除目前的軟體,然後上傳新的軟體套件 storagegrid_SG_INSTALL_VERSION_webscale_os_image.deb 和對應的總和檢查碼 storagegrid_SG_INSTALL_VERSION_webscale_os_checksum.deb.md5,如下所示:

    上傳 StorageGRID 套件

  3. 軟體上傳完成後,請確認節點軟體已更新至所選版本:

    檢查 StorageGRID 版本

15.2.4. 升級 SANtricity

預估時間:1 至 1.5 小時

升級 SANtricity 前,請先檢查 SANtricity 軟體版本。前往 SANtricity UI,然後依序點選「Support」>「UPGRADE CENTER」>「Begin Upgrade」。畫面上會顯示目前的 SANtricity 版本。

檢查隨附的 SANtricity 安裝版本:

gdcloud artifacts tree oci | grep object-storage/santricity

範例輸出內容如下:

│   │   │       └── gpc-system-object-storage/santricity:11.70.5R1
    ├── gpc-system-object-storage/santricity:sha256-b145edeb8b24cac420862e7ef09224009aa51da6c6508f5a113753cc07db6ec5.sig

這個範例中的構件標記為 11.70.5R1

將版本的值儲存在 SANTRICITY_OS_VERSION 中。

如果 SANtricity 版本低於 SANTRICITY_OS_VERSION,請繼續下一個步驟,升級 SANtricity OS 版本。否則,請前往「安裝」一節。

檢查 SANtricity 版本

15.2.4.1. 升級 SANtricity OS

在 SANtricity UI 中,針對每個儲存節點按照下列指示操作:

  1. 從套件擷取安裝映像檔:

    gdcloud artifacts extract oci santricity \
        --image-name=gpc-system-object-storage/santricity:SANTRICITY_OS_VERSION
    
    tar -xvzf santricity/gpc-system-object-storage/santricity.tar.gz
    

    升級檔案位於 santricity/SANTRICITY_OS_VERSION/

  2. 依序前往「支援」>「升級中心」。在「SANtricity OS Software upgrade」(SANtricity OS 軟體升級) 頁面中,按一下「Begin Upgrade」(開始升級)。按一下「瀏覽」,選取 SANtricity OS 軟體檔案。上傳新軟體套件 RCB_SANTRICITY_OS_VERSION_santricity_os_image.dlp,如下所示:

    上傳 SANtricity 套件

  3. 按一下「開始」,然後確認要執行這項操作。

  4. 升級完成後,請確認版本已更新:

    檢查 SANtricity 版本

15.3. 安裝

15.3.1. 建立密鑰

預估時間:15 到 30 分鐘

如要取得建立密鑰的值,請使用 cellcfg 目錄:

  1. 取得 objectstoragestoragenodes 的名稱:

    $ CELL_ID=$(kubectl get cells -n gpc-system -o jsonpath="{.items[0].metadata.name}")
    $ sed -n '/kind: ObjectStorageStorageNode/, /status: {}/p' CELLCFG_PATH/$CELL_ID-obj-cellobj.yaml | grep ' name:' | awk '{print $2}'
    

    輸出內容範例:

    # CELL_ID=$(kubectl get cells -n gpc-system -o jsonpath="{.items[0].metadata.name}")
    # sed -n '/kind: ObjectStorageStorageNode/, /status: {}/p' ./cellcfg/$CELL_ID-obj-cellobj.yaml | grep ' name:' | awk '{print $2}'
    ah-ac-objs01
    ah-ac-objs02
    ah-ac-objs03
    
  2. 擷取儲存節點的 BMC IP 位址:

    echo https://$(sed -n "/name: STORAGE_NODE_NAME$/, /bmcIP/p" $CELL_ID-obj-cellobj.yaml | grep bmcIP | awk '{print $2}' | cut -d'/' -f1):8443
    
  3. 透過上一個指令輸出內容中的連結,登入 SANtricity 系統管理員。如果先前未設定密碼,請建立密碼並登入:

    登入 SANtricity 系統管理員

    1. 如果忘記 SANtricity 密碼,請透過 StorageGRID E2860 序列主控台重設密碼。如要連線至 E2860 磁碟陣列序列埠,終端機設定為 115200 8N1。
  4. 在 SANtricity 系統管理員中,為兩個控制器設定 NTP 伺服器位址:

    設定 NTP 伺服器位址

    1. 擷取 NTP 伺服器位址

       kubectl get ntpserver -n ntp-system -o custom-columns=NAME:.metadata.name,MANAGEMENT-IP:.status.managementIP
       ```
      
    2. 在 SANtricity 系統管理員中選取「Hardware」(硬體)。

    3. 如果圖形顯示磁碟機,請按一下「顯示檔案櫃背面」。圖形會變更為顯示控制器,而非磁碟機。

    4. 按一下要設定的遙控器。系統隨即會顯示控制器的內容選單。

    5. 選取「設定 NTP 伺服器」。系統會開啟「設定網路時間通訊協定 (NTP) 伺服器」對話方塊。

    6. 選取「I want to enable NTP on Controller (A or B)」(我要在控制器 (A 或 B) 上啟用 NTP)。對話方塊中會顯示其他選項。

    7. 選取「手動指定 NTP 伺服器位址」。使用先前指令擷取的其中一個 IP,輸入主要 NTP 伺服器位址。

    8. 按一下 [儲存]

  5. 在 cell.yaml 檔案中,更新包含每個儲存節點 SANtricity 憑證的密鑰。如果密鑰不存在,請按照下列範本新增密鑰:

    apiVersion: v1
    kind: Secret
    metadata:
      creationTimestamp: null
      name: <STORAGE_NODE_NAME>-santricity
      namespace: gpc-system
    stringData:
      password: 'PASSWORD'
      username: 'admin'
    type: Opaque
    
  6. 為上一步列出的每個儲存節點建立密鑰:

    kubectl create secret generic \
       --namespace=gpc-system STORAGE_NODE_NAME-santricity \
       --from-literal=username=admin \
       --from-literal=password=PASSWORD
    

驗證:

  1. 針對上一個步驟列出的每個儲存空間節點,執行下列指令。這會列印出上一個步驟中設定的 Santricity 使用者名稱。驗證管理員:

    kubectl get secret -n gpc-system STORAGE_NODE_NAME-santricity -o jsonpath='{.data.username}' | base64 -d; echo
    
  2. 針對上一個步驟列出的每個儲存空間節點,執行下列指令。並列出 Santricity 密碼:

    kubectl get secret -n gpc-system STORAGE_NODE_NAME-santricity -o jsonpath='{.data.password}' | base64 -d; echo
    
  3. 執行下列指令,取得 Santricity Management UI 的網址。使用使用者名稱和密碼登入 Santricity:

    echo https://$(sed -n "/name: STORAGE_NODE_NAME$/, /controllerAManagementIP/p" $CELL_ID-obj-cellobj.yaml | grep controllerAManagementIP | awk '{print $2}' | cut -d'/' -f1):8443
    

疑難排解:

如果在執行驗證步驟 1 或 2 時找不到密鑰,請再次執行 kubectl create secret 步驟。

如果無法登入 Santricity 管理使用者介面,請按照下列步驟操作:

  1. 透過 StorageGRID E2860 序列埠控制台重設管理員憑證
  2. 執行所有先前的步驟,最後一個步驟除外。
  3. 刪除每個節點現有的 Santricity 密鑰:

    kubectl delete secret -n gpc-system STORAGE_NODE_NAME-santricity
    
  4. 執行最後一個步驟,重新建立 Santricity 密碼。

15.3.2. 啟動物件儲存空間

Object Storage 的啟動程序在第一個區域和加入的區域之間有所不同。請根據您的具體情況參閱相關章節。

重要事項:請先確認錨點區域已完成全域 API 啟動程序,再繼續操作。

15.3.2.1. 在第一個區域中啟動物件儲存空間

執行下列指令來啟動物件儲存空間:

gdcloud system objectstorage install --config /CELLCFG_PATH  --first-zone --enable-objectstorage-hsm -v 5

15.3.2.2. 在加入的區域中啟動 Object Storage

疑難排解:

  1. 如果 Google Cloud CLI 指令逾時或傳回錯誤,請解決傳回的任何問題。
  2. 如要進一步瞭解錯誤,請檢查登入 gpc-system/obj-infra-cluster-cm-backend-controller Pod。

15.3.2.3. 在加入的區域中啟動 Object Storage

預估時間:30 至 60 分鐘

在加入區域中啟動 Object Storage 時,需要錨點區域和加入區域中的 Object Storage 調解器協調運作。由於在啟動程序期間,兩個區域之間沒有可供調解器使用的安全受控通訊管道,因此 IO 需要手動為兩個區域之間的 Object Storage 調解器建立安全通訊。

  1. 在錨定區域的根管理員區域叢集和全域叢集中,將 叢集管理員預先定義角色授予自己。詳情請參閱 IAM 執行手冊

或者,您也可以在錨點區域中套用這兩個角色繫結:

在全域 API 中:

  apiVersion: rbac.authorization.k8s.io/v1
  kind: ClusterRoleBinding
  metadata:
    name: mz-admin-binding
  roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: ClusterRole
    name: mz-bootstrap-global-backend-controllers-role
  subjects:
  - apiGroup: rbac.authorization.k8s.io
    kind: User
    name: fop-cluster-admin@example.com

在根管理員叢集中:

  apiVersion: rbac.authorization.k8s.io/v1
  kind: ClusterRoleBinding
  metadata:
    name: cluster-admin-binding
  roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: ClusterRole
    name: cluster-admin
  subjects:
  - apiGroup: rbac.authorization.k8s.io
    kind: User
    name: fop-cluster-admin@example.com
  1. 在錨點區域中執行指令,取得 DNS 伺服器 IP,並記下以供稍後使用: sh kubectl --kubeconfig /ROOT_ADMIN_CLUSTER_KUBECONFIG_PATH get service gpc-coredns-external-udp -n dns-system -o jsonpath='{.status.loadBalancer.ingress[0].ip}'

  2. 設定加入區域的 DNS 存根解析程式,與錨點區域建立連結:

    1. 停用並停止 systemd-resolved sh systemctl disable systemd-resolved.service --now

    2. 刪除 resolv.conf 檔案 (如果存在) sh rm -f /etc/resolv.conf

    3. 將錨定區域的 DNS 伺服器 IP 寫入加入區域的 resolv.conf sh vim /etc/resolv.conf 範例 /etc/resolv.conf 檔案內容: sh nameserver 10.200.40.0

  3. 在加入的區域中建立 TokenRequest YAML 檔案。

    gdcloud system multi-zone create-token-request --zone JOINING_ZONE_NAME --client-type obj-join --cluster kind --namespace gpc-system --output-file TOKEN_REQUEST_YAML_PATH
    

    請將 JOINING_ZONE_NAME 替換為客戶填寫問卷中的區域名稱,如本節結尾的附註所述。

  4. 將 TokenRequest YAML 檔案轉移至錨點區域。

    scp TOKEN_REQUEST_YAML_PATH ANCHOR_ZONE_NODE_IP:TOKEN_REQUEST_YAML_PATH
    
  5. 將 TokenRequest YAML 套用至錨點可用區的根管理員全域叢集。

    kubectl --kubeconfig /GLOBAL_ROOT_ADMIN_CLUSTER_KUBECONFIG_PATH apply -f TOKEN_REQUEST_YAML_PATH
    
  6. 在錨點區域中建立權杖 YAML 檔案。

    gdcloud system multi-zone create-token --zone JOINING_ZONE_NAME --namespace gpc-system --output-file TOKEN_YAML_PATH
    
  7. 將權杖 YAML 檔案轉移至加入的區域。

    scp TOKEN_YAML_PATH JOINING_ZONE_BOOTSTRAP_NODE_IP:TOKEN_YAML_PATH
    
  8. 將 Token YAML 套用至加入區域的 KIND 叢集。

    kubectl --kubeconfig /KIND_CLUSTER_KUBECONFIG_PATH apply -f TOKEN_YAML_PATH
    
  9. 在錨點區域中建立 ObjectStorageBootstrap YAML 檔案。

    gdcloud system objectstorage create-bootstrap --output-file  OBJECT_STORAGE_BOOTSTRAP_YAML_PATH
    
  10. 將 ObjectStorageBootstrap YAML 檔案轉移至加入的區域。

    scp OBJECT_STORAGE_BOOTSTRAP_YAML_PATH JOINING_ZONE_BOOTSTRAP_NODE_IP:OBJECT_STORAGE_BOOTSTRAP_YAML_PATH
    
  11. 將 ObjectStorageBootstrap YAML 檔案套用至加入區域的 KIND 叢集。

    kubectl --kubeconfig /KIND_CLUSTER_KUBECONFIG_PATH apply -f OBJECT_STORAGE_BOOTSTRAP_YAML_PATH
    
  12. 在加入的區域中啟動物件儲存空間。

    gdcloud system objectstorage install --config /CELLCFG_PATH  --add-zone --enable-objectstorage-hsm -v 5