從 AWS 遷移至 Google Cloud:從 MySQL 適用的 Amazon RDS 和 Amazon Aurora 遷移至 MySQL 適用的 Cloud SQL

Last reviewed 2024-08-16 UTC

Google Cloud 提供工具、產品、指南和專業服務,協助您從 Amazon Relational Database Service (RDS) 或 Amazon Aurora 遷移至 MySQL 適用的 Cloud SQL。

本文適用於雲端和資料庫管理員,協助他們規劃、實作及驗證資料庫遷移專案。此外,這份指南也適合評估遷移機會的決策人員,可做為遷移作業的範例。

本文著重於同質資料庫遷移,也就是來源和目標資料庫使用相同資料庫技術的遷移作業。在本遷移指南中,來源是 MySQL 適用的 Amazon RDS 或 Amazon Aurora,目的地則是 MySQL 適用的 Cloud SQL。

本文是從 AWS 遷移至Google Cloud 系列文章的一部分,包含下列文件:

如要進行這項遷移作業,建議您按照「遷移至 Google Cloud:開始使用」一文所述的遷移架構操作。 Google Cloud

以下是遷移流程圖。

列出四個階段的遷移路徑。

您可能會從來源環境遷移至 Google Cloud ,並進行一系列的疊代作業,例如先遷移部分工作負載,再遷移其他工作負載。針對每個個別的遷移疊代作業,您會遵循一般遷移架構的階段:

  1. 評估及探索工作負載和資料。
  2. 規劃並奠定 Google Cloud的基礎。
  3. 將工作負載和資料遷移至 Google Cloud。
  4. 將 Google Cloud 環境調整至最佳狀態。

如要進一步瞭解這個架構的各個階段,請參閱「遷移至 Google Cloud:開始使用」。

為設計有效的遷移計畫,建議您驗證計畫的每個步驟,並確保您有復原策略。如要驗證遷移計畫,請參閱「遷移至 Google Cloud:驗證遷移計畫的最佳做法」。

評估來源環境

在評估階段,您會決定將來源環境遷移至 Google Cloud的需求和依附元件。

評估階段是您能否成功遷移的關鍵。您必須深入瞭解要遷移的工作負載、工作負載的要求和依附元件,以及您目前的環境。此外,您還必須知道要從何踏出第一步,以成功規劃並執行 Google Cloud遷移作業。

評估階段包含下列工作:

  1. 建立鉅細靡遺的工作負載清單。
  2. 根據工作負載的屬性和依附元件將工作負載編目。
  3. 訓練並教導您的團隊使用 Google Cloud。
  4. 在 Google Cloud上建立實驗和概念驗證。
  5. 計算目標環境的總持有成本 (TCO)。
  6. 為工作負載選擇遷移策略。
  7. 選擇遷移工具。
  8. 定義遷移計畫和時程。
  9. 驗證遷移計畫。

資料庫評估階段可協助您選擇目標 Cloud SQL 資料庫執行個體的大小和規格,以符合來源的類似效能需求。請特別留意磁碟大小和總處理量、IOPS,以及 vCPU 數量。如果目標資料庫執行個體大小不正確,遷移作業可能會遇到困難或失敗。如果大小設定不正確,可能會導致遷移時間過長、資料庫效能問題、資料庫錯誤和應用程式效能問題。決定 Cloud SQL 執行個體時,請注意磁碟效能取決於磁碟大小和 vCPU 數量。

以下各節內容以「遷移至 Google Cloud:評估及探索工作負載」為基礎,並整合該文件中的資訊。

建立 Amazon RDS 或 Amazon Aurora 執行個體清單

如要定義遷移範圍,請建立清單並收集 Amazon RDS 或 Amazon Aurora 執行個體的相關資訊。建議您使用專用工具自動執行這項程序,因為手動方法容易出錯,可能導致錯誤的假設。

Amazon RDS 或 Amazon Aurora 和 Cloud SQL 可能沒有類似的功能、執行個體規格或作業。部分功能可能以不同方式實作,或無法使用。差異可能包括基礎架構、儲存空間、驗證和安全性、複製、備份、高可用性、資源容量模型,以及特定資料庫引擎功能整合和擴充功能。資料庫參數設定的預設值也可能因資料庫引擎類型、執行個體大小和架構而異。

基準化有助於您進一步瞭解要遷移的工作負載,並定義遷移目標環境的合適架構。收集效能相關資訊有助於估算 Google Cloud 目標環境的效能需求。基準化概念和工具詳見遷移程序的「執行測試和驗證」階段,但這些概念和工具也適用於建立目錄階段。

評估工具

如要初步評估目前的基礎架構,建議您使用 Google Cloud 遷移中心,以及 migVisor 和資料庫遷移評估工具 (DMA) 等其他專業資料庫評估工具。

您可以使用 Migration Center 全面評估應用程式和資料庫環境,包括資料庫遷移至 Google Cloud的技術適用性。您會收到各來源資料庫的大小和設定建議,並為伺服器和資料庫建立總持有成本 (TCO) 報告。

如要進一步瞭解如何使用 Migration Center 評估 AWS 環境,請參閱「從其他雲端服務供應商匯入資料」。

除了遷移中心,您也可以使用 migVisor 這項專用工具。migVisor 支援各種資料庫引擎,特別適合用於異質遷移。如需 migVisor 的簡介,請參閱「migVisor 總覽」。

migVisor 可以找出可能導致遷移作業預設的構件和不相容的專有資料庫功能,並提供解決方法。migVisor 也能建議目標 Google Cloud 解決方案,包括初始大小和架構。

migVisor 資料庫評估輸出內容會提供下列資訊:

  • 全面探索及分析目前的資料庫部署項目。
  • 詳細的遷移複雜度報告,根據資料庫使用的專屬功能而定。
  • 財務報告,詳細說明遷移後節省的成本、遷移成本和新的營運預算。
  • 分階段遷移計畫,可將資料庫和相關聯的應用程式移至雲端,並盡可能避免造成營運中斷。

如要查看評估輸出內容範例,請參閱「migVisor - Cloud migration assessment tool」(migVisor - 雲端遷移評估工具)。

請注意,migVisor 會暫時提高資料庫伺服器的使用率。 通常額外負載量不到 3%,且可在非尖峰時段執行。

migVisor 評估輸出內容有助於建立完整的 RDS 執行個體清單。這份報告包含一般屬性 (資料庫引擎版本和版本、CPU 和記憶體大小),以及資料庫拓撲、備份政策、參數設定和使用的特殊自訂項目詳細資料。

如果偏好使用開放原始碼工具,可以搭配 (或取代) 上述工具使用資料收集器指令碼。這些指令碼可協助您收集詳細資訊 (關於工作負載、功能、資料庫物件和資料庫程式碼),並建構資料庫清單。此外,指令碼通常會提供詳細的資料庫遷移評估,包括遷移工作量估算。

建議使用 Google 工程師建構的開放原始碼工具 DMA。這項工具可提供完整且準確的資料庫評估結果,包括使用的功能、資料庫邏輯和資料庫物件 (包括結構定義、資料表、檢視區塊、函式、觸發程序和預存程序)。

如要使用 DMA,請從 Git 存放區下載資料庫引擎的收集指令碼,然後按照操作說明執行。將輸出檔案傳送給 Google Cloud 進行分析。 Google Cloud 會建立並提供資料庫評估讀數,以及遷移過程的後續步驟。

找出並記錄遷移範圍和可負擔的停機時間

在這個階段,您會記錄影響遷移策略和工具的重要資訊。到目前為止,您應該可以回答下列問題:

  • 您的資料庫是否大於 5 TB?
  • 資料庫中是否有任何大型資料表?是否大於 16 TB?
  • 資料庫位於哪些位置 (區域和可用區),以及與應用程式的距離有多近?
  • 資料變更頻率為何?
  • 您的資料一致性模型為何?
  • 目的地資料庫有哪些選項?
  • 來源和目的地資料庫的相容性如何?
  • 資料是否需要存放在特定實體位置?
  • 是否有可壓縮及封存的資料,或完全不需要遷移的資料?

如要定義遷移範圍,請決定要保留哪些資料,以及要遷移哪些資料。遷移所有資料庫可能需要相當長的時間和精力。部分資料可能仍會保留在來源資料庫備份中。舉例來說,您可能不需要舊的記錄資料表或封存資料。或者,您也可以視策略和工具而定,在遷移程序完成後再移動資料。

建立資料遷移基準,有助於比較及評估結果和影響。這些基準是參考點,代表遷移前後的資料狀態,可協助您做出決策。請務必在來源環境中進行評估,以評估資料遷移是否成功。這類評估包括:

  • 資料的大小和結構。
  • 資料的完整性和一致性。
  • 最重要的業務交易和程序持續時間和成效。

決定可接受的停機時間長度。停機對業務有什麼影響?資料庫活動是否較少,因此受停機影響的使用者較少?如果是,這類期間有多長?何時會發生?考慮只讓寫入作業部分停機,同時繼續處理唯讀要求。

評估部署和管理程序

建立清單後,請評估資料庫的作業和部署程序,判斷如何調整這些程序,以利遷移作業。這些程序是準備及維護實際工作環境的基礎。

請考慮如何完成下列工作:

  • 為執行個體定義及強制執行安全性政策:舉例來說,您可能需要取代 Amazon 安全性群組。您可以使用 Google IAM 角色、VPC 防火牆規則和 VPC Service Controls,控管 Cloud SQL 執行個體的存取權,並將資料限制在虛擬私有雲內。

  • 修補及設定執行個體:您可能需要更新現有的部署工具。舉例來說,您可能會在 Amazon 參數群組或 Amazon 選項群組中使用自訂設定。您可能需要調整佈建工具,才能使用 Google Cloud Storage 或 Secret Manager 讀取這類自訂設定清單。

  • 管理監控和快訊基礎架構:Amazon 來源資料庫執行個體的指標類別可在遷移程序中提供可觀測性。指標類別可能包括 Amazon CloudWatch、Performance Insights、Enhanced Monitoring 和 OS 程序清單。

完成評估

從 Amazon RDS 或 Amazon Aurora 環境建構清單後,請按照「遷移至 Google Cloud:評估及探索工作負載」一文所述,完成評估階段的其餘活動。

規劃及建立基礎

在規劃和建構階段,您會佈建及設定基礎架構,以執行下列操作:

  • 滿足環境中的工作負載需求。 Google Cloud
  • 連線來源環境和 Google Cloud 環境,完成遷移作業。

規劃和建構階段包含下列工作:

  1. 建立資源階層。
  2. 設定 Google Cloud身分與存取權管理 (IAM)。
  3. 設定帳單資訊。
  4. 設定網路連線。
  5. 強化安全性。
  6. 設定記錄、監控和快訊功能。

如要進一步瞭解各項工作,請參閱「遷移至 Google Cloud:規劃及建構基礎」。

如果您打算使用資料庫移轉服務進行遷移,請參閱「MySQL 的網路方法」,瞭解遷移情境適用的網路設定。

監控與快訊

使用 Google Cloud Monitoring,其中包含多項 Google Cloud 產品的預先定義資訊主頁,包括 Cloud SQL 監控資訊主頁。或者,您也可以考慮使用與Google Cloud整合的第三方監控解決方案,例如 Datadog 和 Splunk。詳情請參閱「關於資料庫可觀測性」。

將 Amazon RDS 和 Amazon Aurora for MySQL 執行個體遷移至 MySQL 適用的 Cloud SQL

如要遷移執行個體,請執行下列步驟:

  1. 選擇遷移策略:持續複製或排定維護時間。

  2. 根據所選策略和需求,選擇合適的遷移工具。

  3. 為每項資料庫遷移作業定義遷移計畫和時間表,包括準備和執行工作。

  4. 定義必須完成的準備工作,確保遷移工具正常運作。

  5. 定義執行工作,包括實作遷移作業的工作活動。

  6. 為每個執行工作定義備援情境。

  7. 執行測試和驗證,這項作業可以在獨立的暫存環境中進行。

  8. 執行遷移作業。

  9. 執行正式環境轉換。

  10. 清除來源環境並設定目標執行個體。

  11. 進行調整和最佳化。

以下各節將說明每個階段。

選擇遷移策略

在這個步驟中,您已掌握足夠資訊,可以評估並選取下列其中一種遷移策略,為每個資料庫選擇最適合的策略:

  • 定期維護 (也稱為一次性遷移或大爆炸遷移): 如果您可以承受停機時間,這個方法是理想的選擇。這個選項的成本和複雜度相對較低,因為您的工作負載和服務不需要大量重構。不過,如果遷移作業在完成前失敗,您就必須重新啟動程序,這會延長停機時間。
  • 持續複製 (也稱為線上遷移或涓滴遷移): 對於關鍵任務資料庫,這個選項可降低資料遺失風險,並將停機時間降到接近零。這項作業會分成多個區塊,因此如果發生失敗,復原和重複作業所需的時間較少。不過,設定程序較為複雜,需要更多規劃和時間。您也必須花費額外心力,重構連線至資料庫執行個體的應用程式。請考慮採用下列任一變體:

    • 使用「Y (寫入及讀取)」方法 (平行遷移的一種形式),在遷移期間複製來源和目的地執行個體中的資料。
    • 使用資料存取微服務,減少 Y (寫入及讀取) 方法所需的重構工作量。

如要進一步瞭解資料遷移策略,請參閱「評估資料遷移方法」。

下圖顯示的流程圖,是根據您在決定單一資料庫的遷移策略時,可能會遇到的問題而繪製:

流程圖:協助您選擇遷移策略。

上方的流程圖顯示下列決策點:

  • 您是否能承受任何停機時間?

    • 如果不是,請採用持續複製遷移策略。
    • 如果是,請繼續下一個決策點。
  • 您是否能承受遷移資料時的轉換空窗期停機時間?轉換時間範圍是指備份資料庫、將資料庫轉移至 Cloud SQL、還原資料庫,然後切換應用程式所需的時間。

    • 如果不是,請採用持續複製遷移策略。
    • 如果是,請採用排定維護時間的遷移策略。

即使資料庫位於相同執行個體,策略也可能有所不同。混合使用多種策略可獲得最佳成效。舉例來說,您可以透過排定的維護作業遷移小型且不常使用的資料庫,但對於停機成本高昂的重要資料庫,則應使用持續複製功能。

通常,當初始來源執行個體和目標執行個體之間發生切換時,遷移作業即視為完成。系統會停止所有複製作業 (如有),並在目標執行個體上執行所有讀寫作業。如果兩個執行個體都已同步,切換時就不會遺失資料,停機時間也會縮到最短。

如要進一步瞭解資料遷移策略和部署作業,請參閱「資料庫遷移作業分類」。

如要設定遷移作業,確保應用程式不會停機,需要較為複雜的設定。在設定複雜度與停機時間之間取得適當平衡,並在業務量較少的時段安排停機。

每種遷移策略都有其優缺點,且都會對遷移程序造成影響。舉例來說,複製程序會對來源執行個體造成額外負載,而應用程式可能會受到複製延遲的影響。應用程式 (和客戶) 可能必須等待應用程式停機,至少要等到複製延遲結束,才能使用新的資料庫。實務上,下列因素可能會增加停機時間:

  • 資料庫查詢作業可能需要幾秒鐘才能完成。遷移期間,進行中的查詢可能會中止。
  • 如果資料庫很大或緩衝區記憶體容量很大,快取可能需要一段時間才能填滿。
  • 在來源中停止並在 Google Cloud中重新啟動的應用程式,可能會有短暫延遲,直到與 Google Cloud資料庫執行個體的連線建立為止。
  • 應用程式的網路路徑必須重新導向。視 DNS 項目設定方式而定,這項作業可能需要一段時間。更新 DNS 記錄時,請先縮短遷移前的 TTL。

下列常見做法有助於盡量縮短停機時間並降低影響:

  • 找出停機對工作負載影響最小的時間段。例如在正常工作時間外、週末或排定的其他維護期間。
  • 找出工作負載中可在不同階段進行遷移和生產轉換的部分。您的應用程式可能含有不同的元件,這些元件可以獨立出來、調整及遷移,不會造成任何影響。例如前端、CRM 模組、後端服務和報表平台。這類模組可能有自己的資料庫,可排定在程序中較早或較晚的時間遷移。
  • 如果目標資料庫可以容許一些延遲,請考慮逐步遷移。使用增量批次資料移轉,並調整部分工作負載,以處理目標執行個體上的過時資料。
  • 請考慮重構應用程式,以盡量減少遷移作業的影響。舉例來說,您可以調整應用程式,同時寫入來源和目標資料庫,進而實作應用程式層級的複製作業。

選擇遷移工具

選擇合適的遷移工具,是遷移作業能否成功的關鍵。決定遷移策略後,請審查並決定要使用的遷移工具。

我們提供許多工具,每種工具都針對特定遷移用途進行最佳化。用途包括:

  • 遷移策略 (排定維護時間或持續複製)。
  • 來源和目標資料庫引擎與引擎版本。
  • 來源執行個體和目標執行個體所在的環境。
  • 資料庫大小。資料庫越大,遷移初始備份所需的時間就越長。
  • 資料庫變更頻率。
  • 可使用代管服務進行遷移。

為確保遷移和轉換作業順利進行,您可以運用應用程式部署模式、基礎架構協調和自訂遷移應用程式。不過,您可以運用稱為代管遷移服務的專用工具,簡化資料、應用程式,甚至是整個基礎架構從一個環境遷移至另一個環境的程序。這些作業會從來源資料庫擷取資料、安全地將資料傳輸至目標資料庫,並可選擇在傳輸期間修改資料。這些功能封裝了複雜的遷移邏輯,並提供遷移監控功能。

代管遷移服務具有下列優點:

  • 將停機時間減至最低:服務會盡可能使用資料庫引擎的內建複製功能,並執行副本升級。

  • 確保資料完整性和安全性:資料會安全且可靠地從來源資料庫移轉至目的地資料庫。

  • 提供一致的遷移體驗:使用資料庫遷移可執行檔,即可將不同的遷移技術和模式整合到一致的通用介面,方便您管理及監控。

  • 提供經過驗證的彈性遷移模型:資料庫遷移不常發生,但卻是重要事件。為避免新手常犯的錯誤,以及現有解決方案的問題,建議您使用經驗豐富的專家提供的工具,而非自行建構自訂解決方案。

  • 節省成本:相較於為自訂遷移解決方案佈建額外伺服器和資源,代管遷移服務的成本效益更高。

接下來的章節會說明遷移工具建議,這些建議取決於所選的遷移策略。

排定維護遷移作業的工具

下圖顯示流程圖,其中列出一些問題,可協助您在使用排定維護時間的遷移策略時,為單一資料庫選擇遷移工具:

流程圖:協助您選擇排定維護作業遷移的工具。

上方的流程圖顯示下列決策點:

  • 您是否偏好代管遷移服務?
    • 如果是,建議您使用 Database Migration Service
    • 如果沒有,建議您使用資料庫引擎內建的備份功能進行遷移。

使用代管遷移服務有幾項優點,詳情請參閱本文的「選擇遷移工具」一節。

以下小節將說明可用於一次性遷移的工具,以及這些工具的限制和最佳做法。

適用於排定維護作業遷移的資料庫移轉服務

資料庫移轉服務會管理初始同步和持續變更資料擷取 (CDC) 複製作業,並提供移轉作業的狀態。

使用資料庫移轉服務,您可以建立、管理及驗證移轉工作。建議您使用資料庫移轉服務,因為這項服務支援透過一次性移轉作業遷移至 MySQL 適用的 Cloud SQL。如果是大型資料庫,您可以在資料庫移轉服務中使用資料傾印平行處理

如要進一步瞭解資料庫遷移架構和資料庫移轉服務,請參閱「使用資料庫移轉服務將資料庫遷移至 MySQL 適用的 Cloud SQL」和「MySQL 遷移保真度」。

如要進一步瞭解資料庫移轉服務的限制和必要條件,請參閱下列文章:

內建資料庫引擎備份

如果可以接受長時間停機,且來源資料庫相對靜態,您可以使用資料庫引擎的內建傾印和載入功能 (有時也稱為備份和還原)。

設定和同步作業需要花費一些心力,尤其是資料庫數量龐大時,但資料庫引擎備份通常隨時可用,且使用方式簡單明瞭。

資料庫引擎備份有下列一般限制:

  • 備份作業容易出錯,尤其是手動備份時。
  • 如果備份作業管理不當,資料就會不安全。
  • 備份缺少適當的監控功能。
  • 如果使用這項工具遷移大量資料庫,可能需要投入大量心力來擴大規模。

如果選擇這個做法,請注意下列限制和最佳做法:

  • 如果資料庫相對較小 (小於 10 GB),建議使用 mysqldump。沒有固定限制,但 mysqldump 的理想資料庫大小通常小於 10 GB。
  • 如果匯入的資料庫大於 10 GB,您可能需要採取其他策略,盡量縮短資料庫停機時間。以下列舉部分策略:

    • 分段匯出結構定義和資料,不使用次要鍵。
    • 善用時間戳記。如果任何資料表使用時間戳記資料欄,則可使用 mysqldump 指令的功能來指定 WHERE 子句,依時間戳記資料欄篩選。
    • 請考慮使用其他方法,例如 mydumpermyloader 工具。

資料庫傾印和備份通常不包含 MySQL 使用者帳戶。準備遷移時,請檢查來源執行個體中的所有使用者帳戶。舉例來說,您可以對每位使用者執行 SHOW GRANTS 指令,檢查現有的權限組合,並查看在 Cloud SQL 中是否有任何限制。此外,Percona 提供的 pt-show-grants 工具也可以列出授權內容。

遷移具有 DEFINER 屬性的資料庫物件時,Cloud SQL 的使用者權限限制可能會影響遷移作業。舉例來說,預存程序可能具有超級權限定義者,以便執行 SQL 指令,例如變更全域變數,但 Cloud SQL 不允許這項操作。在這種情況下,您可能需要重新編寫預存程序程式碼,或在其他遷移步驟中分別遷移預存程序這類非資料表物件。詳情請參閱匯入及匯出資料的最佳做法

如要進一步瞭解限制和最佳做法,請參閱下列文章:

排程維護遷移作業的其他方法

使用代管匯入功能設定從外部 MySQL 資料庫的複製作業時,系統會先將外部資料庫的資料載入 Cloud SQL 執行個體。這個方法會使用服務從外部伺服器 (本例中為 RDS 執行個體) 擷取資料,並直接匯入 Cloud SQL 執行個體。

如果是大型資料庫 (數 TB),建議使用自訂匯入初始載入,並搭配 mydumpermyloader 工具,這樣速度會比較快。

您可以考慮將 MySQL 資料庫中的表格匯出為 CSV 檔案,然後匯入 MySQL 適用的 Cloud SQL。如要從 RDS 執行個體匯出資料,可以使用 AWS Database Migration Service (AWS DMS) 和 S3 值區做為目標。

如需詳細資訊和步驟,請參閱「使用代管匯入功能來設定從外部資料庫的複製作業」。

持續複製遷移作業工具

下圖顯示流程圖,其中包含一些問題,可協助您在使用持續複製遷移策略時,為單一資料庫選擇遷移工具:

流程圖:協助您選擇持續複製遷移作業的工具。

上方的流程圖顯示下列決策點:

  • 您是否偏好使用代管遷移服務?

    • 如果是,您是否能接受幾秒的寫入停機時間 (視資料庫中的表格數量而定)?

      • 如果是,請使用資料庫移轉服務。
      • 如果不是,請探索其他遷移選項。
    • 如果不是,請評估是否支援資料庫引擎內建的複寫功能:

      • 如果是,建議使用內建的複製功能。
      • 如果沒有,建議您考慮其他遷移選項。

以下各節說明可用於持續遷移的工具,以及這些工具的限制和最佳做法。

資料庫移轉服務,適用於持續複製移轉

資料庫遷移服務可透過持續遷移工作類型,順暢支援持續遷移。只有持續遷移工作可以升級,這會發出停止複製的信號。

如果選擇使用這項工具,請注意下列限制和最佳做法:

  • 遷移期間請避免長時間執行的交易。在這種情況下,如果您不是從 AWS Aurora 遷移,建議從讀取副本遷移。
  • 如需完整限制清單,請參閱「已知限制」。

資料庫引擎內建複製功能

資料庫引擎內建的複製功能是資料庫移轉服務的替代方案,可進行持續遷移。

資料庫複寫是指將資料從主要資料庫複製並分配到其他資料庫 (稱為副本) 的程序。這項功能旨在提高資料存取能力,並提升資料庫系統的容錯能力和可靠性。雖然資料庫複製作業的主要用途並非資料庫遷移,但仍可做為達成此目標的工具。資料庫複製通常是持續進行的程序,當主要資料庫中插入、更新或刪除資料時,系統會即時執行這項程序。您可以一次完成,也可以分批進行。

大多數現代資料庫引擎都會實作不同的資料庫複製方式。其中一種複製方式是將主要執行個體的預先寫入記錄或交易記錄複製並傳送至備用資源。這種做法稱為實體或二進位複製。其他複製類型會發布主要資料庫收到的原始 SQL 陳述式,而不是複製檔案系統層級的變更。

Cloud SQL 支援 MySQL 的複製功能。不過,這項功能有一些先決條件和限制。

需求條件:

  • 請確認您在 Amazon RDS 或 Amazon Aurora 執行個體上使用 MySQL 5.5、5.6、5.7 或 8.0。
  • 確認已啟用二進位記錄。
  • 如要加快初始完整傾印階段的速度,請從 CPU 和記憶體大小的角度,選擇足夠大的機器層級。
  • 如要加快 CDC 階段的速度,可以嘗試設定平行複製,並啟用高效能排清
  • 如果 Cloud SQL 副本已啟用內部 IP 位址,但輸出 IP 位址不是靜態,請設定 Amazon RDS 或 Amazon Aurora 伺服器的防火牆,允許為虛擬私有雲端網路的私人服務存取權分配的內部 IP 範圍,Cloud SQL 副本會將該範圍做為私人網路。詳情請參閱「關於從外部伺服器複製」和「設定私人服務存取權」。

限制:

  • 如果資料庫中有多個大型資料表和許多次要索引,初始完整傾印作業可能需要較長時間。
  • 如果外部伺服器包含 DEFINER 子句 (檢視區塊、事件、觸發程序或預存程序),視這些陳述式執行的順序而定,複製作業可能會失敗。進一步瞭解 Cloud SQL 中的DEFINER 使用情形和可能的解決方法。
  • Cloud SQL 僅支援 InnoDB 資料庫引擎。遷移 MyISAM 可能會導致資料不一致,因此需要驗證資料。 請參閱「將資料表從 MyISAM 轉換為 InnoDB」。

持續複製遷移作業的其他方法

其他持續複製遷移作業方法包括:

  • 重構應用程式以執行 Y (寫入及讀取),或使用資料存取微服務

    • 持續複製作業是由應用程式執行。
    • 遷移作業的重點是重構或開發可連線至資料庫執行個體的工具。
    • 然後,逐步重構及部署 Reader 應用程式,以使用目標執行個體。
  • 使用 Datastream 複製 MySQL 執行個體的近乎即時變更。

    • Datastream 是無伺服器的 CDC 和複製服務,可與 Amazon RDS 或 Amazon Aurora 搭配使用,複製及同步處理資料。
    • 使用 Datastream 將 MySQL 執行個體的變更複製到 BigQuery 或 Cloud Storage,然後使用 Dataflow 或 Dataproc 將資料匯入 Cloud SQL 執行個體。

如要進一步瞭解如何使用 Datastream 進行複製,請參閱下列文章:

用於持續複製遷移作業的第三方工具

在某些情況下,最好使用一個第三方工具來處理大多數資料庫引擎。舉例來說,如果您偏好使用受管理遷移服務,且需要確保目標資料庫一律與來源近乎即時同步,或是需要在遷移過程中進行更複雜的轉換 (例如資料清理、重組和調整),就可能需要使用這種服務。

如果您決定使用第三方工具,請選擇下列建議,這些工具適用於大多數資料庫引擎。

Striim 是端對端的記憶體內平台,可即時收集、篩選、轉換、擴充、匯總、分析及傳送資料:

  • 優點:

    • 處理大量資料和複雜的遷移作業。
    • 內建 SQL Server 變更資料擷取功能。
    • 預先設定的連線範本和無程式碼管道。
    • 可處理在大量交易負載下運作的大型關鍵任務資料庫。
    • 僅傳送一次。
  • 缺點:

如要進一步瞭解 Striim,請參閱「在 Google Cloud中執行 Striim」。

Debezium 是開放原始碼的 CDC 分散式平台,可將資料變更串流至外部訂閱者:

  • 優點:

    • 開放原始碼。
    • 強大的社群支援。
    • 符合成本效益。
    • 精細控管資料列、資料表或資料庫。
    • 專門用於從資料庫交易記錄即時擷取變更。
  • 缺點:

    • 需要具備 Kafka 和 ZooKeeper 的相關經驗。
    • 至少傳送一次資料變更,因此您需要處理重複資料。
    • 使用 Grafana 和 Prometheus 手動設定監控。
    • 不支援漸進式批次複製。

如要進一步瞭解 Debezium 遷移作業,請參閱「使用 Debezium 近乎即時地複製資料」。

Fivetran 是自動化資料遷移平台,可將資料移出雲端資料平台,或在不同平台間遷移資料。

  • 優點:

    • 預先設定的連線範本和無程式碼管道。
    • 將來源的任何結構定義變更傳播至目標資料庫。
    • 資料變更只會傳送一次,因此您不需要處理重複資料。
  • 缺點:

    • 非開放原始碼。
    • 支援複雜資料轉換的程度有限。

制定遷移計畫和時程

為確保資料庫遷移作業和正式環境切換順利完成,建議您準備明確且完整的遷移計畫。為盡量減少對業務的影響,建議您列出所有必要的工作項目。

定義遷移範圍可找出您在資料庫遷移程序前後必須執行的工作。舉例來說,如果您決定不遷移資料庫中的特定資料表,可能需要執行遷移前或遷移後工作,才能實作這項篩選作業。此外,您也要確保資料庫遷移作業不會影響現有的服務水準協議 (SLA) 和業務持續性計畫。

建議您在遷移規劃文件中加入下列文件:

  • 技術設計文件 (TDD)
  • RACI 矩陣
  • 時間軸 (例如 T-Minus 計畫)

資料庫遷移是疊代程序,第一次遷移通常會比後續遷移慢。通常,妥善規劃的遷移作業不會發生問題,但仍可能出現未預期的問題。建議您一律制定回溯計畫。建議您按照「遷移至 Google Cloud:驗證遷移計畫的最佳做法」的指引操作。

TDD

TDD 文件會記錄專案的所有技術決策,請在 TDD 中加入下列項目:

  • 業務需求和重要性
  • 復原時間目標 (RTO)
  • 復原點目標 (RPO)
  • 資料庫遷移詳細資料
  • 遷移工作預估
  • 遷移驗證建議

RACI 矩陣

部分遷移專案需要 RACI 矩陣,這是常見的專案管理文件,用於定義哪些個人或群組負責遷移專案中的工作和交付項目。

時間軸

為每個需要遷移的資料庫準備時間表。包括所有必須執行的工作,以及定義的開始日期和預估結束日期。

建議您為每個遷移環境建立 T-minus 計畫。T-minus 計畫會以倒數時間表的形式呈現,列出完成遷移專案所需的所有工作,以及負責的群組和預估時間。

時間表不僅要包含遷移前準備工作,也要納入資料轉移後進行的驗證、稽核或測試工作。

遷移作業的持續時間通常取決於資料庫大小,但也要考慮其他方面,例如商業邏輯複雜度、應用程式使用情形和團隊可用性。

T-Minus 計畫可能如下所示:

日期 階段 類別 Tasks 角色 倒數 狀態
2023 年 11 月 1 日 遷移前 評估 建立評估報告 探索團隊 -21 完成
2023 年 11 月 7 日 遷移前 目標準備 按照設計文件說明設計目標環境 遷移團隊 -14 完成
2023 年 11 月 15 日 遷移前 公司管理 遷移日期和 T-Minus 核准 主管階層 -6 完成
2023 年 11 月 18 日 遷移 設定 DMS 建立連線設定檔 雲端遷移工程師 -3 完成
2023 年 11 月 19 日 遷移 設定 DMS 建立及啟動遷移工作 雲端遷移工程師 -2 尚未開始
2023 年 11 月 19 日 遷移 監控 DMS 監控來源執行個體中的 DMS 工作和 DDL 變更 雲端遷移工程師 -2 尚未開始
2023 年 11 月 21 日 遷移 Cutover DMS 升級 DMS 副本 雲端遷移工程師 0 尚未開始
2023 年 11 月 21 日 遷移 遷移驗證 資料庫遷移驗證 遷移團隊 0 尚未開始
2023 年 11 月 21 日 遷移 應用程式測試 執行功能和效能測試 遷移團隊 0 尚未開始
2023/11/22 遷移 公司管理 遷移驗證 GO 或 NO GO 遷移團隊 1 尚未開始
2023/11/23 遷移後 驗證監控功能 設定監控作業 基礎架構團隊 2 尚未開始
2023/11/25 遷移後 安全性 移除 DMS 使用者帳戶 安全團隊 4 尚未開始

多個資料庫遷移作業

如果您有多個資料庫要遷移,遷移計畫應包含所有遷移作業的任務。

建議您先遷移較小的資料庫 (最好是與任務無關的資料庫),這個方法有助於您在遷移程序和工具方面建立知識和信心。您也可以在整體遷移時間表的早期階段,偵測程序中的任何瑕疵。

如果要遷移多個資料庫,時間軸可以平行化。 舉例來說,如要加快遷移程序,您可以選擇同時遷移一組小型、靜態或較不重要的資料庫,如下圖所示。

平行處理資料庫遷移工作。

如圖所示,資料庫 1 到 4 是一組小型資料庫,會同時遷移。

定義準備工作

準備工作是指您必須完成的所有活動,以滿足遷移作業的先決條件。如果沒有完成準備工作,遷移作業就無法進行,或遷移後的資料庫會處於無法使用的狀態。

準備工作可分為下列類別:

  • Amazon RDS 或 Amazon Aurora 執行個體準備工作和必要條件
  • 準備來源資料庫和必要條件
  • Cloud SQL 設定
  • 遷移作業專屬設定

準備 Amazon RDS 或 Amazon Aurora 執行個體,並符合必要條件

請參考下列常見的設定和必要工作:

  • 視遷移路徑而定,您可能需要在 RDS 執行個體上允許遠端連線。如果 RDS 執行個體在 VPC 中設為私有,Amazon 和 Google Cloud之間必須存在私有 RFC 1918 連線。
  • 您可能需要設定新的安全性群組,允許在必要通訊埠上建立遠端連線。

    • 根據預設,AWS 會為資料庫執行個體關閉網路存取權。
    • 您可以在安全性群組中指定規則,允許來自 IP 位址範圍、通訊埠或安全性群組的存取要求。與該安全性群組相關聯的所有資料庫執行個體,都適用相同規則。
  • 請確認您有足夠的可用磁碟空間,可在 Amazon RDS 執行個體上緩衝處理完整載入作業期間的 WAL 記錄。

  • 為獲得最佳遷移結果,建議從唯讀副本遷移,但從 Amazon Aurora 遷移時除外。此外,建議您在資料庫活動減少的期間開始遷移程序。

  • MySQL 將主機名稱限制為 60 個字元。Amazon RDS 資料庫主機名稱通常超過 60 個字元。如果遷移的資料庫屬於這種情況,請設定 DNS 重新導向,建立 CNAME 記錄,將網域名稱與 RDS 資料庫執行個體的網域名稱建立關聯。

  • 如果您使用內建複寫功能,必須設定 Amazon RDS 或 Amazon Aurora 執行個體以進行複寫。內建複製功能或使用該功能的工具,需要將 MySQL 的二進位記錄設為 ROW

  • 如果您使用第三方工具,通常需要預先設定和配置,才能使用該工具。請參閱第三方工具的說明文件。

如要進一步瞭解執行個體準備作業和必要條件,請參閱設定外部伺服器以進行 MySQL 複製作業

準備來源資料庫和必要條件

  • 如果您選擇使用資料庫移轉服務,必須先設定來源資料庫,才能連線。請先檢查遷移工作,再實作這些工作。詳情請參閱「設定 MySQL 的來源」。
  • 視資料庫引擎而定,你可能需要變更特定功能。舉例來說,MySQL 適用的 Cloud SQL 只支援 InnoDB 資料庫引擎。您需要將 MyISAM 資料表變更為 InnoDB。
  • 部分第三方遷移工具會要求所有 LOB 欄位都可為空值。遷移期間,所有 LOB 欄都必須移除 NOT NULL 限制。
  • 在實際工作環境中,對來源環境進行基準測量。 請考量下列事項:

    • 評估資料大小和工作負載效能。重要查詢或交易平均需要多少時間?尖峰時段的等待時間有多長?
    • 記錄基準測量結果,以供日後比較,協助您判斷資料庫遷移的準確度是否令人滿意。決定是否可以切換生產工作負載並停用來源環境,或是否仍需保留來源環境以供備援。

Cloud SQL 設定

請仔細選擇目標 Cloud SQL for MySQL 資料庫執行個體的大小和規格,確保與來源相符,以滿足類似的效能需求。請特別注意磁碟大小和總處理量、IOPS,以及 vCPU 數量。如果大小設定不正確,可能會導致遷移時間過長、資料庫效能問題、資料庫錯誤和應用程式效能問題。

建立 Cloud SQL 執行個體前,請務必確認下列屬性和需求條件,因為之後如要變更,就必須重新建立執行個體。

  • 請謹慎選擇目標 Cloud SQL 執行個體的專案和區域。Cloud SQL 執行個體無法在 Google Cloud 專案和區域之間遷移,必須先轉移資料。
  • 遷移至 Cloud SQL 上相符的主要版本,舉例來說,如果來源在 Amazon RDS 或 Amazon Aurora 上使用 MySQL 8.0.34,您應該遷移至 MySQL 適用的 Cloud SQL 8.0.34 版。
  • 如果您使用內建資料庫引擎備份或資料庫遷移服務,請另外複製使用者資訊。Cloud SQL 會使用 Google IAM 管理使用者。詳情請參閱「內建資料庫引擎備份」一節的限制。
  • 檢查資料庫引擎設定標記,並比較來源和目標執行個體的值。請務必瞭解這些設定的影響,以及是否需要相同。舉例來說,建議您在遷移前先在來源資料庫上執行 SHOW VARIABLES 指令,然後在 Cloud SQL 資料庫上再次執行該指令。視需要在 Cloud SQL 資料庫上更新旗標設定,以複製來源設定。請注意,Cloud SQL 執行個體不允許使用所有 MySQL 旗標。

如要進一步瞭解如何設定 Cloud SQL,請參閱下列文章:

遷移作業專屬設定

如果將 SQL 傾印檔案匯入 Cloud SQL,可能需要建立 Cloud Storage 值區。這個 bucket 會儲存資料庫傾印。

如果您使用複製功能,請務必確保 Cloud SQL 備用資源可存取主要資料庫。您可以透過文件中記載的連線選項達成這項存取權。

視情況和嚴重程度而定,您可能需要實作備援情境,通常包括反轉複製方向。在這種情況下,您可能需要從 Cloud SQL 複製回來源 Amazon 執行個體。

使用大多數第三方工具時,您需要佈建遷移專用資源。舉例來說,如要使用 Striim,您必須先透過 Google Cloud Marketplace 啟動。 接著,如要在 Striim 中設定遷移環境,可以使用 Flow Designer 建立及變更應用程式,也可以選取預先建立的範本。您也可以使用 Tungsten 查詢語言 (TQL) 程式設計語言編寫應用程式。透過資料驗證資訊主頁,您可以取得 Striim 應用程式處理資料的視覺化呈現方式。

遷移完成並通過驗證後,即可停用連結 Amazon 和Google Cloud 環境的資源。

如要瞭解詳情,請參考下列資源:

定義執行工作

執行工作會實作遷移作業本身。如以下小節所述,具體工作取決於您選擇的遷移工具。

內建資料庫引擎備份

如要執行一次性遷移作業,請使用 mysqldump 公用程式建立備份,將資料從 Amazon RDS 複製到本機用戶端電腦。如需操作說明,請參閱「將 SQL 傾印檔案匯入 Cloud SQL for MySQL」。

您可以查看 Cloud SQL 執行個體的匯入和匯出作業狀態

資料庫遷移服務遷移工作

在資料庫遷移服務中定義及設定遷移工作,將資料從來源執行個體遷移至目的地資料庫。遷移工作會透過使用者定義的連線設定檔,連線至來源資料庫執行個體。

測試所有必要條件,確保工作能順利執行。選擇工作負載可容許短暫停機的時間,以便進行遷移和正式環境轉換。

在資料庫移轉服務中,遷移作業會先進行初始完整備份和載入,接著持續將來源的變更傳送至目的地資料庫執行個體。

資料庫遷移服務需要幾秒鐘的時間,才能取得來源 Amazon RDS 或 Amazon Aurora 執行個體中所有資料表的讀取鎖定,以便以一致的方式執行初始完整傾印。為取得讀取鎖定,系統可能需要 1 到 49 秒的寫入停機時間。停機時間取決於資料庫中的資料表數量,每 100 個資料表對應 1 秒,每 10, 000 個資料表對應 9 秒。

使用資料庫移轉服務進行遷移時,升級作業會是最後一個步驟。 升級資料庫執行個體會中斷目的地資料庫與來源資料庫異動資料流的連線,然後將目的地執行個體升級為主要執行個體。這種做法有時也稱為「正式環境切換」。

如要進一步瞭解資料庫移轉服務中的遷移工作,請參閱下列文章:

如需詳細的遷移設定程序,請參閱「使用資料庫移轉服務將資料庫遷移至 MySQL 適用的 Cloud SQL」。在資料庫移轉服務中,您需要啟動及執行移轉工作,才能進行移轉。

資料庫引擎內建複製功能

您可以透過 Amazon RDS 的內建複寫功能,將資料複製到外部的 MySQL 適用的 Cloud SQL 執行個體。

如果是 MySQL,您首先需要從初始傾印開始,這項傾印可以儲存在 Cloud Storage 值區中,然後將資料匯入 MySQL 適用的 Cloud SQL。然後啟動複製程序。

監控複製作業,並在適當時間停止來源執行個體上的寫入作業。再次檢查複製狀態,確認所有變更都已複製,然後將 MySQL 適用的 Cloud SQL 副本升級為獨立執行個體,完成遷移作業。

如需從外部伺服器 (例如 Amazon RDS 或 Amazon Aurora for MySQL) 設定內建複製功能的詳細操作說明,請參閱「關於從外部伺服器複製」和「設定 Cloud SQL 和外部伺服器以進行複製」。

如需更多資訊和指引,請參閱下列資源:

第三方工具

為您選擇的第三方工具定義任何執行工作。

本節以 Striim 為例,Striim 會使用應用程式從各種來源取得資料、處理資料,然後將資料傳送至其他應用程式或目標。

應用程式可使用網頁用戶端以圖形方式建立,其中包含來源、目標和其他邏輯元件,並整理成一或多個流程。

如要在 Striim 中設定遷移環境,可以使用流程設計工具功能建立及變更應用程式,也可以從多個現有範本中選取。您也可以使用 TQL 程式設計語言編寫應用程式。

您可以使用資料驗證資訊主頁,以視覺化方式呈現 Striim 應用程式處理的資料。

如要在 Google Cloud中快速開始使用 Striim,請參閱「在 Google Cloud中執行 Striim」。如要進一步瞭解 Striim 的基本概念,請參閱「Striim 概念」。請務必閱讀從初始載入切換至持續複製作業的最佳做法指南。

資料遷移時,建議您採取下列最佳做法:

  • 每當計畫步驟開始和完成時,請通知相關團隊。
  • 如果任何步驟耗費的時間超出預期,請比較經過的時間與每個步驟的最大時限。發生這種情況時,請定期向相關團隊提供最新進度。
  • 如果時間範圍大於計畫中每個步驟保留的時間上限,請考慮回溯。
  • 針對遷移和轉換計畫的每個步驟,做出「繼續或停止」的決定。
  • 請考慮每個步驟的回復動作或替代情境。

定義備用情境

為每項遷移執行作業定義備援動作項目,以防遷移過程中發生無法預料的問題。備援工作通常取決於所用的遷移策略和工具。

備援可能需要大量心力。最佳做法是等到測試結果令人滿意後,再執行正式環境轉換。應妥善測試資料庫遷移和備援情境,避免嚴重中斷。

定義成功標準,並為所有遷移作業執行工作設定時間限制。進行遷移作業的模擬測試,有助於收集各項工作預計所需時間的資訊。舉例來說,如果是定期維護遷移作業,您可承受轉換空窗期造成的停機時間。不過,如果一次性移轉工作或備份還原作業中途失敗,請務必規劃後續動作。如果遷移作業未在預期時間內完成,您可能必須延後遷移作業,具體情況取決於計畫停機時間已過多久。

通常是指在執行正式環境轉換後,如果目標執行個體發生問題,則回溯遷移作業。如果您實作備援計畫,請務必將其視為完整的資料庫遷移作業,包括規劃和測試。

如果選擇不制定備案,請務必瞭解可能造成的後果。如果沒有備援計畫,可能會增加意想不到的工作量,並導致遷移程序中發生可避免的中斷。

雖然回溯是最後手段,而且大多數資料庫遷移作業都不會用到,但我們建議您一律制定回溯策略。

簡單備援

在這項備援策略中,您會將應用程式切換回原始來源資料庫執行個體。如果可以接受在回復時發生停機,或是不需要在新目標系統上提交交易,請採用這項策略。

如果您需要目標資料庫中的所有寫入資料,且可以接受停機一段時間,可以考慮停止寫入目標資料庫執行個體、建立內建備份並還原至來源執行個體,然後將應用程式重新連線至初始來源資料庫執行個體。視工作負載的性質和寫入目標資料庫執行個體的資料量而定,您可以在稍後將資料帶入初始來源資料庫系統,特別是當工作負載不依賴任何特定記錄建立時間或任何時間排序限制時。

反向複製

在這項策略中,您會在實際工作環境切換後,將新目標資料庫上發生的寫入作業複製回初始來源資料庫。這樣一來,您就能讓原始來源與新的目標資料庫保持同步,並在新的目標資料庫執行個體上進行寫入作業。主要缺點是您必須先轉換至目標資料庫執行個體,才能測試複寫串流,因此無法進行端對端測試,且有一小段時間無法回復。

如果您可以保留來源執行個體一段時間,並使用持續複製遷移作業進行遷移,請選擇這個方法。

轉送複製

這項策略是反向複製的變體。將新目標資料庫的寫入作業複製到您選擇的第三方資料庫執行個體。您可以將應用程式指向這個第三方資料庫,在伺服器無法使用時連線至伺服器並執行唯讀查詢。您可以視需求使用任何複製機制。這種做法的優點是可進行完整的端對端測試。

如果您想隨時享有備援服務,或是必須在正式上線後不久捨棄初始來源資料庫,請採用這個方法。

重複寫入

如果您選擇 Y (寫入及讀取) 或資料存取微服務遷移策略,系統會自動設定這項備援方案。這項策略較為複雜,因為您需要重構應用程式,或開發可連線至資料庫執行個體的工具。

您的應用程式會同時寫入初始來源和目標資料庫執行個體,因此您可以逐步完成正式環境轉換,直到只使用目標資料庫執行個體為止。如有任何問題,您可以將應用程式重新連線至初始來源,不會發生停機情形。如果遷移作業順利完成,即可捨棄初始來源和重複的寫入機制。

如果必須確保遷移作業不會停機、有可靠的備援機制,且您有時間和資源重構應用程式,建議採用這種做法。

進行測試和驗證

這個步驟的目標是測試及驗證下列項目:

  • 資料庫中的資料已成功遷移。
  • 切換為使用新的目標執行個體後,與現有應用程式整合。

定義關鍵成功因素,這取決於您的遷移作業。主觀因素的例子如下:

  • 要遷移的資料。對於某些工作負載,您可能不需要遷移所有資料。您可能不想遷移已匯總、多餘、封存或舊的資料。您可能會將該資料封存到 Cloud Storage bucket 中做為備份。
  • 可接受的資料遺失百分比。這項功能特別適用於用於分析工作負載的資料,因為遺失部分資料不會影響工作負載的一般趨勢或效能。
  • 資料品質和數量條件,您可以套用至來源環境,並在遷移後與目標環境比較。
  • 成效條件。部分業務交易在目標環境中可能會較慢,但處理時間仍在定義的預期範圍內。

來源環境中的儲存空間設定可能無法直接對應至Google Cloud 環境目標。舉例來說,一般用途 SSD (gp2 和 gp3) 磁碟區的設定具有 IOPS 爆發效能,或是佈建 IOPS SSD。如要比較目標執行個體並適當調整大小,請在評估和驗證階段,對來源執行個體進行基準測試。

在基準化程序中,您會將類似實際工作環境的作業序列套用至資料庫執行個體。在這段期間,您會擷取及處理指標,以評估及比較來源和目標系統的相對效能。

如果是傳統的伺服器型設定,請使用尖峰負載期間觀察到的相關測量結果。如果是 Aurora Serverless 等彈性資源容量模型,建議查看歷來指標資料,瞭解擴充需求。

您可以使用下列工具進行測試、驗證及資料庫基準化:

  • HammerDB:開放原始碼資料庫基準化和負載測試工具。這個平台支援複雜的交易和分析工作負載,並以業界標準為基礎,在多個資料庫引擎 (TPROC-C 和 TPROC-H) 上運作。HammerDB 具有詳細的說明文件,且使用者社群廣大。您可以比較多個資料庫引擎和儲存空間設定的結果,並與他人分享。詳情請參閱「使用 HammerDB 執行 SQL Server 負載測試」和「使用 HammerDB 評估 Amazon RDS SQL Server 效能」。
  • DBT2 基準化工具: 專為 MySQL 基準化而設計。這組資料庫工作負載套件會模擬擁有倉庫的公司應用程式,並涉及讀取和寫入交易的組合。如要使用現成的線上交易處理 (OLTP) 負載測試,請使用這項工具。
  • DbUnit: 開放原始碼單元測試工具,用於測試 Java 中的關聯式資料庫互動。設定和使用方式簡單明瞭,且支援多種資料庫引擎 (MySQL、PostgreSQL、SQL Server 等)。不過,視資料庫的大小和複雜度而定,測試執行速度有時可能會較慢。如果簡單易用是您最重視的要素,建議使用這項工具。
  • DbFit: 開放原始碼資料庫測試架構,支援測試導向的程式碼開發和自動測試。它使用基本語法建立測試案例,並提供資料驅動測試、版本控管和測試結果報告等功能。不過,相較於其他工具,支援複雜查詢和交易的程度有限,且沒有大型社群支援或詳盡的文件。如果查詢不複雜,且您想執行自動化測試並將其整合至持續整合和交付程序,建議使用這項工具。

如要執行端對端測試 (包括測試遷移計畫),請務必進行遷移模擬演練。試營運會執行全範圍的資料庫遷移作業,但不會切換任何正式環境工作負載,並提供下列優點:

  • 確保所有物件和設定都已正確遷移。
  • 協助您定義及執行遷移測試案例。
  • 提供實際遷移所需時間的深入分析,方便您校準時程。
  • 這是測試、驗證及調整遷移計畫的機會。 有時無法預先規劃所有事項,因此這項功能可協助您找出任何缺漏。

您可以對一小組或整組要遷移的資料庫執行資料測試。您可以根據資料庫總數和用於實作遷移的工具,決定採用以風險為依據的方法。使用這種方法時,您會對透過相同工具遷移的部分資料庫執行資料驗證,尤其是當該工具是受管理遷移服務時。

如要進行測試,您應有權存取來源和目標資料庫,並執行下列工作:

  • 比較來源和目標結構定義。檢查所有資料表和可執行檔是否存在。檢查列數,並比較資料庫層級的資料。
  • 執行自訂資料驗證指令碼。
  • 測試遷移的資料是否也會顯示在改用目標資料庫的應用程式中 (透過應用程式讀取遷移的資料)。
  • 測試各種使用案例,在切換的應用程式和目標資料庫之間執行整合測試。這項測試包括透過應用程式讀取及寫入目標資料庫的資料,確保工作負載完全支援移轉的資料和新建立的資料。
  • 測試最常使用的資料庫查詢效能,觀察是否因設定錯誤或大小不當而導致效能下降。

理想情況下,所有這些遷移測試情境都會自動化,且可在任何來源系統上重複執行。自動化測試案例套件會進行調整,以針對切換後的應用程式執行測試。

如果您使用資料庫移轉服務做為遷移工具,請參閱「驗證遷移作業」。

資料驗證工具

如要執行資料驗證,建議使用資料驗證工具 (DVT)。DVT 是由 Google 支援的開放原始碼 Python CLI 工具,可提供自動化且可重複執行的解決方案,用於驗證不同環境。

DVT 提供自訂的多層級驗證功能,可比較資料表、資料欄和資料列層級的來源和目標資料表,有助於簡化資料驗證程序。您也可以新增驗證規則。

DVT 涵蓋許多 Google Cloud 資料來源,包括 AlloyDB for PostgreSQL、BigQuery、Cloud SQL、Spanner、JSON 和 Cloud Storage 中的 CSV 檔案。此外,您也可以將其與 Cloud Run functions 和 Cloud Run 整合,根據事件觸發及自動化調度管理。

DVT 支援下列類型的驗證:

  • 結構定義層級比較
  • 資料欄 (包括「AVG」、「COUNT」、「SUM」、「MIN」、「MAX」、「GROUP BY」和「STRING_AGG」)
  • 資料列 (包括欄位比較中的雜湊和完全比對)
  • 自訂查詢結果比較

如要進一步瞭解 DVT,請參閱 Git 存放區和「使用 Google Cloud的資料驗證工具輕鬆驗證資料」。

執行遷移作業

遷移作業包括支援從一個系統轉移到另一個系統的活動。

資料遷移時,建議您採取下列最佳做法:

  • 每當計畫步驟開始和完成時,請通知相關團隊。
  • 如果任何步驟耗費的時間超出預期,請比較經過的時間與該步驟的時限。發生這種情況時,請定期向相關團隊提供最新進度。
  • 如果時間範圍大於計畫中每個步驟保留的時間上限,請考慮回溯。
  • 針對遷移和轉換計畫的每個步驟,做出「繼續或停止」的決定。
  • 請考慮每個步驟的回復動作或替代情境。

按照定義的執行工作執行遷移作業,並參閱所選遷移工具的說明文件。

執行正式環境轉換

高階正式環境轉換程序可能會因您選擇的遷移策略而異。如果工作負載可以停機,遷移轉換作業就會開始停止寫入來源資料庫。

如果是持續複製遷移作業,您通常會在轉換程序中執行下列高階步驟:

  • 停止將資料寫入來源資料庫。
  • 排空來源。
  • 停止複製程序。
  • 部署指向新目標資料庫的應用程式。

使用所選遷移工具遷移資料後,請驗證目標資料庫中的資料。確認來源資料庫和目標資料庫已同步,且目標執行個體中的資料符合您選擇的遷移成功標準。

資料驗證通過您的條件後,即可執行應用程式層級的轉換作業。部署已重構的工作負載,使用新的目標執行個體。您部署的應用程式版本會指向新的目標資料庫執行個體。您可以透過滾動式更新、階段推出或藍綠部署模式執行部署作業。應用程式可能會短暫停止運作。

請遵循實際工作環境轉換的最佳做法:

  • 在轉換後,監控與目標資料庫搭配使用的應用程式。
  • 定義監控時間範圍,判斷是否需要導入備用方案。
  • 請注意,如果變更某些資料庫旗標,可能需要重新啟動 Cloud SQL 或 AlloyDB for PostgreSQL 執行個體。
  • 請注意,回溯遷移作業可能比修正目標環境中出現的問題更費力。

清除來源環境,並設定 Cloud SQL 或 PostgreSQL 適用的 AlloyDB 執行個體

完成轉換後,即可刪除來源資料庫。建議您在清除來源執行個體前,先執行下列重要動作:

  • 為每個來源資料庫建立最終備份。這些備份檔會提供來源資料庫的最終狀態。在某些情況下,您可能也需要備份資料,以遵守部分資料法規。

  • 收集來源執行個體的資料庫參數設定。 或者,確認這些資料與您在清查階段收集的資料相符。調整目標執行個體參數,使其與來源執行個體參數相符。

  • 從來源執行個體收集資料庫統計資料,並與目標執行個體中的資料進行比較。如果統計資料差異很大,就難以比較來源執行個體和目標執行個體的效能。

在備援情境中,您可能想將 Cloud SQL 執行個體上的寫入作業複製回原始來源資料庫。設定方式與遷移程序類似,但會反向執行:初始來源資料庫會成為新的目標。

為確保來源執行個體在轉換後保持最新狀態,建議將目標 Cloud SQL 執行個體上執行的寫入作業複製回來源資料庫。如要復原,您可以還原舊的來源執行個體,資料遺失量極少。

除了清除來源環境,您還必須為 Cloud SQL 執行個體進行下列重要設定:

  • 設定主要執行個體的維護期間,以便控制發生中斷型更新的時間。
  • 設定執行個體上的儲存空間,確保至少有 20% 的可用空間,以便容納 Cloud SQL 可能執行的任何重要資料庫維護作業。如要在可用磁碟空間低於 20% 時收到快訊,請為磁碟使用率指標建立以指標為基礎的快訊政策。

前一項作業完成之前,請勿開始進行管理作業。

如要進一步瞭解維護作業和最佳做法,請參閱「Cloud SQL 執行個體維護作業」一文。

遷移後將環境調整至最佳狀態

最佳化是遷移的最後階段。在這個階段,您會反覆執行最佳化工作,直到目標環境符合最佳化需求為止。每次疊代的步驟如下:

  1. 評估目前的環境、團隊和最佳化迴圈。
  2. 建立最佳化需求和目標。
  3. 將環境和團隊調整至最佳狀態。
  4. 調整最佳化迴圈。

重複這個程序,直到達成最佳化目標為止。

如要進一步瞭解如何最佳化 Google Cloud 環境,請參閱「遷移至 Google Cloud:最佳化環境」和「Google Cloud 架構完善的架構:效能最佳化」。

確立最佳化需求

請參閱下列 Google Cloud 環境的最佳化需求,並選擇最適合工作負載的項目:

提高資料庫的可靠性和可用性

您可以透過 Cloud SQL 實作高可用性和災難復原策略,以符合復原時間目標 (RTO) 和復原點目標 (RPO)。如要提高可靠性和可用性,請考慮下列事項:

  • 如果是需要讀取大量資料的工作負載,請新增唯讀備用資源,以分擔主要執行個體的流量。
  • 針對關鍵任務工作負載,請使用高可用性設定、區域容錯移轉的副本,以及健全的災難復原設定。
  • 對於重要性較低的工作負載,自動和隨選備份就已足夠。
  • 如要防止意外移除執行個體,請使用執行個體刪除保護功能。
  • 建議使用 Cloud SQL Enterprise Plus 版本,享有更高的可用性、記錄保留時間,以及幾乎無須停機的計畫性維護。如要進一步瞭解 Cloud SQL Enterprise Plus,請參閱「Cloud SQL 版本簡介」和「預定維護作業幾乎無須停機」。

如要進一步瞭解如何提高資料庫的可靠性和可用性,請參閱下列內容:

提高資料庫基礎架構的成本效益

如要發揮正面的經濟效益,工作負載必須有效運用可用資源和服務。請考慮採用下列選項:

  • 請執行下列操作,為資料庫提供最低儲存空間容量:

    • 如要隨著資料量增加自動擴充儲存空間容量,請啟用自動增加儲存空間功能。不過,請務必設定執行個體,在工作負載尖峰期間保留緩衝空間。請注意,資料庫工作負載通常會隨著時間增加。
  • 找出可能高估的資源:

    • 適當調整 Cloud SQL 執行個體的大小,可降低基礎架構成本,且不會為容量管理策略增加額外風險。
    • Cloud Monitoring 提供預先定義的資訊主頁,可協助您判斷許多元件 (包括 Cloud SQL) 的健康狀態和容量使用率。 Google Cloud詳情請參閱「建立及管理自訂資訊主頁」。
  • 找出不需要高可用性或災難復原設定的執行個體,並從基礎架構中移除。

  • 移除不再需要的表格和物件。您可以將這些檔案儲存在完整備份或封存 Cloud Storage bucket 中。

  • 根據用途評估成本效益最佳的儲存空間類型 (SSD 或 HDD)。

    • 在大多數情況下,SSD 是最有效率且最具成本效益的選擇。
    • 如果資料集很大 (10 TB 以上)、對延遲不敏感,或存取頻率不高,則 HDD 可能更適合。
    • 詳情請參閱「選擇 SSD 或 HDD 儲存空間」。
  • 如果可預測工作負載的資源需求,建議您購買承諾使用折扣

  • 使用 Active Assist 取得費用洞察資料和建議。

    如需更多資訊和選項,請參閱「事半功倍:推出 Active Assist Cloud SQL 成本最佳化建議」。

提升資料庫基礎架構效能

資料庫相關的效能問題雖然不大,但往往會影響整體運作。如要維持及提升 Cloud SQL 執行個體效能,請參考下列指南:

  • 如果資料庫資料表數量過多,可能會影響執行個體的效能和可用性,並導致執行個體喪失服務水準協議保障。
  • 確認執行個體的記憶體或 CPU 沒有受到限制。

    • 如果是需要大量資源的工作負載,請確保執行個體至少有 60 GB 的記憶體。
    • 針對較慢的資料庫插入、更新或刪除作業,請檢查寫入者與資料庫的位置;長距離傳送資料會導致延遲發生。
  • 使用 Cloud Monitoring 中預先定義的查詢深入分析資訊主頁 (或類似的資料庫引擎內建功能),提升查詢效能。找出最昂貴的指令,並嘗試進行最佳化。

  • 避免資料庫檔案變得過大。請以 MB 為單位設定 autogrow,而非百分比,並根據需求使用適當的增量。

  • 檢查讀取器和資料庫位置。延遲對讀取效能的影響大於寫入效能。

  • 建議使用 Cloud SQL Enterprise Plus 版本,享有更高的機器設定限制和資料快取功能。詳情請參閱「Cloud SQL 版本簡介」。

如要進一步瞭解如何提升成效,請參閱「診斷問題」中的「成效」。

提升資料庫觀測能力

診斷及排解連線至資料庫執行個體的應用程式問題,可能既耗時又充滿挑戰。因此,集中管理所有資料庫和執行個體層級的活動,讓所有團隊成員都能掌握最新動態,就顯得至關重要。您可以透過下列方式監控 Cloud SQL 執行個體:

  • Cloud SQL 會使用內建記憶體自訂代理程式,收集查詢遙測資料。

    • 使用 Cloud Monitoring 收集服務和使用資源的計量結果。 Google CloudCloud Monitoring 為多項 Google Cloud 產品提供預先定義的資訊主頁,包括 Cloud SQL 監控資訊主頁。
    • 您可以建立自訂資訊主頁來監控指標,並設定快訊政策,以便及時收到通知。
    • 或者,您也可以考慮使用與 Google Cloud整合的第三方監控解決方案,例如 Datadog 和 Splunk。
  • Cloud Logging 會收集常見應用程式元件的記錄資料。

  • Cloud Trace 會收集應用程式的延遲資料和執行的查詢計畫,協助您追蹤要求在應用程式中的傳播情形。

  • Database Center 可集中顯示整個資料庫機群的運作情況,並提供 AI 輔助功能。您可以監控資料庫的健康狀態、可用性設定、資料保護機制、安全性和產業法規遵循情形。

Cloud SQL 一般最佳做法和作業指南

套用 Cloud SQL 最佳做法,設定及調整資料庫。

以下列出幾項重要的 Cloud SQL 一般建議:

  • 如果執行個體很大,建議您盡可能將其分割為較小的執行個體。
  • 設定儲存空間,以因應重要的資料庫維護作業。請確保至少有 20% 的可用空間,以因應 Cloud SQL 可能執行的任何重要資料庫維護作業。
  • 資料庫資料表過多,會影響資料庫升級時間。 理想情況下,每個執行個體的資料表數量應少於 10,000 個。
  • 請為執行個體選擇適當大小,以考量交易 (二進位) 記錄保留時間,尤其是寫入活動頻繁的執行個體。

為有效處理您可能遇到的任何資料庫效能問題,請在問題解決前遵循下列指南:

擴充基礎架構:增加資源 (例如磁碟輸送量、vCPU 和 RAM)。視緊急程度和團隊的可用性與經驗而定,垂直擴充執行個體可解決大部分效能問題。之後,您可以在測試環境中進一步調查問題的根本原因,並考慮採取哪些措施來解決問題。

執行及排定資料庫維護作業:索引重整、統計資料更新、真空分析,以及重新建立大量更新資料表的索引。檢查上次執行這些維護作業的時間,特別是受影響的物件 (資料表、索引)。瞭解資料庫活動是否出現異常變化。例如最近新增資料欄,或資料表有大量更新。

執行資料庫調整和最佳化作業:資料庫中的表格結構是否正確?資料欄的資料類型是否正確?您的資料模型是否適合工作負載類型?調查查詢速度緩慢的問題,以及查詢的執行方案。這些查詢是否使用可用的索引?檢查其他資源的索引掃描、鎖定和等待情形。建議您新增索引,支援重要查詢。刪除不重要的索引和外來鍵。考慮重新編寫複雜的查詢和彙整。解決問題所需的時間取決於團隊的經驗和可用性,可能需要數小時到數天。

向外擴充讀取作業:請考慮使用唯讀備用資源。如果垂直擴充無法滿足需求,且資料庫調整和最佳化措施沒有幫助,請考慮水平擴充。將應用程式的讀取查詢作業導向讀取副本,可提升資料庫工作負載的整體效能。不過,您可能需要額外費心,才能變更應用程式以連線至唯讀副本。

資料庫重新架構:考慮分割資料庫並建立索引。 這項作業比資料庫調整及最佳化更費力,可能需要遷移資料,但可做為長期修正措施。有時資料模型設計不佳會導致效能問題,而垂直擴充可部分補償這類問題。不過,適當的資料模型是長期解決方案。建議您將資料表分區。盡可能封存不再需要的資料。將資料庫結構正規化,但請注意,非正規化也能提升效能。

資料庫分片:您可以透過資料庫分片擴充寫入作業。 分片是一項複雜的作業,需要以特定方式重新架構資料庫和應用程式,並執行資料遷移。您可以使用特定分割條件,將資料庫執行個體分割成多個較小的執行個體。條件可以是顧客或主題。這個選項可讓您水平擴充寫入和讀取作業。不過,這會增加資料庫和應用程式工作負載的複雜度。也可能導致分片不平衡 (稱為熱點),抵銷分片的好處。- 如果是 MySQL 適用的 Cloud SQL,請確認資料表具有主索引鍵或不重複的索引鍵。Cloud SQL 使用列式複製,搭配具有主索引鍵或不重複索引鍵的資料表時,運作效果最佳。

詳情請參閱 MySQL 適用的 Cloud SQL 的一般最佳做法作業指南

後續步驟

貢獻者

作者:

其他貢獻者: