Google Cloud のコンピューティング費用を今すぐ削減する 11 の方法
Alex Bestavros
Group Product Manager
Sai Gopalan
Product Management, Google Cloud
※この投稿は米国時間 2025 年 10 月 7 日に、Google Cloud blog に投稿されたものの抄訳です。
「節約は美徳」という言葉がありますが、クラウド インフラストラクチャに関してはまさにこれが当てはまります。競争の激しい今日のビジネス環境では、ビジネスニーズを満たすためにパフォーマンスを維持する必要があります。幸いなことに、Google Cloud の Compute Engine とブロック ストレージ サービスは、特に移行とモダナイゼーションの取り組みにおいて、パフォーマンスを犠牲にすることなく費用を削減する多くの機会を提供します。
この記事では、Google Cloud でインフラストラクチャの費用を最適化するための 11 の重要な方法をご紹介します。簡単な調整から、長期的に大幅な費用削減につながる戦略的な意思決定まで、さまざまな方法があります。
1. 適切な VM インスタンスを選択する
Compute Engine のコストを削減する最も効果的な方法の一つは、移行とモダナイゼーションの取り組みに対して、そのワークロードに適した仮想マシン(VM)を適切に選択し、適切なサイズに設定することです。Google Cloud を初めて使用する場合でも、すでに Compute Engine を使用している場合でも、N4、C4、C4D、C4A などの最新世代の VM を採用することで、大幅な費用削減と費用対効果の向上を実現できます。
Google Cloud の Titanium アーキテクチャを搭載した最新世代の VM は、前世代よりも高速な CPU、より大きいメモリ帯域幅、より効率的な仮想化を実現するため、より少ないリソースで同じワークロードを処理できます。既存のお客様は、古い世代の VM から最新の VM に移行することで、総費用を大幅に削減できるだけでなく、現在のパフォーマンス レベルを上回ることもできます。切り替えを行った組織は、クラウド コンピューティング費用を大幅に削減しながら、パフォーマンスが 20 ~ 40% 向上したと報告しています。たとえば、Elastic は、Google Cloud の Arm ベースの Axion CPU をベースにした汎用 C4A マシンシリーズを活用して、ワークロードの効率とパフォーマンスを大幅に向上させました。
汎用 VM に加えて、お客様固有の要件に対応する特殊なマシンタイプも提供しています。H4D などのコンピューティング最適化 HPC VM は、ハイ パフォーマンス コンピューティングとデータ分析向けに設計されており、要求の厳しいワークロードに優れたパフォーマンスを提供します。M4 インスタンスと X4 インスタンスはメモリ使用量の多いアプリケーションに対応し、Z3 インスタンスはストレージ使用量の多いワークロードに最適です。さらに、ハードウェア環境を完全に制御し、パフォーマンスを最大限に分離する必要がある場合は、ベアメタル インスタンスをご利用いただけます。
これらのオプションにより、最も特殊でパフォーマンスが重要なワークロードでも、Compute Engine ポートフォリオ内で最適で費用対効果の高い環境を見つけることができます。
2. ブロック ストレージの選択を最適化する
ワークロードの動作を確保しながらブロック ストレージの TCO を削減する最善の方法は、リソース効率を高めることです。Hyperdisk を使用すると高性能と高効率の実現が容易になり、これはブロック ストレージをワークロードに合わせた最適化と、ストレージ プールの活用によって行います。これらの各機能と、それらを使用してブロック ストレージの TCO を削減する方法について、以下で説明します。
ワークロードの最適化: Hyperdisk を使用すると、容量とパフォーマンスのそれぞれを個別に調整して、ブロック ストレージのリソースをワークロードに最適化できます。Hyperdisk では、ボリューム レベルでパフォーマンスと容量を個別にプロビジョニングできます。この機能を利用すると、容量とパフォーマンスを必要なだけ過不足なく購入できます。また、Hyperdisk Balanced の「ベースライン」パフォーマンス(すべてのボリュームに無料で含まれるパフォーマンス)を利用すれば、追加のパフォーマンスを購入しなくても、ほとんどの VM に対応できます。
ストレージ プール: Hyperdisk は、シン プロビジョニングされたパフォーマンスと容量を提供する唯一のハイパースケール クラウド ブロック ストレージです。Hyperdisk ストレージ プールを使用すると、ワークロードに必要な集約されたパフォーマンスと容量をプロビジョニングしながら、ワークロードが必要とするボリュームレベルの容量パフォーマンス(シン プロビジョニングとも呼ばれる)をプロビジョニングできます。これにより、プロビジョニングしたボリュームの総量ではなく、必要なリソースに対して料金を支払うことができます。その結果、ブロック ストレージの全体的な TCO を最大で 50% も削減できます。
ワークロードに適したブロック ストレージの選び方や、Hyperdisk からどのようなメリットが得られるかについて詳しくは、こちらのブログをご覧ください。
3. カスタム コンピューティング クラスを検討する
最新世代の VM を最大限に活用するために、Google Kubernetes Engine(GKE)のカスタム コンピューティング クラス(CCC)は、コンピューティングの選択を最適化し、高可用性を実現する高度な方法を提供します。ワークロードに単一のマシンタイプを使用するのではなく、VM インスタンス タイプの優先順位付きリストを定義できます。これにより、最新世代の VM を含む、最新で最も費用対効果の高い VM を最優先に設定できます。GKE カスタム コンピューティング クラスは、指定した優先順位リストに基づいてインスタンスを自動的に、かつシームレスにスピンアップする機能を提供します。この機能は、最も費用対効果の高いオプションを目指しながら、コンピューティング容量の可用性を最大化するのに役立ちます。これにより、ワークロードは手作業を経ずに確実にスケーリングできます。
カスタム コンピューティング クラスが費用の最適化にどのように役立つか、具体的なユースケースをいくつかご紹介します。
- 費用対効果の高いフォールバックの自動スケーリング: 需要がピークに達すると、高可用性ではあるものの費用対効果の低い VM タイプを使用して自動スケーリングしたくなるかもしれません。CCC では、段階的なアプローチを採用できます。費用対効果の高いフォールバックの代替案を複数設定することによって、需要が増加した場合に GKE はまず最も費用対効果の高いオプションを使用しようとし、需要を満たすための必要に応じて、リスト内の他の選択肢に徐々に移行します。
- AI/ML 推論: AI/ML 推論ワークロードの実行には、多くの場合、相当なコンピューティング リソースが必要です。CCC を使用すると、オフピーク時にアイドル状態になる可能性のある大規模な静的予約を維持する代わりに、最小限のベース予約をプロビジョニングし、Spot VM などの費用対効果の高い容量タイプを活用して、ピーク時の推論需要を処理できます。これらはすべて、CCC 構成を通じてオーケストレーションされます。
- 新しい VM 世代の導入: GKE カスタム コンピューティング クラスの機能とコンピューティング フレキシブル確約利用割引(Flex CUD)を組み合わせて、N4 や C4 などの費用対効果の高い新しい VM シリーズの導入に伴うリスクを軽減します。CCC では、フォールバック オプションを定義してワークロードの復元力を確保できます。一方、フレキシブル CUD では、使用する具体的な VM シリーズに関係なく、対象となるコンピューティングの総費用に割引が適用されるため、財務上の適応性が得られます。この二重のアプローチは、中断することなく最新のハードウェアを活用するための安全で費用対効果の高い戦略です。詳細については、こちらのブログをご覧ください。
- 柔軟な Spot VM の使用: Spot VM は大幅なコスト削減を実現しますが、プリエンプトされる可能性があります。単一の Spot VM の構成に限定すると、容量が利用できなくなるリスクが高まります。CCC では、複数のフォールバック Spot VM タイプを定義できます。この「スポット サーフィン」機能により、アプリケーションは費用対効果の高いスポット容量を維持できます。プライマリの選択肢が利用できない場合は、代替のスポット インスタンス タイプに自動的にピボットします。
つまり、GKE CCC を活用することで、オンデマンド、スポット、DWS FlexStart、CUD でカバーされるインスタンスなど、さまざまな VM タイプと使用量モデルを巧みに組み合わせて、ワークロードの固有のニーズとパターンに適応する、復元力が高く、費用対効果に優れたインフラストラクチャを構築できます。
4. カスタム マシンタイプ(CMT)を活用する
カスタム マシンタイプは N4 VM で利用でき、仮想マシンをぴったりと仕様に合わせて構成できます。過剰な容量が含まれている可能性のある事前定義されたマシンタイプから選択するのではなく、ワークロードに合わせて CPU とメモリの比率を調整できるため、実際に使用したリソースに対してのみ料金を支払うことができます。この的を絞ったアプローチにより、無駄を最小限に抑え、クラウド支出を大幅に削減できます。特に、オンプレミスから Google Cloud に移行する場合や、他のクラウド プロバイダから移行する場合に効果的です。
この柔軟性は、アプリケーションに標準のサービスとあまり一致しない独自のリソース プロファイルがある場合に特に役立ちます。カスタム マシンタイプを使用すると、ニーズに最適な環境を構築できます。特定のコンピューティング リソースを過剰にプロビジョニングして他のリソースを制約するような妥協を避けることで、Compute Engine デプロイメント全体でパフォーマンスの向上と費用の効率化の両方を実現できます。
たとえば、16 個の vCPU と 70 GB のメモリで最適に動作するメモリ集約型のワークロードがあるとします。通常、標準シェイプでは 128 GB のメモリを搭載した VM を選択する必要があるか、他のクラウド コンテキストでは、プロビジョニングされたリソースが余分になるため、ワークロードの実行コストが高くなります。カスタム マシンタイプを使用すると、16 個の vCPU と 70 GB のメモリを搭載した VM を簡単に起動でき、標準の N4-highmem-16 VM と比較して 18% の費用削減を実現できます。
5. 確約利用割引を最大限に活用する
CUD は、コンピューティングのニーズが安定していて予測可能な組織にとって、費用を削減する戦略的な機会となります。1 年間または 3 年間のリソース使用量を確約することで、オンデマンド料金と比較してクラウド費用を最大 70% 削減できます。このアプローチは、予算を予測可能なもにするだけでなく、固定インフラストラクチャの支出を財務上の利点に変えるため、コアビジネス機能をサポートする安定したワークロードに最適です。
Google Cloud は、さまざまな運用モデルに対応できるよう、柔軟な CUD 構造を提供しています。リソースベースのコミットメントは特定のマシンタイプとリージョンを対象とし、フレキシブル コミットメントはプロジェクト、リージョン、マシンシリーズ全体に割引を適用します。これは動的な環境に最適です。過去の使用状況を分析し、将来のニーズを予測することで、これらの割引に適したワークロードを特定し、節約した費用をイノベーションやスケーリングの取り組みに再投資できます。
6. 未使用のディスク容量を管理する
実際に使用した量に関係なく、プロビジョニングされたディスク容量の合計に対して料金が発生します。多くの組織は「念のため」にストレージを過剰にプロビジョニングする傾向があり、その結果、不要で高額な無駄が発生することがよくあります。たとえば、100 GB のディスクをプロビジョニングしても、実際に使用するのは 20 GB のみの場合、100 GB 全体の料金を支払うことになります。ストレージの割り当てを一般的なサイズに切り上げるのではなく、意図的で正確に行うことで、大幅な費用削減につながります。
費用を最適化するには、いくつかのベスト プラクティスを採用することが重要です。Ops エージェントを使用して、インフラストラクチャ全体のディスク使用量を定期的に監査し、非効率な部分を特定して排除します。実際の使用量に合わせてディスクのサイズを変更し、成長のための合理的なバッファを確保します。Google Cloud で自動アラートを実装する Cloud Monitoring を使用して、使用率の低いディスクを検出して是正措置を講じる。ステートレス アプリケーションの場合は、より小さいブートディスク イメージを使用してオーバーヘッドを最小限に抑え、費用をさらに削減することを検討してください。
さらに、費用を削減して効率を向上させるために、次の最適化戦略を検討してください。
- Google Cloud のモニタリング ツールを使用して、CPU、メモリ、ディスクの使用状況を時系列で追跡する。
- 定期的なレビューサイクルを確立して、過剰にプロビジョニングされたリソースを特定し、適切なサイズに調整する。
- さまざまな VM 構成でワークロードをテストし、費用とパフォーマンスの最適なバランスを見つけます。
7. Spot VM を使用する
Spot VM は、標準の仮想マシンと同じマシンタイプと構成オプションを提供しますが、費用は大幅に削減されます。通常は 60% ~ 91% の割引が適用されます。費用対効果が高い一方で、短時間でプリエンプションされる可能性があるため、フォールト トレラントで、予期しない中断から迅速に復旧できるワークロードに最適です。Spot VM は、未使用のコンピューティング容量を活用するように設計されており、高性能リソースへのアクセスを損なうことなくクラウド費用を最適化できます。
Spot VM が有望なユースケースには、バッチ処理ジョブ、ビッグデータと分析のワークロード、継続的インテグレーションとデプロイ(CI/CD)パイプライン、自動スケーリング グループで実行されるステートレス ウェブサーバー、コンピューティング負荷の高いタスクなどがあります。中断に対処するように適切に設計されている場合(たとえば、ジョブのチェックポイント、ロード バランシング、タスクキューを使用するか、GKE カスタム コンピューティング クラスを使用する場合(詳細は上記を参照))、Spot VM は、高い可用性とシステム復元力を維持しながらインフラストラクチャの費用を最小限に抑えるうえで重要な役割を果たすことができます。このようなシナリオで Spot VM を活用すると、特にコンピューティング需要が変動する場合や、時間に柔軟性がある場合に、費用対効果の高いスケーリングが可能になります。
8. 最適化案を適用する
Google Cloud の Recommender は、クラウド リソースを効率的に最適化できるように設計された強力なツールです。Google Cloud コンソールを閲覧していると、特定のリソースの横に電球アイコンが表示されることがあります。これは、Google の推奨エンジンによって特定された改善の可能性を示しています。Recommender は、リアルタイムの使用パターンと現在のリソース構成を分析することで、各ユーザーの固有の環境に合わせた、実用的な情報を提供します。このインテリジェント システムは、費用の削減だけでなく、セキュリティ、パフォーマンス、信頼性、管理効率、環境サステナビリティの向上につながる機会に注意を促してくれます。
たとえば、過去 1 ~ 14 日間に使用されていない VM インスタンスを特定するのに役立つアイドル状態の VM の推奨事項があります。一般的な推奨事項としては、より適切なマシンタイプへの切り替え、使用率の低いコンピューティング インスタンスの適正サイズ設定、費用対効果の高いストレージ ソリューションの採用などがあります。このツールを使用すると、これらの変更の多くを直接適用できるため、最適化プロセスを効率化できます。ワークロードを継続的に評価し、データドリブンな自動提案を行うことで、おすすめハブは、組織がクラウドのパフォーマンスを維持しながら、より効果的に費用を管理するお役に立ちます。
9. 自動スケーリングとスケジューリングを活用する
コンピューティング リソースを実際の需要パターンに合わせることは、クラウドの無駄を削減し、全体的な費用対効果を高める最も効果的な方法の一つです。多くの組織は、ピーク時のワークロードに対応するためにリソースを過剰にプロビジョニングしており、オフピーク時にはマシンが十分に活用されていません。コンピューティング容量を、営業時間や季節のトレンドなど、リアルタイムまたは予測可能な使用パターンに緊密に合わせることで、パフォーマンスを犠牲にすることなく、不要な支出を大幅に削減できます。
この効率性を実現する鍵となるのが自動スケーリングです。実際、Google Compute Engine の仮想マシンの自動スケーリングを活用しているお客様は、インフラストラクチャの費用を平均 40% 以上削減しています。
自動スケーリング戦略を実装して、CPU 使用率、ロード バランシング容量、またはカスタム アプリケーション指標に基づいてリソースを動的に調整できます。これにより、ワークロードは必要なときに必要なコンピューティング能力を受け取ることができ、需要が低い期間は自動的にスケールダウンされます。
営業時間や季節のイベントの予定に合わせて変動するワークロードなど、パターンが予測可能なワークロードの場合、スケジュールベースのスケーリングは特に強力なツールです。このアプローチでは、需要の増加を見越してリソースを事前に増やし、需要が落ち着いたときにスケールダウンできるため、常にオーバープロビジョニングすることなく必要なパフォーマンスを確保できます。
自動スケーリングに加えて、いくつかの実用的な実装手法を使用することで、リソースの使用をさらに最適化できます。インスタンス スケジュールを設定すると、営業時間に応じて開発環境とテスト環境を自動的に起動および停止できます。これは、シンプルながら非常に効果的なアプローチであり、最大 70% の費用削減につながります。また、メンテナンスの時間枠を利用して、使用量が少ない期間にアップデートとシステム変更を集中させることで、中断とリソース消費を削減できます。これらの戦術を組み合わせることで、インフラストラクチャの費用を抑えながら、高可用性とパフォーマンスを維持できます。
10. 詳細な請求金額の分析で費用を把握する
Google Cloud で費用削減戦略を実装する前に、現在の支出を詳細に把握することが不可欠です。Google Cloud の請求パネルでは、個々の SKU ごとの費用など、費用の詳細な可視性が提供されます。このレベルの透明性により、費用の流れを追跡し、潜在的な非効率性を特定できます。まず、請求ダッシュボードを定期的に確認して、使用量の傾向をモニタリングし、異常を検出します。リソースにラベルとタグを適用すると、特に複数のプロジェクトや部門がある複雑な環境で、費用を正確に分類して割り当てることができます。
さらに、予算アラートを設定すると、費用が事前定義されたしきい値に近づいた場合や超えた場合に通知されるため、費用超過を未然に防ぐことができます。また、アクティブに使用されなくなった仮想マシンや永続ディスクなど、未使用またはアイドル状態のリソースを特定して排除することも重要です。これらはシャットダウンまたは削除することで、費用をすぐに削減できます。費用構造を徹底的に分析することで、「低く垂れ下がった果実」である価値がほとんど、あるいはまったくないリソースを特定し、データドリブンな意思決定を行ってクラウドの使用を効率的に最適化できます。
11. サーバーレスの代替手段を検討する
最後に、Google Cloud のサーバーレス コンピューティング サービスは、従来の仮想マシンに代わる魅力的な選択肢であり、費用対効果の向上、運用の簡素化、スケーラビリティの向上を実現できます。インフラストラクチャ管理を抽象化することで、サーバーレス プラットフォームでは、チームがサーバーのプロビジョニング、スケーリング、メンテナンスを心配することなく、コードの作成とデプロイに集中できます。この移行により、運用オーバーヘッドを削減できるだけでなく、コンピューティング費用をアプリケーションの使用量に直接合わせることで費用を削減できます。
さまざまなサーバーレス オプションが用意されており、それぞれが異なるワークロードに合うように作られています。
Cloud Run は、迅速なスケーリングと柔軟なデプロイが必要なコンテナ化されたアプリケーションを実行するために設計されています。Cloud Run Functions は、マイクロサービスや自動化タスク向けの軽量なイベント ドリブン コード実行をサポートします。GKE(Autopilot モード)は、ノードの管理とスケーリングを自動化することで Kubernetes の運用を簡素化し、基盤となるインフラストラクチャを処理することなく Kubernetes ワークロードを実行できるようにします。これらのオプションはすべて、割り当てではなく使用量に基づいて課金されるため、アイドル状態のリソースやオーバープロビジョニングに関連する費用を大幅に削減できます。そのため、変動するワークロードや予測不可能なワークロードに特に役立ちます。Cloud Run と GKE はどちらも GPU をサポートしており、両者間の移行も柔軟に行えます。Cloud Run から始めて GKE に移行することも、その逆も可能です。一部のお客様は、ワークロードに両方のサービスを利用されています。Kubernetes API にアクセスする必要がある場合は、GKE から始めるのが良いでしょう。それ以外の場合は、Cloud Run から始めます。
今すぐ費用削減を始めましょう
Google Cloud に移行して、自社のワークロードに必要なものを妥協することなく、インフラストラクチャの費用を最適化できます。Google Cloud を初めて使用する場合は、まず移行評価から始めます。Google Cloud の Migration Center を使用すると、Google Cloud への移行によって得られる潜在的な費用削減額を明確に把握できます。また、ワークロードの推奨パスの詳細や TCO レポートも確認できます。この記事の戦略を適用して、大幅なコスト削減を実現しましょう。
-グループ プロダクト マネージャー、Alex Bestavros
-Google Cloud、プロダクト管理担当、Sai Gopalan