ストレージ オプション


Compute Engine には、VM インスタンス向けに複数のストレージ オプションが用意されています。ストレージ オプションによって、料金と性能特性が異なります。

  • 永続ディスクのボリュームは、高パフォーマンスで冗長性のあるネットワーク ストレージを提供します。各永続ディスクのボリュームは、何百もの物理ディスクにストライプ化されます。
    • デフォルトでは、VM はゾーン永続ディスクを使用し、us-west1-c などの単一ゾーン内にあるボリュームにデータを保存します。
    • また、リージョン永続ディスク ボリュームを作成すると、2 つのゾーンにあるディスク間でデータを同期的に複製し、ゾーンが利用できなくなった場合にデータを保護することができます。
  • Google Cloud Hyperdisk ボリュームには、Compute Engine 用に最速の冗長ネットワーク ストレージが用意されており、パフォーマンスとボリュームを構成可能で動的にサイズ変更できます。
  • ローカル SSD は、VM と同じサーバーに直接接続される物理ドライブです。パフォーマンスを改善できますが、一時的なものです。
  • Cloud Storage バケットには、手頃な料金のオブジェクト ストレージが用意されています。
  • VM と一緒に Filestore を使用して高性能なファイル ストレージを実現することもできます。

各ストレージ オプションには、固有の価格とパフォーマンス特性があります。費用比較については、ディスクの料金体系をご覧ください。どのオプションを使用すればよいかわからない場合、最も一般的なのは、インスタンスに永続ディスクを追加するソリューションです。

はじめに

Compute Engine の各インスタンスには、デフォルトでオペレーティング システムを格納しているブート永続ディスクが 1 つあります。通常、ブートディスクのデータは、永続ディスク ボリュームに保存されます。アプリケーションに追加のストレージ容量が必要な場合は、次のストレージ ボリュームのうち 1 つ以上をインスタンスにプロビジョニングできます。

各ストレージ オプションの詳細については、次の表をご覧ください。

標準
永続ディスク
バランス
永続ディスク
SSD
永続ディスク
エクストリーム
永続ディスク
Hyperdisk Extreme Hyperdisk Throughput ローカル SSD Cloud Storage バケット
ストレージの種類 効率的で信頼性の高いブロック ストレージ 費用対効果に優れた信頼性の高いブロック ストレージ 高速で信頼性の高いブロック ストレージ IOPS をカスタマイズ可能で最高水準のパフォーマンスを実現する永続ディスク ブロック ストレージ オプション IOPS をカスタマイズ可能で最速のブロック ストレージ オプション スループットをカスタマイズ可能でコスト効率に優れたスループット指向のブロック ストレージ 高パフォーマンスのローカル ブロック ストレージ 手頃な料金のオブジェクト ストレージ
ディスク 1 つあたりの最小容量 ゾーン: 10 GiB
リージョン: 200 GiB
ゾーン: 10 GiB
リージョン: 10 GiB
ゾーン: 10 GiB
リージョン: 10 GiB
500 GiB 64 GiB 2 TiB 375 GiB なし
ディスク 1 つあたりの最大容量 64 TiB 64 TiB 64 TiB 64 TiB 64 TiB 32 TiB 375 GiB なし
容量の増分 1 GiB 1 GiB 1 GiB 1 GiB 1 GiB 1 GiB マシンタイプに応じて異なる なし
インスタンスあたりの最大容量 257 TiB* 257 TiB* 257 TiB* 257 TiB* 257 TiB* 257 TiB* 9 TiB ほぼ無制限
アクセス範囲 ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン インスタンス グローバル
データ冗長性 ゾーンとマルチゾーン ゾーンとマルチゾーン ゾーンとマルチゾーン ゾーン ゾーン ゾーン なし リージョン、デュアルリージョン、マルチリージョン
保存時の暗号化
カスタム暗号鍵 ×
入門 エクストリーム永続ディスクを追加する Hyperdisk を追加する ローカル SSD を追加する バケットを接続する

* 1 つのディスクの最大サイズを超える論理ボリュームの作成を検討している場合は、論理ボリューム サイズがパフォーマンスに与える影響について確認してください。

ローカル SSD の容量の増分は、VM 1 台あたりに許可される SSD ディスク(パーティション)の数(マシンタイプごとに異なる)によって異なります。詳細については、有効な数のローカル SSD を選択するをご覧ください。

Google Cloud が提供するストレージ オプション以外にも、他のストレージ ソリューションをインスタンスにデプロイできます。

各ブロック ストレージ リソースのパフォーマンス特性はそれぞれ異なります。VM インスタンスに適したブロック ストレージのタイプを決定する際は、ストレージ サイズとパフォーマンス要件を考慮してください。

各ディスクタイプのパフォーマンスの上限については、以下をご覧ください。

マルチライター モードで作成された永続ディスク ボリュームには、特定の IOPS 上限とスループット上限があります。詳細については、マルチライター モードの永続ディスクのパフォーマンスをご覧ください。

永続ディスク

永続ディスク ボリュームは耐久性に優れたネットワーク ストレージ デバイスであり、パソコンやサーバーの物理ディスクと同じようにインスタンスからアクセスできます。永続ディスク上のデータは、複数の物理ディスクに分散されます。Compute Engine は物理ディスクとデータ分散を管理して、冗長性を保証し、最善のパフォーマンスを確保します。

永続ディスク ボリュームは仮想マシン(VM)インスタンスとは異なる場所に置かれるため、インスタンスを削除した後でも永続ディスク ボリュームを切断または移動してデータを保持できます。永続ディスクのパフォーマンスはサイズに合わせて自動的にスケールされるため、既存の永続ディスク ボリュームのサイズを変更するか、VM に永続ディスク ボリュームを追加してパフォーマンスとストレージ容量の要件を満たすことができます。

永続ディスクのタイプ

永続ディスクを構成するときに、次のいずれかのディスクタイプを選択できます。

  • バランス永続ディスクpd-balanced
    • パフォーマンス(pd-ssd)永続ディスクの代替手段。
    • パフォーマンスと費用のバランス。非常に大規模なものを除き、ほとんどの VM シェイプでは、これらのディスクの最大 IOPS は SSD 永続ディスクと同じであり、GB あたりの IOPS は小さくなります。このディスクタイプは、ほとんどの汎用アプリケーションに適したパフォーマンスを標準永続ディスクとパフォーマンス(pd-ssd)永続ディスクの中間の価格で提供します。
    • ソリッド ステート ドライブ(SSD)を基盤としています。
  • パフォーマンス(SSD)永続ディスクpd-ssd
    • 標準 PD よりも低いレイテンシと高い IOPS を必要とする、エンタープライズ アプリケーションや高パフォーマンス データベースに適しています。
    • レイテンシが 10 ミリ秒未満となるよう設計されています。測定されるレイテンシはアプリケーション固有のものです。
    • ソリッド ステート ドライブ(SSD)を基盤としています。
  • 標準永続ディスクpd-standard
    • 主にシーケンシャル I/O を使用する大規模なデータ処理ワークロードに適しています。
    • 標準ハードディスク ドライブ(HDD)を基盤としています。
  • エクストリーム永続ディスクpd-extreme
    • ランダム アクセス ワークロードとバルク スループットの両方に対応し、常に高パフォーマンスを発揮します。
    • ハイエンド データベース ワークロード向けに設計されています。
    • ターゲット IOPS をプロビジョニングできます。
    • ソリッド ステート ドライブ(SSD)を基盤としています。
    • 限られた数のマシンタイプで使用できます。

Google Cloud コンソール でディスクを作成する場合、デフォルトのディスクタイプは pd-balanced です。gcloud CLI または Compute Engine API を使用してディスクを作成する場合、デフォルトのディスクタイプは pd-standard です。

マシンタイプのサポートについては、以下をご覧ください。

永続ディスクの耐久性

ディスクの耐久性は、ハードウェアの障害、壊滅的なイベント、Google データセンターでの隔離方法とエンジニアリング プロセス、各ディスクタイプで使用される内部エンコードによって、通常の 1 年間に一般的なディスクでデータ損失が発生する可能性を表します。永続ディスクのデータ損失が発生することは極めて稀ですが、これまで発生したケースを見ると、調整済みのハードウェアの故障、ソフトウェアのバグ、またはその 2 つが原因で発生しています。また、Google は、業界全体のサイレント データ破損のリスクを軽減するために多くの対策を講じています。お客様が誤ってディスクを削除した場合など、Google Cloud のユーザーによるエラーは、永続ディスクの耐久性の対象外です。

リージョン永続ディスクでは、内部データのエンコードとレプリケーションにより、データ損失が生じるリスクはほとんどありません。リージョン永続ディスクはゾーン永続ディスクの 2 倍のレプリカを備えています。レプリカは、同じリージョン内の 2 つのゾーンに分散されます。これにより、高可用性を実現し、データセンター全体が消失して復元できない場合でも(ただし、この現象はこれまで発生したことはありません)、障害復旧に使用できます。長期間のサービス停止中にプライマリ ゾーンが使用不能になった場合は、2 番目のゾーンの追加レプリカに直ちにアクセスできます。

耐久性はディスクタイプごとに集計されたものであり、返金制度のあるサービスレベル契約(SLA)を表すものではありません。

以下の表は、ディスクタイプごとの耐久性を示しています。99.999% の耐久性とは、1,000 枚のディスクがあれば、100 年間 1 枚も失わずに済む可能性があるということです。

ゾーン標準永続ディスク ゾーンバランス永続ディスク ゾーン SSD 永続ディスク ゾーン エクストリーム永続ディスク リージョン標準永続ディスク リージョン バランス永続ディスク リージョン SSD 永続ディスク
99.99% を上回る 99.999% を上回る 99.999% を上回る 99.9999% を上回る 99.999% を上回る 99.9999% を上回る 99.9999% を上回る

ゾーン永続ディスク

使いやすさ

Compute Engine はほとんどのディスク管理タスクを自動的に処理するため、パーティショニング、冗長ディスクアレイ、サブボリューム管理などについて考える必要はありません。一般的に、より大きい論理ボリュームを作成する必要はありませんが、必要に応じて、追加で接続する永続ディスク容量をインスタンスあたり 257 TiB に拡張し、永続ディスク ボリュームに適用できます。パーティション テーブルを使用せずに 1 つのファイル システムで永続ディスク ボリュームをフォーマットすることで、時間を節約して最適なパフォーマンスを得ることができます。

データを複数の固有ボリュームに分ける必要がある場合は、既存のディスクを複数のパーティションに分割するのではなく、追加ディスクを作成します。

永続ディスク ボリュームの容量を増やす必要がある場合は、再パーティショニングしてフォーマットするのではなく、ディスクのサイズを変更します。

パフォーマンス

永続ディスクのパフォーマンスは予測可能であり、インスタンスのプロビジョニングされた vCPU の上限に達するまで、プロビジョニングされた容量に比例してスケールします。パフォーマンスのスケーリングの上限と最適化について詳しくは、パフォーマンス要件を満たすようにディスクを構成するをご覧ください。

標準永続ディスク ボリュームは、順次読み取り / 書き込みオペレーションの処理には効率的かつ経済的な選択肢ですが、1 秒あたりのランダム入出力オペレーション(IOPS)量が多い処理には不向きです。大量のランダム IOPS が必要なアプリでは、SSD またはエクストリーム永続ディスクを使用します。SSD 永続ディスクは、レイテンシが 1 桁のミリ秒となるよう設計されています。観測されるレイテンシはアプリケーション固有です。

Compute Engine は、永続ディスク ボリュームのパフォーマンスとスケーリングを自動的に最適化します。最高のパフォーマンスを得るために、複数のディスクをストライプ化したり、ディスクのプリウォームを行ったりする必要はありません。より多くのディスク容量やより高いパフォーマンスが必要な場合は、ディスクのサイズを変更して、さらに vCPU を追加することで、ストレージ容量、スループット、および IOPS を増やします。永続ディスクのパフォーマンスは、VM に接続された永続ディスクの合計容量とインスタンスが保持する vCPU の数に基づいています。

ブートデバイスの場合は、標準永続ディスクを使用してコストを削減できます。小規模な 10 GiB の永続ディスク ボリュームは、基本的なブートおよびパッケージ管理のユースケースに適しています。ただし、ブートデバイスの一般的な使用で一貫したパフォーマンスを確保するには、ブートディスクとしてバランス永続ディスクを使用します。

永続ディスクへの書き込みオペレーションを行うたびに、インスタンスの累積ネットワーク下り(外向き)トラフィックが増加します。つまり、永続ディスクの書き込みオペレーションは、インスタンスに対する下り(外向き)ネットワークの上限によって制限されます。

信頼性

永続ディスクには冗長性が組み込まれており、機器の故障からデータを保護し、データセンターのメンテナンス中でもデータの可用性を確保します。永続ディスクのすべてのオペレーションでチェックサムが計算されるため、読み取ったデータは書き込んだデータと必ず一致します。

さらに、永続ディスクのスナップショットを作成して、ユーザーエラーによりデータが失われるのを防ぐことができます。スナップショットは増分なので、実行中のインスタンスに接続されているディスクのスナップショットを作成する場合であっても数分しかかかりません。

マルチライター モード

マルチライター モードでは SSD 永続ディスクを同時に最大 2 台の N2 VM に接続できるため、両方の VM でディスクの読み取りと書き込みが可能になります。

マルチライター モードの永続ディスクは、共有ブロック ストレージ機能を備えており、高可用性の共有ファイル システムとデータベースを構築するためのインフラストラクチャ基盤としての役割を果たします。このような専用のファイル システムとデータベースは、共有ブロック ストレージと連携して機能し、SCSI 永続予約などのツールを使用して VM 間のキャッシュ整合性を処理するように設計する必要があります。

ただし、マルチライター モードの永続ディスクは通常直接使用しないでください。また、EXT4、XFS、NTFS などの多くのファイル システムは共有ブロック ストレージで使用するようには設計されていない点に注意する必要があります。VM 間で永続ディスクを共有するためのベスト プラクティスについては、ベスト プラクティスをご覧ください。

フルマネージドのファイル ストレージが必要な場合は、Compute Engine VM に Filestore ファイル共有をマウントできます。

新しい永続ディスク ボリュームでマルチライター モードを有効にするには、新しい永続ディスクを作成し、gcloud CLI に --multi-writer フラグを指定するか、か、Compute Engine API に multiWriter プロパティを指定します。詳細については、VM 間で永続ディスク ボリュームを共有するをご覧ください。

永続ディスクの暗号化

Compute Engine は、データが VM の外部から永続ディスクのストレージ領域に移される前にデータを自動的に暗号化します。各永続ディスクは常に、システム定義の暗号鍵または顧客指定の暗号鍵のいずれかで暗号化された状態になっています。永続ディスクデータは複数の物理ディスクに分散されます。分散の方法はユーザーによって制御されません。

永続ディスクを削除すると、Google は暗号鍵を破棄し、データを回復不能にします。このプロセスは元に戻せません。

データの暗号化に使用される暗号鍵を制御する必要がある場合は、顧客指定の暗号鍵でディスクを作成します。

制限事項

  • 別のプロジェクトの VM に永続ディスク ボリュームを接続することはできません。

  • 最大 10 個の VM インスタンスにバランス永続ディスクを読み取り専用モードで接続できます。

  • カスタム マシンタイプか、最小 1 vCPU の事前定義されたマシンタイプの場合、最大で 128 個の永続ディスク ボリュームを接続できます。

  • 各永続ディスク ボリュームの最大サイズは 64 TiB であるため、大きな論理ボリュームを作成するためにディスクのアレイを管理する必要はありません。各インスタンスが接続できる永続ディスクの合計容量と個別の永続ディスク ボリュームの数には上限があります。永続ディスクの上限は、事前定義されたマシンタイプとカスタム マシンタイプで同じです。

  • ほとんどのインスタンスで最大 128 TiB のPersistent Disk と、最大 257 TiB のディスク容量を接続できます。VM の合計ディスク容量には、ブートディスクのサイズが含まれます。

  • 共有コア マシンタイプは、16 個の永続ディスク ボリュームと 3 TiB の合計永続ディスク容量に制限されています。

  • 64 TiB を超える論理ボリュームを作成する場合は、特に考慮しなければならない場合があります。大容量論理ボリュームのパフォーマンスの詳細については、論理ボリューム サイズをご覧ください。

リージョン永続ディスク

リージョン永続ディスク ボリュームのストレージ品質は、ゾーン永続ディスクと同様です。ただし、リージョン永続ディスク ボリュームを使用すると、同じリージョン内の 2 つのゾーン間で耐久性の高いデータ ストレージとデータ レプリケーションを実現できます。

Compute Engine で堅牢なシステム高可用性サービスを設計する場合は、リージョン永続ディスクを使用するだけでなく、スナップショットを使用してデータをバックアップするなど、他のベスト プラクティスを取り入れる必要があります。また、リージョン永続ディスク ボリュームは、リージョン マネージド インスタンス グループと連携するように設計されています。

万一ゾーンが停止した場合、--force-attach フラグを使用することにより、リージョン永続ディスクで実行されているワークロードを別のゾーンにフェイルオーバーできます。--force-attach フラグを使用すると、元の VM が使用できないためにディスクをその VM から切断できない場合でも、リージョン永続ディスクをスタンバイ VM インスタンスに接続できます。詳しくは、リージョン永続ディスクのフェイルオーバーをご覧ください。ゾーン永続ディスクをインスタンスに強制的に接続することはできません。

パフォーマンス

リージョン永続ディスク ボリュームは、永続ディスクのスナップショットを使用する場合よりも低い目標復旧時点(RPO)目標復旧時間(RTO)を必要とするワークロード用に設計されています。

リージョン永続ディスクは、複数のゾーンにわたるデータ冗長性よりも書き込みパフォーマンスが重要でない場合のオプションです。

ゾーン永続ディスクと同様に、リージョン永続ディスクはインスタンスの vCPU 数が多いほど高い IOPS とスループット パフォーマンスを達成できます。この制限とその他の制限の詳細については、パフォーマンス要件を満たすようにディスクを構成するをご覧ください。

より多くのディスク容量またはより高いパフォーマンスが必要なときは、ディスクのサイズを変更して、容量、スループット、IOPS を増強できます。

信頼性

Compute Engine は、リージョン永続ディスクのデータを、ディスクの作成時に選択したゾーンに複製します。各レプリカのデータは、冗長性を確保するためにゾーン内の複数の物理マシンに分散されます。

ゾーン永続ディスクと同様に、永続ディスクのスナップショットを作成して、ユーザーエラーによるデータの損失から保護できます。スナップショットは増分なので、実行中のインスタンスに接続されているディスクのスナップショットを作成する場合であっても数分しかかかりません。

制限事項

  • リージョン永続ディスクを接続できるのは、E2N1N2N2Dのマシンタイプを使用する VM のみです。
  • イメージからリージョン永続ディスクを作成することはできません。
  • 読み取り専用モードを使用すると、最大 10 個の VM インスタンスにリージョン バランス永続ディスクをアタッチできます。
  • リージョン標準永続ディスクの最小サイズは 200 GiB です。
  • リージョン永続ディスクのサイズは拡張のみ行えます。サイズを小さくすることはできません。
  • リージョン永続ディスク ボリュームのパフォーマンス特性は、ゾーン永続ディスク ボリュームとは異なります。詳細については、ブロック ストレージのパフォーマンスをご覧ください。
  • ゾーンディスクのクローンを作成してリージョン永続ディスクを作成する場合、2 つのゾーンレプリカは作成時には完全には同期しません。作成後、リージョン ディスクのクローンは平均で 3 分以内に使用できるようになります。ただし、ディスクが完全に複製された状態になり、目標復旧時点(RPO)がゼロに近くなるまで、10 分程度かかる場合があります。詳細については、リージョン永続ディスクが完全に複製されたかどうかを確認する方法をご覧ください。

Google Cloud Hyperdisk

Google Cloud Hyperdisk は Google の次世代ブロック ストレージです。ストレージ処理をオフロードして動的にスケールアウトすることで、ストレージのパフォーマンスを VM のタイプやサイズから切り離します。Hyperdisk は、パフォーマンス、柔軟性、効率を大幅に向上させます。

  • Hyperdisk Extreme

    Compute Engine 用の Hyperdisk Extreme は、利用可能な最速のブロック ストレージを提供します。最高水準のスループットと IOPS を必要とするハイエンド ワークロードに適しています。

    Hyperdisk Extreme ボリュームを使用すると、ワークロードの容量と IOPS を動的に調整できます。

  • Hyperdisk Throughput

    Hyperdisk Throughput は、Hadoop や Kafka、コストが重視されるアプリのデータドライブ、コールド ストレージなどのスケールアウト分析に適しています。

    Hyperdisk Throughput ボリュームを使用すると、ワークロード要件の変化に動的に適応できます。ダウンタイムやワークロードの中断なしに、プロビジョニングされたスループット レベルを変更できます。

Hyperdisk ボリュームは永続ディスクと同様に作成、管理されます。また、プロビジョニングされた IOPS またはスループット レベルを設定するための追加の機能が用意され、その値をいつでも変更できます。永続ディスクから Hyperdisk に直接移行することはできません。代わりに、スナップショットを作成して、そのスナップショットを新しい Hyperdisk Extreme または Hyperdisk Throughput ボリュームに復元できます。

Hyperdisk の詳細については、Hyperdisk についてをご覧ください。

Hyperdisk の暗号化

Compute Engine は、Hyperdisk ボリュームへの書き込み時にデータを自動的に暗号化します。

Hyperdisk でのデータの永続性

ディスクの耐久性は、一般的な年における一般的なディスクのデータ損失確率(設計上)を表します。耐久性は、ハードウェア障害に関する次のような一連の前提条件を使用して計算されます。

  • 壊滅的なイベントの可能性
  • 分離方法
  • Google データセンターのエンジニアリング プロセス
  • 各ディスクタイプで使用される内部エンコーディング

Hyperdisk Extreme は 99.9999% を超える耐久性を実現します。Hyperdisk Throughput は 99.99% を超える耐久性を実現します。

ローカル SSD

ローカル SSD は、VM インスタンスをホストするサーバーに物理的に接続されます。ローカル SSD は、標準永続ディスクまたは SSD 永続ディスクよりも高スループットかつ低レイテンシです。ローカル SSD に格納されたデータは、VM が停止または削除されるまで保持されます。各ローカル SSD のサイズは 375 GiB ですが、vCPU の数に応じて複数のローカル SSD をインスタンスに接続できます。

高速のスクラッチ ディスクまたはキャッシュが必要でインスタンス メモリを使用したくない場合は、ローカル SSD で VM を作成します。

ローカル SSD ディスクのプロパティ

ローカル SSD ディスクの動作と特性については、以下のセクションをご覧ください。

ローカル SSD の暗号化

Compute Engine は、データがローカル SSD ストレージ スペースに書き込まれる際に、データを自動的に暗号化します。ローカル SSD では顧客指定の暗号鍵は使用できません。

ローカル SSD でのデータの永続性

ローカル SSD のデータがどのようなイベントで保持され、どのようなイベントで回復不能になるかについては、ローカル SSD データの永続性をご覧ください。

一般的な制限事項

  • c3d-standard-360-lssd マシンタイプを使用して、12 TiB のローカル SSD ディスク容量に最大 32 個のローカル SSD パーティションを備えた VM を作成できます。
  • c3-standard-176-lssd マシンタイプを使用して、12 TiB のローカル SSD ディスク容量に最大 32 個のローカル SSD パーティションを備えた VM を作成できます。
  • N1、N2、N2D マシンタイプを使用して、6 TB または 9 TB のローカル SSD スペースにそれぞれ最大 16 個または 24 個のローカル SSD パーティションを備えた VM を作成できます。
  • C2、C2D、A2、M1、M3 のマシンタイプの場合、合計 3 TB のローカル SSD スペースに最大 8 個のローカル SSD パーティションを備えた VM を作成できます。
  • IOPS の上限を達成するには、32 基以上の vCPU を備えた VM を使用します。
  • 共有コア マシンタイプの VM は、ローカル SSD パーティションを接続できません。
  • ローカル SSD を E2、Tau T2D、Tau T2A、H3、M2 マシンタイプに接続することはできません。

ローカル SSD とマシンタイプ

マシンシリーズの比較表に示すように、ローカル SSD は Compute Engine で利用可能なほとんどのマシンタイプに接続できます。ただし、各マシンタイプに対して接続できるローカル SSD の数には上限があります。詳細については、有効な数の Local SSD を選択するをご覧ください。

パフォーマンス

ローカル SSD は、非常に高い IOPS と低いレイテンシを実現するように設計されています。永続ディスクとは異なり、ローカル SSD でのストライプ化はユーザー自身が管理する必要があります。複数のローカル SSD パーティションを単一の論理ボリュームに結合して VM ごとのローカル SSD のパフォーマンスを最大化するか、ローカル SSD パーティションを個別にフォーマットします。

ローカル SSD のパフォーマンスは、選択するインターフェースによって異なります。ローカル SSD は SCSI インターフェースと NVMe インターフェースの両方で使用できます。

容量に関する情報と最大パフォーマンス レベルは、9 TiB の最大容量でも確認できます。

詳細については、ローカル SSD のパフォーマンスローカル SSD のパフォーマンスの最適化をご覧ください。

Cloud Storage バケット

Cloud Storage バケットは、VM インスタンスで利用できる最も柔軟性、スケーラビリティ、耐久性の高いストレージ オプションです。永続ディスクローカル SSD の低レイテンシをアプリが必要としない場合、Cloud Storage バケットにデータを保存できます。

レイテンシやスループットが重要ではなく、複数のインスタンスやゾーン間でデータを簡単に共有する必要がある場合は、インスタンスを Cloud Storage バケットに接続できます。

Cloud Storage バケットのプロパティ

Cloud Storage バケットの動作と特性については、以下のセクションをご覧ください。

パフォーマンス

Cloud Storage バケットのパフォーマンスは、ストレージ クラスの選択と、インスタンスに対する相対的なバケットのロケーションに依存します。

インスタンスと同じロケーションで Cloud Storage の Standard Storage クラスを使用すると、永続ディスクに匹敵するパフォーマンスが得られますが、レイテンシが高くなり、一貫性のあるスループットの特性が低下します。デュアルリージョンで Standard Storage クラスを使用すると、データが 2 つのリージョンに冗長的に保存されます。デュアルリージョンを使用する際に最適なパフォーマンスを得るには、VM インスタンスをデュアルリージョンの一部であるいずれかのリージョンに配置する必要があります。

Nearline Storage クラス、Coldline Storage クラス、Archive Storage クラスは、主に長期間のデータ アーカイブに使用します。Standard Storage クラスとは異なり、これらのクラスには最小保存期間があり、データ取得料金が発生します。したがって、頻繁にアクセスされないデータの長期保存に最適です。

信頼性

すべての Cloud Storage バケットには冗長性が組み込まれており、機器の障害からデータが保護され、データセンターのメンテナンス中でもデータの可用性が保証されます。すべての Cloud Storage オペレーションに対してチェックサムが計算され、読み込まれた内容が確実に書き込まれます。

柔軟性

永続ディスクとは異なり、Cloud Storage バケットはインスタンスが存在するゾーンに限定されません。また、バケットのデータを複数のインスタンスで同時に読み書きできます。たとえば、データをそれぞれのゾーンの永続ディスクに複製するのではなく、同じバケット内のデータを読み書きするように複数のゾーンのインスタンスを構成できます。

Cloud Storage の暗号化

Compute Engine は、データがインスタンスから Cloud Storage バケットに移動される前に、データを自動的に暗号化します。バケットに書き込む前に、インスタンス上のファイルを暗号化する必要はありません。

永続ディスク ボリュームと同じように、独自の暗号鍵でバケットを暗号化できます。

Cloud Storage バケットに対するデータの書き込みと読み取り

Cloud Storage バケットに対してファイルを読み書きするには、gcloud storage コマンドライン ツールまたは Cloud Storage クライアント ライブラリを使用します。

gcloud storage

公開イメージを使用するほとんどの VM に gcloud storage コマンドライン ツールはデフォルトでインストールされています。VM に gcloud storage コマンドライン ツールがない場合は、インストールできます。

  1. SSH またはその他の接続方法を使用して、Linux VM に接続するか、Windows VM に接続します。

    1. Google Cloud コンソールで、[VM インスタンス] ページに移動します。

      [VM インスタンス] に移動

    2. 仮想マシン インスタンスのリストで、接続するインスタンスの行にある [SSH] をクリックします。

      インスタンス名の横にある SSH ボタン。

  2. このインスタンスで gcloud storage を使用したことがない場合は、gcloud CLI を使用して認証情報を設定します。

    gcloud init

    Cloud Storage スコープを持つサービス アカウントを使用するようにインスタンスが構成されている場合はこの手順をスキップできます。

  3. gcloud storage ツールを使用してバケットを作成し、データをバケットに書き込み、それらのバケットからデータを読み取ります。特定のバケットに対してデータを読み書きするには、バケットへのアクセス権を取得する必要があります。一般公開されているバケットからデータを読み取ることもできます。

    必要に応じて、Cloud Storage にデータをストリーミングすることもできます。

クライアント ライブラリ

Cloud Storage スコープを持つサービス アカウントを使用するようにインスタンスを構成した場合、Cloud Storage API を使用して Cloud Storage バケットからデータを読み書きできます。

  1. インスタンスに接続します

    1. Google Cloud コンソールで、[VM インスタンス] ページに移動します。

      [VM インスタンス] に移動

    2. 仮想マシン インスタンスのリストで、接続するインスタンスの行にある [SSH] をクリックします。

      インスタンス名の横にある SSH ボタン。

  2. 使用する言語のクライアント ライブラリをインストールして構成します。

  3. 必要に応じて、サンプルコードの挿入手順に沿ってインスタンス上に Cloud Storage バケットを作成します。

  4. サンプルコードの挿入手順でデータの書き込みデータの読み取りを行い、Cloud Storage バケットとの間でファイルの読み書きを行うコードをアプリに組み込みます。

次のステップ