Compute Engine には、インスタンス向けに複数のストレージ オプションが用意されています。ストレージ オプションによって、料金と性能特性が異なります。
- ゾーン永続ディスク: 効率的で信頼性の高いブロック ストレージ。
- リージョン永続ディスク: 2 つのゾーンに複製されたリージョン ブロック ストレージ。
- ローカル SSD: 高パフォーマンスかつ一時的なローカル ブロック ストレージ。
- Cloud Storage バケット: 手頃な料金のオブジェクト ストレージ。
- Filestore: Google Cloud ユーザー向けの高性能ファイル ストレージ。
どのオプションを使用すればよいかわからない場合、最も一般的なのは、インスタンスに永続ディスクを追加するソリューションです。
はじめに
Compute Engine の各インスタンスには、デフォルトでオペレーティング システムを格納しているブート永続ディスク(PD)が 1 つあります。アプリに追加のストレージ容量が必要な場合は、1 つ以上の追加のストレージ オプションをインスタンスに追加できます。費用比較については、ディスクの料金体系を参照してください。
各ストレージ オプションの詳細については、次の表をご覧ください。
ゾーン 標準 PD |
リージョン 標準 PD |
ゾーン バランス PD |
リージョン バランス PD |
ゾーン SSD PD |
リージョン SSD PD |
ゾーン エクストリーム PD |
ローカル SSD | Cloud Storage バケット | |
---|---|---|---|---|---|---|---|---|---|
ストレージの種類 | 効率的で高信頼性のブロック ストレージ | リージョン内の 2 つのゾーンで同期レプリケーションを行う、効率的で信頼性の高いブロック ストレージ | 費用対効果に優れた信頼性の高いブロック ストレージ | リージョン内の 2 つのゾーンで同期レプリケーションを行う、コスト効率と信頼性に優れたブロック ストレージ | 高速かつ高信頼性のブロック ストレージ | リージョン内の 2 つのゾーンで同期レプリケーションを行う、高速で信頼性の高いブロック ストレージ | 最高パフォーマンスの永続ブロック ストレージ | 高パフォーマンスのローカル ブロック ストレージ | 手頃な料金のオブジェクト ストレージ |
ディスク 1 つあたりの最小容量 | 10 GB | 200 GB | 10 GB | 10 GB | 10 GB | 10 GB | 500 GB | 375 GB | なし |
ディスク 1 つあたりの最大容量 | 64 TB | 64 TB | 64 TB | 64 TB | 64 TB | 64 TB | 64 TB | 375 GB | なし |
容量の増分 | 1 GB | 1 GB | 1 GB | 1 GB | 1 GB | 1 GB | 1 GB | マシンタイプに応じて異なる** | なし |
インスタンスあたりの最大容量 | 257 TB* | 257 TB* | 257 TB* | 257 TB* | 257 TB* | 257 TB* | 257 TB* | 9 TB | ほぼ無制限 |
アクセス範囲 | ゾーン | ゾーン | ゾーン | ゾーン | ゾーン | ゾーン | ゾーン | インスタンス | グローバル |
データ冗長性 | ゾーン | マルチゾーン | ゾーン | マルチゾーン | ゾーン | マルチゾーン | ゾーン | なし | リージョン、デュアルリージョン、マルチリージョン |
保存時の暗号化 | ○ | はい | はい | はい | はい | はい | はい | はい | ○ |
カスタム暗号鍵 | ○ | はい | はい | はい | はい | はい | はい | いいえ | ○ |
入門 | 標準永続ディスクを追加する | リージョン標準永続ディスクを追加する | バランス永続ディスクを追加する | リージョン バランス永続ディスクを追加する | SSD 永続ディスクを追加する | リージョン SSD 永続ディスクを追加する | エクストリーム永続ディスクを追加する | ローカル SSD を追加する | バケットの接続 |
Google Cloud が提供するストレージ オプション以外にも次のようなストレージ ソリューションをインスタンスにデプロイできます。
- Compute Engine 上にファイル サーバーまたは分散ファイル システムを作成し、ネットワーク ファイル システムとして NFSv3 と SMB3 の機能とともに使用する。
- インスタンス メモリ内に RAM ディスクをマウントし、高スループットかつ低レイテンシのブロック ストレージ ボリュームを作成します。
ブロック ストレージ リソースにはさまざまなパフォーマンス特性があります。インスタンスに対応するブロック ストレージの適切なタイプとサイズを決定するときは、ストレージのサイズとパフォーマンスの要件を検討します。
- 永続ディスクのパフォーマンス上限については、パフォーマンスの上限をご覧ください。
- ローカル SSD のパフォーマンスの上限については、ローカル SSD のパフォーマンスをご覧ください。
マルチライター モードで作成された永続ディスクには、特定の IOPS とスループットの上限があります。詳細については、マルチライター モードの永続ディスクのパフォーマンスをご覧ください。
永続ディスク
永続ディスクは長期的なネットワーク ストレージ デバイスであり、パソコンやサーバーの物理ディスクと同じようにインスタンスからアクセスできます。永続ディスク上のデータは、複数の物理ディスクに分散されます。Compute Engine は物理ディスクとデータ分散を管理して、冗長性を保証し、最善のパフォーマンスを確保します。
永続ディスクは仮想マシン(VM)インスタンスとは独立して存在するため、インスタンスを削除した後であっても、永続ディスクを切断または移動してデータを保持できます。永続ディスクのパフォーマンスはサイズに合わせて自動的に向上するので、既存の永続ディスクのサイズを変更するか、またはインスタンスに永続ディスクを追加して、パフォーマンスとストレージ容量の要件を満たすことができます。
パフォーマンス特性が安定した高信頼性で低価格のストレージが必要な場合は、永続ディスクをインスタンスに追加します。
ディスクタイプ
永続ディスクを構成するときに、次のいずれかのディスクタイプを選択できます。
- 標準永続ディスク(
pd-standard
)- 主に順次 I/O を使用する大規模なデータ処理ワークロードに適しています
- 標準ハードディスク ドライブ(HDD)によるバックアップ。
- バランス永続ディスク(
pd-balanced
)- パフォーマンス(pd-ssd)永続ディスクの代替
- パフォーマンスと費用のバランス。大規模なものを除き、ほとんどの VM シェイプの場合、これらのディスクの最大 IOPS は SSD 永続ディスクと同じですが、GB あたりの IOPS は小さくなります。このディスクタイプは、ほとんどの汎用アプリケーションに適したパフォーマンスを標準永続ディスクとパフォーマンス(pd-ssd)永続ディスクの中間の価格で提供します。
- ソリッド ステート ドライブ(SSD)によるバックアップ。
- パフォーマンス(SSD)永続ディスク(
pd-ssd
)- 標準永続ディスクの場合よりも低いレイテンシと、より多くの IOPS を必要とするエンタープライズ アプリケーションや高性能データベースに適しています。
- レイテンシが 10 ミリ秒未満となるよう設計されています。測定されるレイテンシはアプリケーション固有のものです。
- ソリッド ステート ドライブ(SSD)によるバックアップ。
- エクストリーム永続ディスク(
pd-extreme
)- ランダム アクセス ワークロードとバルク スループットの両方に対応し、常に高パフォーマンスを発揮します
- Oracle や SAP HANA などのハイエンド データベース ワークロード向けに設計されています。
- ターゲット IOPS をプロビジョニング可能。
- ソリッド ステート ドライブ(SSD)によるバックアップ。
- 限られた数のマシンタイプでのみ使用できます。
Google Cloud コンソール でディスクを作成する場合、デフォルトのディスクタイプは pd-balanced
です。gcloud CLI または Compute Engine API を使用してディスクを作成する場合、デフォルトのディスクタイプは pd-standard
です。
マシンタイプのサポートについては、以下をご覧ください。
耐久性
ディスクの耐久性は、ハードウェアの障害、壊滅的なイベント、Google データセンターでの隔離方法とエンジニアリング プロセス、各ディスクタイプで使用される内部エンコードによって、通常の 1 年間に一般的なディスクでデータ損失が発生する可能性を表します。永続ディスクのデータ損失が発生することは極めて稀ですが、これまで発生したケースを見ると、調整済みのハードウェアの故障、ソフトウェアのバグ、またはその 2 つが原因で発生しています。また、Google は、業界全体のサイレント データ破損のリスクを軽減するために多くの対策を講じています。お客様が誤ってディスクを削除した場合など、Google Cloud のユーザーによるエラーは、永続ディスクの耐久性の対象外です。
リージョン永続ディスクでは、内部データのエンコードとレプリケーションにより、データ損失が生じるリスクはほとんどありません。リージョン永続ディスクはゾーン永続ディスクの 2 倍のレプリカを備えています。レプリカは、同じリージョン内の 2 つのゾーンに分散されます。これにより、高可用性を実現し、データセンター全体が消失して復元できない場合でも(ただし、この現象はこれまで発生したことはありません)、障害復旧に使用できます。長期間のサービス停止中にプライマリ ゾーンが使用不能になった場合は、2 番目のゾーンの追加レプリカに直ちにアクセスできます。
耐久性はディスクタイプごとに集計されたものであり、返金制度のあるサービスレベル契約(SLA)を表すものではありません。
以下の表は、ディスクタイプごとの耐久性を示しています。99.999% の耐久性とは、1,000 枚のディスクがあれば、100 年間 1 枚も失わずに済む可能性があるということです。
ゾーン標準永続ディスク | ゾーンバランス永続ディスク | ゾーン SSD 永続ディスク | ゾーン エクストリーム永続ディスク | リージョン標準永続ディスク | リージョン バランス永続ディスク | リージョン SSD 永続ディスク |
---|---|---|---|---|---|---|
99.99% を上回る | 99.999% を上回る | 99.999% を上回る | 99.9999% を上回る | 99.999% を上回る | 99.9999% を上回る | 99.9999% を上回る |
ゾーン永続ディスク
使いやすさ
Compute Engine はほとんどのディスク管理タスクを自動的に処理するので、デベロッパーはパーティショニング、冗長ディスクアレイ、サブボリューム管理などについて考える必要はありません。一般的に、より大きい論理ボリュームを作成する必要はありませんが、必要に応じて、追加で接続する永続ディスク容量をインスタンスあたり 257 TB に拡張し、永続ディスクに適用できます。パーティション テーブルなしで、1 つのファイル システムで永続ディスクをフォーマットすることで、時間を節約して最適なパフォーマンスを得ることができます。
データを複数の固有ボリュームに分ける必要がある場合は、既存のディスクを複数のパーティションに分割するのではなく、追加ディスクを作成します。
永続ディスクに追加のスペースが必要な場合は、再パーティショニングしてフォーマットするのではなく、ディスクのサイズを変更してください。
パフォーマンス
永続ディスクのパフォーマンスは予測可能であり、インスタンスのプロビジョニングされた vCPU の上限に達するまで、プロビジョニングされた容量に比例してスケールします。パフォーマンスのスケーリングの上限と最適化について詳しくは、パフォーマンス要件を満たすようにディスクを構成するをご覧ください。
標準永続ディスクは、順次読み取り / 書き込みオペレーションの処理には効率的かつ経済的な選択肢ですが、1 秒あたりのランダム入出力オペレーション(IOPS)量が多い処理には不向きです。大量のランダム IOPS が必要なアプリでは、SSD またはエクストリーム永続ディスクを使用します。SSD 永続ディスクは、レイテンシが 1 桁のミリ秒となるよう設計されています。観測されるレイテンシはアプリケーション固有です。
Compute Engine は、永続ディスクのパフォーマンスとスケーリングを自動的に最適化します。最高のパフォーマンスを得るために、複数のディスクをストライプ化したり、ディスクのプリウォームを行ったりする必要はありません。より多くのディスク容量やより高いパフォーマンスが必要な場合は、ディスクのサイズを変更して、さらに vCPU を追加することで、ストレージ容量、スループット、および IOPS を増やします。永続ディスクのパフォーマンスは、インスタンスに接続された永続ディスクの合計容量と、インスタンスが保持する vCPU の数に基づきます。
ブートデバイスの場合は、標準永続ディスクを使用してコストを削減できます。小規模な 10 GB の永続ディスクは、基本的なブートおよびパッケージ管理のユースケースで役立ちます。ただし、ブートデバイスの一般的な使用で一貫したパフォーマンスを確保するには、ブートディスクとしてバランス永続ディスクを使用します。
永続ディスクへの書き込みオペレーションを行うたびに、インスタンスの累積ネットワーク下り(外向き)トラフィックが増加します。つまり、永続ディスクの書き込みオペレーションは、インスタンスに対する下りネットワークの上限によって制限されます。
信頼性
永続ディスクには冗長性が組み込まれており、機器の故障からデータを保護し、データセンターのメンテナンス中でもデータの可用性を保証します。永続ディスクのすべてのオペレーションでチェックサムが計算されるため、読み取ったデータは書き込んだデータと必ず一致します。
さらに、永続ディスクのスナップショットを作成して、ユーザーエラーによりデータが失われるのを防ぐことができます。スナップショットは増分なので、実行中のインスタンスにアタッチされているディスクのスナップショットを作成する場合であっても数分しかかかりません。
マルチライター モード
マルチライター モードでは SSD 永続ディスクを同時に最大 2 個の N2 VM にアタッチできるため、両方の VM でディスクの読み取りと書き込みが可能になります。マルチライター モードの永続ディスクは、共有ブロック ストレージ機能を備えており、分散ネットワーク ファイル システム(NFS)などの高可用性サービスを構築するためのインフラストラクチャ基盤としての役割を果たします。ただし、マルチライター モードの永続ディスクには、GlusterFS や GFS2 などの特殊なファイル システムが必要です。EXT4、XFS、NTFS などの多くのファイル システムは、共有ブロック ストレージで使用するように設計されていません。VM 間で永続ディスクを共有するためのベスト プラクティスについては、ベスト プラクティスをご覧ください。フルマネージドのファイル ストレージが必要な場合は、Compute Engine VM に Filestore ファイル共有をマウントできます。
新しい永続ディスクでマルチライター モードを有効にするには、新しい永続ディスクを作成し、gcloud CLI に --multi-writer
フラグを指定するか、Compute Engine API に multiWriter
プロパティを指定します。詳細については、VM 間での永続ディスクの共有をご覧ください。
永続ディスクの暗号化
Compute Engine は、データがインスタンスから永続ディスクのストレージ領域に移動される前に、データを自動的に暗号化します。各永続ディスクは、システム定義の鍵か顧客指定の暗号鍵のいずれかで暗号化されたままになります。永続ディスクデータは複数の物理ディスクに分散されます。ユーザーはこれを制御できません。
永続ディスクを削除すると、Google は暗号鍵を破棄し、データを回復不能にします。このプロセスは元に戻せません。
データの暗号化に使用される暗号鍵を制御する必要がある場合は、顧客指定の暗号鍵でディスクを作成します。
制限事項
別のプロジェクトのインスタンスにディスクをアタッチすることはできません。
最大 10 個の VM インスタンスに永続ディスクを読み取り専用モードでアタッチできます。
カスタム マシンタイプか、最小 1 vCPU の事前定義されたマシンタイプの場合、最大で 128 個の永続ディスクをアタッチできます。
各永続ディスクの最大容量は 64 TB で、ディスクのアレイを管理して大きな論理ボリュームを作成する必要はありません。各インスタンスに接続できる永続ディスクの合計容量と個別の永続ディスクの数には上限があります。永続ディスクの上限は、事前定義されたマシンタイプとカスタム マシンタイプで変わりません。
ほとんどのインスタンスで永続ディスクを最大 128 まで、また、最大 257 TB の永続ディスク領域まで接続できます。インスタンスの合計永続ディスク容量には、ルート永続ディスクのサイズが含まれます。
共有コア マシンタイプは 16 個の永続ディスクと 3 TB の合計永続ディスク スペースに制限されています。
64 TB を超える論理ボリュームを作成する場合は、特に考慮しなければならない場合があります。大容量の論理ボリュームのパフォーマンスの詳細については、論理ボリューム サイズをご覧ください。
リージョン永続ディスク
リージョン永続ディスクのストレージ品質は、ゾーン永続ディスクと同様です。ただし、リージョン永続ディスクには、同じリージョン内の 2 つのゾーン間でのデータの耐久性の高いストレージとレプリケーションが用意されています。
Compute Engine で堅牢なシステムや高可用性サービスを設計する場合は、リージョン永続ディスクを使用するだけでなく、スナップショットを使用してデータをバックアップするなど、他のベスト プラクティスを取り入れる必要があります。リージョン永続ディスクは、リージョン マネージド インスタンス グループと連携するように設計されています。
万一ゾーンが停止した場合、--force-attach
フラグを使用することにより、リージョン永続ディスクで実行されているワークロードを別のゾーンにフェイルオーバーできます。--force-attach
フラグを使用すると、元の VM が使用できないためにディスクをその VM から切断できない場合でも、リージョン永続ディスクをスタンバイ VM インスタンスにアタッチできます。詳しくは、リージョン永続ディスクのフェイルオーバーをご覧ください。ゾーン永続ディスクをインスタンスに強制的にアタッチすることはできません。
パフォーマンス
リージョン永続ディスクは、永続ディスクのスナップショットを使用する場合よりも低い目標復旧時点(RPO)と目標復旧時間(RTO)を必要とするワークロード用に設計されています。
リージョン永続ディスクは、書き込みパフォーマンスが複数のゾーンにわたるデータ冗長性よりも重要でない場合のオプションです。
ゾーン永続ディスクと同様に、リージョン永続ディスクは、より多くの vCPU を持つインスタンスでより高い IOPS とスループット パフォーマンスを達成できます。この制限およびその他の制限の詳細については、パフォーマンス要件を満たすようにディスクを構成するをご覧ください。
より多くのディスク容量またはより高いパフォーマンスが必要なときは、ディスクのサイズを変更して、容量、スループット、IOPS を増強できます。
信頼性
Compute Engine は、リージョン永続ディスクのデータを、ディスクの作成時に選択したゾーンに複製します。各レプリカのデータは、冗長性を確保するために、ゾーン内の複数の物理マシンに分散されます。
ゾーン永続ディスクと同様に、永続ディスクのスナップショットを作成して、ユーザーエラーによるデータの損失から保護できます。スナップショットは増分なので、実行中のインスタンスにアタッチされているディスクのスナップショットを作成する場合であっても数分しかかかりません。
制限事項
- リージョン PD は、E2、N1、N2、N2D マシンタイプの VM でのみサポートされています。
- リージョン永続ディスクをブートディスクとして使用することはできません。
- 最大 10 個の VM インスタンスにリージョン バランス永続ディスクを読み取り専用モードでアタッチできます。
- リージョン永続ディスクは、スナップショットからは作成できる一方、イメージからは作成できません。
- リージョン標準永続ディスクの最小サイズは 200 GB です。
- リージョン永続ディスクのサイズを変更する場合、サイズの増加だけが可能です。
- リージョン永続ディスクのパフォーマンスは、ゾーン永続ディスクとは異なります。詳細については、ブロック ストレージのパフォーマンスをご覧ください。
ローカル SSD
ローカル SSD は、VM インスタンスをホストするサーバーに物理的に接続されます。標準永続ディスクまたは SSD 永続ディスクよりローカル SSD の方が高スループットで低レイテンシです。ローカル SSD に格納されたデータが保持されるのは、インスタンスが停止または削除されるまでのみです。各ローカル SSD のサイズは 375 GB ですが、インスタンスごとに最大 24 個のローカル SSD パーティションを接続し、合計でインスタンスあたり 9 TB の容量を使用できます。
高速のスクラッチ ディスクまたはキャッシュが必要で、インスタンス メモリを使用したくない場合は、ローカル SSD でインスタンスを作成します。
パフォーマンス
ローカル SSD は、非常に高い IOPS と低いレイテンシを提供するように設計されています。永続ディスクとは異なり、ローカル SSD でのストライプ化はユーザー自身が管理する必要があります。複数のローカル SSD パーティションを単一の論理ボリュームに結合してインスタンスごとのローカル SSD のパフォーマンスを最大化するか、ローカル SSD パーティションを個別にフォーマットします。
ローカル SSD のパフォーマンスは、選択するインターフェースによって異なります。ローカル SSD は SCSI インターフェースと NVMe インターフェースの両方で使用できます。
次の表に、NVMe を使用する場合のローカル SSD の容量と推定パフォーマンスの概要を示します。N1 マシンタイプの最大パフォーマンス上限を達成するには、32 個以上の vCPU を使用します。N2 および N2D マシンタイプの最大パフォーマンス上限を達成するには、24 個以上の vCPU を使用します。
ストレージ容量 | パーティション | IOPS | スループット (MB/秒) |
||||
---|---|---|---|---|---|---|---|
読み取り | 書き込み | 読み取り | 書き込み | ||||
3 TB | 8 | 680,000 | 360,000 | 2,650 | 1,400 | ||
6 TB | 16 | 1,600,000 | 800,000 | 6,240 | 3,120 | ||
9 TB | 24 | 2,400,000 | 1,200,000 | 9,360 | 4,680 |
詳細については、ローカル SSD のパフォーマンスとローカル SSD のパフォーマンスの最適化をご覧ください。
ローカル SSD の暗号化
Compute Engine は、データがローカル SSD ストレージ スペースに書き込まれる際に、データを自動的に暗号化します。ローカル SSD では顧客指定の暗号鍵は使用できません。
ローカル SSD でのデータの永続性
ローカル SSD データの永続性を読んで、ローカル SSD のデータがどのようなイベントでは保持され、どのようなイベントでは回復不能になるかを理解してください。
一般的な制限事項
16 個または 24 個のローカル SSD パーティションを使用し、それぞれ 6 TB または 9 TB のローカル SSD 領域のインスタンスを作成できます。N1、N2、N2D、カスタム マシンタイプを持つインスタンスで使用できます。IOPS の上限を達成するには、32 個以上の vCPU を持つ VM インスタンスを使用します。
共有コア マシンタイプのインスタンスは、ローカル SSD パーティションを接続できません。
ローカル SSD を、E2、Tau T2D、Tau T2A、M2 マシンタイプにアタッチすることはできません。
ローカル SSD とマシンタイプ
別段の注記がない限り、Compute Engine で使用できるほとんどのマシンタイプにローカル SSD を接続できます。ただし、各マシンタイプに対してアタッチできるローカル SSD の数には上限があります。
N1 マシンタイプ | 1 つの VM インスタンスにつき許可されるローカル SSD パーティションの数 |
---|---|
すべての N1 マシンタイプ | 1~8、16、24 |
N2 マシンタイプ | |
2~10 個の vCPU を備えたマシンタイプ(境界を含む) | 1、2、4、8、16、24 |
12~20 個の vCPU を備えたマシンタイプ(境界を含む) | 2、4、8、16、24 |
22~40 個の vCPU を備えたマシンタイプ(境界を含む) | 4、8、16、24 |
42~80 個の vCPU を備えたマシンタイプ(境界を含む) | 8、16、24 |
82~128 個の vCPU を備えたマシンタイプ(境界を含む) | 16 または 24 |
N2D マシンタイプ | |
2~16 個の vCPU を備えたマシンタイプ(境界を含む) | 1、2、4、8、16、24 |
32 または 48 個の vCPU を備えたマシンタイプ | 2、4、8、16、24 |
64 または 80 個の vCPU を備えたマシンタイプ | 4、8、16、24 |
96~224 個の vCPU を備えたマシンタイプ(境界を含む) | 8、16、24 |
C2 マシンタイプ | |
4 または 8 個の vCPU を備えたマシンタイプ | 1、2、4、8 |
16 個の vCPU を備えたマシンタイプ | 2、4、8 |
30 個の vCPU を備えたマシンタイプ | 4、8 |
60 個の vCPU を備えたマシンタイプ | 8 |
C2D マシンタイプ | |
2~16 個の vCPU を備えたマシンタイプ(境界を含む) | 1、2、4、8 |
32 個の vCPU を備えたマシンタイプ | 2、4、8 |
56 個の vCPU を備えたマシンタイプ | 4、8 |
112 個の vCPU を備えたマシンタイプ | 8 |
A2 マシンタイプ | |
a2-highgpu-1g |
1、2、4、8 |
a2-highgpu-2g |
2、4、8 |
a2-highgpu-4g |
4、8 |
a2-highgpu-8g または a2-megagpu-16g |
8 |
M1 マシンタイプ | |
m1-ultramem-40 |
利用不可 |
m1-ultramem-80 |
利用不可 |
m1-megamem-96 |
1~8 |
m1-ultramem-160 |
利用できません |
M3 マシンタイプ | |
m3-ultramem-32 |
4、8 |
m3-megamem-64 |
4、8 |
m3-ultramem-64 |
4、8 |
m3-megamem-128 |
8 |
m3-ultramem-128 |
8 |
E2、Tau T2D、Tau T2A、M2 のマシンタイプ | これらのマシンタイプはローカル SSD ドライブをサポートしていません。 |
ローカル SSD とプリエンプティブル VM インスタンス
ローカル SSD を備えたプリエンプティブル VM インスタンスを起動できます。その場合、Compute Engine により、ローカル SSD の使用に対して割引されたスポット料金が課金されます。プリエンプティブル インスタンスにアタッチされたローカル SSD は、通常のローカル SSD と同様に動作し、同じデータ永続性特性を持ち、インスタンスが存続する間接続されます。
Compute Engine は、実行開始してから 1 分以内にインスタンスがプリエンプティブルになった場合、ローカル SSD に対して課金しません。
ローカル SSD の詳細については、ローカル SSD の追加を参照してください。
確約利用割引でローカル SSD を予約する
特定のゾーンでローカル SSD リソースを予約する方法については、ゾーンリソースの予約をご覧ください。ローカル SSD の確約利用料金には予約が必要です。
Cloud Storage バケット
Cloud Storage バケットは、VM インスタンスで利用できる最も柔軟性、スケーラビリティ、耐久性の高いストレージオプションです。Persistent Disk とローカル SSD の低レイテンシをアプリが必要としない場合、Cloud Storage バケットにデータを保存できます。
レイテンシやスループットが重要ではなく、複数のインスタンスやゾーン間でデータを簡単に共有する必要がある場合は、インスタンスを Cloud Storage バケットに接続できます。
パフォーマンス
Cloud Storage バケットのパフォーマンスは、ストレージ クラスの選択と、インスタンスに対する相対的なバケットのロケーションに依存します。
インスタンスと同じロケーションで使用される Standard Storage クラスのパフォーマンスは、永続ディスクに匹敵しますが、レイテンシが高く、スループット特性は安定していません。マルチリージョンのロケーションで使用される Standard Storage クラスの場合、より大きなマルチリージョン ロケーション内の少なくとも 2 つのリージョンにデータが保存され、冗長性が維持されます。
Nearline Storage クラスと Coldline Storage クラスは、基本的に長期間のデータ アーカイブ用に使用します。Standard Storage クラスとは異なり、これらのアーカイブ クラスの保存期間は短く、読み取りでコストがかかります。したがって、頻繁にアクセスされないデータの長期保存に最適です。
信頼性
すべての Cloud Storage バケットには冗長性が組み込まれており、機器の障害からデータが保護され、データセンターのメンテナンス中でもデータの可用性が保証されます。すべての Cloud Storage オペレーションに対してチェックサムが計算され、読み込まれた内容が確実に書き込まれます。
柔軟性
永続ディスクとは異なり、Cloud Storage バケットはインスタンスが存在するゾーンに限定されません。また、バケットのデータを複数のインスタンスで同時に読み書きできます。たとえば、複数のゾーンのインスタンスを、データをそれぞれのゾーンの永続ディスクに複製するのではなく、同じバケット内のデータを読み書きするように構成できます。
Cloud Storage の暗号化
Compute Engine は、データがインスタンスから Cloud Storage バケットに移動される前に、データを自動的に暗号化します。バケットに書き込む前に、インスタンス上のファイルを暗号化する必要はありません。
永続ディスクと同じように、顧客指定の暗号鍵でバケットを暗号化できます。
Cloud Storage バケットに対するデータの書き込みと読み取り
Cloud Storage バケットにファイルの書き込みと読み取りを行うには、gsutil
コマンドライン ツールまたは Cloud Storage API を使用します。
gsutil
公開イメージを使用するほとんどの VM に gsutil
コマンドライン ツールがデフォルトでインストールされます。VM に gsutil
コマンドライン ツールがない場合、Google Cloud CLI の一部として gsutil
をインストールできます。
- Google Cloud コンソールで、[VM インスタンス] ページに移動します。
-
仮想マシン インスタンスのリストで、接続するインスタンスの行にある [SSH] をクリックします。
このインスタンスで
gsutil
を使用したことがない場合は、gcloud CLI を使用して認証情報を設定します。gcloud init
Cloud Storage スコープを持つサービス アカウントを使用するようにインスタンスが構成されている場合はこの手順をスキップできます。
gsutil
ツールを使用してバケットを作成し、データをバケットに書き込み、それらのバケットからデータを読み取ります。特定のバケットからデータを読み書きするには、バケットへのアクセス権を取得する必要があります。一般公開されているバケットからデータを読み取ることもできます。必要に応じて、Cloud Storage にデータをストリーミングすることもできます。
API
Cloud Storage スコープを持つサービス アカウントを使用するようにインスタンスを構成した場合、Cloud Storage API を使用して Cloud Storage バケットからデータを読み書きできます。
- Google Cloud コンソールで、[VM インスタンス] ページに移動します。
-
仮想マシン インスタンスのリストで、接続するインスタンスの行にある [SSH] をクリックします。
使用する言語のクライアント ライブラリをインストールして構成します。
必要に応じて、サンプルコードの挿入手順に沿ってインスタンス上に Cloud Storage バケットを作成します。
サンプルコードの挿入手順でデータの書き込みとデータの読み取りを行い、Cloud Storage バケットとの間でファイルの読み書きを行うコードをアプリに組み込みます。
次のステップ
- 永続ディスクをインスタンスに追加する。
- リージョン永続ディスクをインスタンスに追加する。
- ローカル SSD を備えたインスタンスを作成する。
- ファイル サーバーまたは分散ファイル システムを作成する。
- ディスクの割り当てを確認する。
- インスタンスで RAM ディスクをマウントする。
使ってみる
Google Cloud を初めて使用する場合は、アカウントを作成して、実際のシナリオで Compute Engine のパフォーマンスを評価してください。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。
Compute Engine の無料トライアル