Deep Learning VM の共有責任

セキュリティは共有責任です。Deep Learning VM は、独自のモデルの構築、トレーニング、デプロイに使用するスケーラブルなインフラストラクチャを保護します。また、データ、コード、モデルを保護するためのツールとセキュリティ制御を提供します。

Deep Learning VM の提供における Google のセキュリティとコンプライアンスの責任は次のとおりです。

  • インフラストラクチャの保護: Google は、データセンターの物理的セキュリティ、ネットワーク セキュリティ、アプリケーション セキュリティなど、サービスに安全なインフラストラクチャを提供する責任を担っています。これには、適用される業界標準と規制の遵守が含まれます。

  • プラットフォームの保護: Google は、アクセス制御の管理、セキュリティ インシデントのモニタリング、セキュリティ イベントへの対応など、プラットフォームの保護を担当しています。Google では、独自のセキュリティ設定と構成を管理するためのツールも提供しています。

  • コンプライアンスの維持: Google は、関連するデータ保護法と規制の遵守を維持しています。

お客様のセキュリティ責任には次のものがあります。

  • 最新バージョンの Deep Learning VM コンテナと VM イメージを使用する: Deep Learning VM には、サービスの使用を簡素化するために、ビルド済みのコンテナと VM イメージが用意されています。脆弱性が特定された場合、Google はこうしたイメージの新しいバージョンを作成する責任があります。ユーザーは、最新バージョンを使用するようにサービスを適切に構成するか、最新バージョンに手動でアップグレードする必要があります。

  • アクセス制御を管理する: 独自のデータとサービスへのアクセス制御を管理する責任があります。これには、ユーザー アクセス、認証、承認制御の管理、独自のアプリケーションやデータの保護が含まれます。

  • 安全なアプリケーション: 安全なコーディング方法の実装や、脆弱性の定期的なテストなど、Deep Learning VM プラットフォームで実行される独自のアプリケーションを保護する必要があります。

  • セキュリティ インシデントのモニタリング: セキュリティ インシデントの独自のアプリケーションをモニタリングし、必要に応じて Google にインシデントを報告する責任があります。

  • ユースケースに適用される法律や規制を遵守する: ビジネスのセキュリティと規制の要件、および Deep Learning VM の使用に適用される仕組みについての専門家です。

次のステップ