Responsabilité partagée des conteneurs de deep learning

La sécurité est une responsabilité partagée. Les conteneurs de deep learning sécurisent l'infrastructure évolutive que vous utilisez pour créer, entraîner et déployer vos propres modèles, et vous fournissent des outils et des contrôles de sécurité pour protéger vos données, votre code et vos modèles.

Les responsabilités de Google en termes de sécurité et de conformité concernant la fourniture de conteneurs de deep learning sont les suivantes:

  • Protéger l'infrastructure : Google est chargé de fournir une infrastructure sécurisée pour ses services, y compris la sécurité physique des centres de données, la sécurité réseau et la sécurité des applications. Cela inclut la conformité avec les normes et les réglementations dans le secteur.

  • Sécuriser la plate-forme : Google est responsable de la sécurisation de sa plate-forme, y compris de la gestion des contrôles des accès, de la surveillance des incidents de sécurité et de la réponse aux événements liés à la sécurité. Google fournit également à ses clients des outils pour gérer leurs propres paramètres et configurations de sécurité.

  • Assurer la conformité : Google assure la conformité avec les lois et les réglementations liées à la protection des données.

Les responsabilités du client en termes de sécurité sont les suivantes :

  • Utilisez les dernières versions des conteneurs de deep learning et des images de VM : les conteneurs de deep learning fournissent des conteneurs et des images de VM prédéfinis pour simplifier l'utilisation de ses services. Google est chargé de créer des versions de ces images à mesure que des failles sont identifiées. Vous devez vous assurer d'avoir correctement configuré vos services de manière à ce qu'ils utilisent la dernière version, ou effectuer une mise à niveau manuelle vers la dernière version.

  • Gérer les contrôles d'accès : vous êtes responsable de la gestion des contrôles des accès sur vos propres données et services. Cela inclut la gestion des accès des utilisateurs ainsi que les contrôles d'authentification et d'autorisation, ainsi que la sécurisation de vos propres applications et données.

  • Applications sécurisées: vous êtes responsable de la sécurité de vos propres applications exécutées sur la plate-forme de conteneurs de deep learning, y compris en appliquant des pratiques de codage sécurisées et en testant régulièrement les failles.

  • Surveiller les incidents liés à la sécurité : vous devez surveiller vos propres applications afin de détecter les incidents liés à la sécurité et les signaler à Google si nécessaire.

  • Respectez les lois et règlements applicables à vos cas d'utilisation: vous maîtrisez les exigences de sécurité et réglementaires de votre entreprise, et vous savez comment elles s'appliquent à votre utilisation des conteneurs de deep learning.

Étapes suivantes