Google a été l'un des premiers sur le marché à proposer un engagement en matière de confidentialité pour l'IA/le ML, en phase avec sa volonté d'offrir à ses clients le plus haut niveau de sécurité et de contrôle sur leurs données stockées dans le cloud. Cet engagement s'étend aux produits d'IA générative de Google Cloud. Google s'assure que ses équipes respectent ces engagements grâce à des pratiques robustes de gouvernance des données, qui incluent l'examen des données utilisées par Google Cloud pour le développement de ses produits. Pour en savoir plus sur la manière dont Google traite les données, consultez l'avenant relatif au traitement des données dans le cloud (CDPA) de Google.
Définitions
Terme | Description |
---|---|
Modèles de fondation | Modèles de machine learning à grande échelle entraînés sur une grande quantité de données et pouvant être utilisés pour un large éventail de tâches. |
Modèles d'adaptateur | Également appelé couches d'adaptateur ou pondérations d'adaptateur. Il s'agit de modèles de ML qui fonctionnent conjointement avec un modèle de fondation afin d'améliorer les performances des tâches spécialisées. |
Données client | Pour en savoir plus, consultez les Conditions d'utilisation de Google Cloud Platform. |
Entraînement | Processus d'utilisation des données pour entraîner un modèle de ML. |
Prédiction | Également appelée inférence, qui fait référence au traitement des entrées avec des modèles de ML pour générer des sorties. |
Classificateurs de sécurité | Permet d'identifier certaines catégories de contenu pendant le processus de prédiction, telles que les contenus potentiellement violents. |
Entraînement de modèle de fondation
Par défaut, Google Cloud n'utilise pas de données client pour entraîner ses modèles de fondation. Les clients peuvent utiliser les modèles de fondation de Google Cloud en sachant que leurs requêtes, leurs réponses et les données d'entraînement de quelconques modèles adaptateurs ne sont pas utilisées pour l'entraînement des modèles de fondation.
Entraînement du modèle d'adaptateur
Vertex AI propose un service qui permet aux clients d'entraîner des modèles adaptateurs. Les données d'entraînement du modèle adaptateur sont des données client et ne sont pas stockées. En outre, les données client ne sont pas utilisées pour améliorer les modèles de fondation de Google Cloud. Le modèle adaptateur n'est disponible que pour le client qui a entraîné le modèle adaptateur. Google ne revendique pas la propriété des modèles adaptateurs, sauf dans la mesure où ils utilisent une propriété intellectuelle préexistante de Google. Par défaut, les données client sont stockées sous forme chiffrée et sont chiffrées en transit. Le client peut également contrôler le chiffrement de ses modèles adaptateurs à l'aide de clés de chiffrement gérées par le client (CMEK) et peut supprimer les modèles adaptateurs à tout moment.
Prédiction
Les entrées et sorties traitées par les modèles de fondation, les modèles adaptateurs et les classificateurs de sécurité pendant la prédiction sont des données client. Les données client ne sont jamais consignées par Google sans l'autorisation explicite du client pour la mise en cache des entrées et des sorties.
Au cours de la prédiction, nous ne journalisons pas les données client pour générer la sortie d'un client ou pour entraîner les modèles de fondation. Par défaut, Google met en cache les entrées et les sorties d'un client pour les modèles Gemini afin d'accélérer les réponses aux requêtes ultérieures du client. Les contenus mis en cache sont stockés pendant 24 heures au maximum. La confidentialité au niveau du projet est appliquée aux données mises en cache. Pour savoir comment utiliser l'API pour obtenir l'état de la mise en cache, désactiver la mise en cache ou la réactiver pour un projet Google Cloud, consultez la page Comment activer ou désactiver la mise en cache ? Si vous désactivez la mise en cache, vous risquez de rencontrer des taux de latence plus élevés.
Se désinscrire du programme de Testeur de confiance
Si vous avez précédemment autorisé Google à utiliser vos données pour améliorer ses services d'IA/ML pré-DG dans le cadre des conditions du programme Testeur de confiance, vous pouvez utiliser le formulaire Programme Testeur de confiance – Demande de désinscription pour vous désinscrire.