Google a été l'un des premiers sur le marché à proposer un engagement en matière de confidentialité pour l'IA/le ML, ce qui souligne le fait que nos clients devraient disposer du plus haut niveau de sécurité et de contrôle sur leurs données stockées dans le cloud. Cet engagement s'étend aux produits d'IA générative de Google Cloud. Google s'assure que ses équipes respectent ces engagements grâce à des pratiques robustes de gouvernance des données, qui incluent l'examen des données utilisées par Google Cloud pour le développement de ses produits. Pour en savoir plus sur la manière dont Google traite les données, consultez l'avenant relatif au traitement des données dans le cloud (CDPA) de Google.
Définitions
Terme | Description |
---|---|
Modèles de fondation | Modèles de machine learning à grande échelle entraînés sur une grande quantité de données et pouvant être utilisés pour un large éventail de tâches. |
Modèles d'adaptateur | Également appelé couches d'adaptateur ou pondérations d'adaptateur. Il s'agit de modèles de ML qui fonctionnent conjointement avec un modèle de fondation pour améliorer les performances des tâches spécialisées. |
Données client | Pour en savoir plus, consultez les Conditions d'utilisation de Google Cloud Platform. |
Formation | Processus d'utilisation des données pour entraîner un modèle de ML. |
Prédiction | Également appelée inférence, qui fait référence au traitement des entrées avec des modèles de ML pour générer des sorties. |
Classificateurs de sécurité | Permet d'identifier certaines catégories de contenu, telles que les contenus potentiellement violents pendant le processus de prédiction. |
Entraînement de modèle de fondation
Par défaut, Google Cloud n'utilise pas les données client pour entraîner ses modèles de fondation. Les clients peuvent utiliser les modèles de fondation de Google Cloud en sachant que leurs requêtes, leurs réponses et les données d'entraînement de modèle adaptateur ne sont pas utilisées pour l'entraînement des modèles de fondation.
Entraînement du modèle d'adaptateur
Vertex AI propose un service qui permet aux clients d'entraîner des modèles d'adaptateur. Les données d'entraînement du modèle d'adaptateur sont des données client et ne sont pas stockées. En outre, les données client ne sont pas utilisées pour améliorer les modèles de fondation de Google Cloud. Le modèle d'adaptateur n'est disponible que pour le client qui a entraîné le modèle d'adaptateur. Google ne revendique pas la propriété des modèles d'adaptateur, sauf dans la mesure où ils utilisent une propriété intellectuelle préexistante de Google. Par défaut, les données client sont stockées sous forme chiffrée et chiffrées en transit. Le client peut également contrôler le chiffrement de ses modèles d'adaptateur à l'aide de clés de chiffrement gérées par le client et peut supprimer les modèles d'adaptateur à tout moment.
Prédiction
Les entrées et sorties traitées par les modèles de fondation, les modèles d'adaptateur et les classificateurs de sécurité pendant la prédiction sont des données client. Les données client ne sont jamais consignées par Google sans l'autorisation explicite du client pour la mise en cache des entrées et des sorties.
Au cours de la prédiction, nous ne journalisons pas les données client pour générer les résultats d'un client ou pour entraîner les modèles de fondation. Par défaut, Google met en cache les entrées et les sorties d'un client pour les modèles Gemini afin d'accélérer les réponses aux requêtes ultérieures du client. Les contenus mis en cache sont stockés pendant 24 heures au maximum. La confidentialité au niveau du projet est appliquée aux données mises en cache. Pour savoir comment utiliser l'API pour obtenir l'état de la mise en cache, désactiver la mise en cache ou la réactiver pour un projet Google Cloud, consultez la page Comment activer ou désactiver la mise en cache ? Vous risquez de rencontrer des taux de latence plus élevés si vous désactivez la mise en cache.
Se désinscrire du programme de Testeur de confiance
Si vous avez précédemment autorisé Google à utiliser vos données pour améliorer ses services d'IA/ML pré-DG dans le cadre des conditions du programme Testeur de confiance, vous pouvez utiliser le formulaire Programme Testeur de confiance – Demande de désinscription pour vous désinscrire.