Google war einer der ersten Anbieter in der Branche, der eine KI-/ML-Datenschutzverpflichtung veröffentlicht hat. Diese legt fest, dass Kunden die höchste Sicherheit und Kontrolle über ihre Daten haben sollten, die in der Cloud gespeichert werden. Diese Zusicherung gilt für Google Cloud Produkte mit generativer KI. Google stellt sicher, dass seine Teams sich durch strenge Data-Governance-Praktiken an diese Verpflichtungen halten. Dazu gehören auch Prüfungen der Daten, die Google Cloud bei der Entwicklung von Produkten verwendet. Weitere Informationen dazu, wie Google Daten verarbeitet, finden Sie auch im Zusatz zur Verarbeitung von Cloud-Daten von Google (CDPA).
Nutzung von generativer KI
AI Applications nutzt generative KI-Dienste, um Such-, personalisierte und konversationelle Funktionen zu entwickeln.
Gemäß der Google Cloud KI/ML-Datenschutzverpflichtung werden Kundendaten, die in KI-Anwendungen verwendet werden, nicht zum Trainieren von Foundation Models verwendet.
Foundation Models sind eingefroren und verarbeiten nur Eingaben, um Ausgaben für die von AI Applications bereitgestellten Dienste zu generieren.
Kundenspezifische Modelle
Falls zutreffend, werden kundenspezifische Modelle automatisch erstellt und nur im Kontext des Projekts verwendet, das für den Kunden für den AI Applications-Dienst spezifisch ist.
Kundendaten, die zum Erstellen dieser kundenspezifischen Modelle verwendet werden, werden nicht zum Trainieren von Foundation Models verwendet.
Kundenspezifische Modelle werden wie alle Kundendaten weiterhin durch die Sicherheitskontrollen und Best Practices von Google geschützt.