Google è stata la prima nel settore a pubblicare un L'impegno per la privacy per IA/ML, che delinea la nostra convinzione che i clienti debbano avere il massimo livello la sicurezza e il controllo dei propri dati archiviati nel cloud. Questo impegno si estende ai prodotti di IA generativa di Google Cloud. Google garantisce che i suoi team rispettino questi impegni tramite solide pratiche di governance dei dati, che includono revisioni dei dati utilizzati da Google Cloud nello sviluppo dei suoi prodotti. Ulteriori dettagli su come Google elabora i dati sono disponibili anche in Addendum per il trattamento dei dati Cloud (ATDC) di Google.
Definizioni
Termine | Descrizione |
---|---|
Modelli di base | Modelli di machine learning (ML) su larga scala che vengono addestrati su una grande quantità di dati e possono essere utilizzati per una vasta gamma di attività. |
Modelli di adattatori | Chiamato anche livelli adattatore o pesi dell'adattatore. Sono modelli di ML che funzionano in combinazione con un modello di base per migliorare le prestazioni di attività specializzate. |
Dati dei clienti | Per una definizione, consulta i Termini di servizio della piattaforma Google Cloud. |
Formazione | Il processo di utilizzo dei dati per addestrare un modello ML. |
Previsione | Noto anche come inferenza, si riferisce all'elaborazione degli input con i modelli ML per generare output. |
Classificatori di sicurezza | Categoria relativa all'identificazione di determinate categorie di contenuti, come il materiale potenzialmente violento durante il processo di previsione. |
Addestramento del modello di base
Per impostazione predefinita, Google Cloud non utilizza i dati dei clienti per addestrare i suoi modelli di base. I clienti possono utilizzare i modelli di base di Google Cloud sapendo che i loro prompt, le loro risposte e gli eventuali dati di addestramento dei modelli di adattamento non vengono utilizzati per l'addestramento dei modelli di base.
Addestramento del modello dell'adattatore
Vertex AI offre un servizio che consente ai clienti di addestrare l'adattatore di grandi dimensioni. I dati di addestramento del modello dell'adattatore sono dati dei clienti e non vengono archiviati. Inoltre, I dati dei clienti non vengono utilizzati per migliorare i modelli di base di Google Cloud. La modello dell'adattatore è disponibile solo per il cliente che l'ha addestrato. Google non rivendica la proprietà dei modelli di adattatore, tranne nella misura in cui i modelli di adattatore utilizzano la proprietà intellettuale di Google esistente. Per impostazione predefinita, i dati dei clienti vengono archiviati in formato criptato e sono criptati in transito. Il cliente può anche controllare la crittografia dei modelli di adattatore mediante chiavi di crittografia gestite dal cliente (CMEK) e può eliminare i modelli di adattatore in qualsiasi momento.
Previsione
Input e output elaborati dai modelli di base, dai modelli degli adattatori e dai modelli di i classificatori durante la previsione sono i dati dei clienti. I dati dei clienti non vengono mai registrati da Google, senza l'autorizzazione esplicita del cliente che attiva la funzionalità per consentire di memorizzare nella cache input e output.
Durante la previsione, non registriamo i dati dei clienti per generare il relativo output o addestrare i modelli di base. Per impostazione predefinita, Google memorizza nella cache gli input e gli output di un cliente per i modelli Gemini per accelerare le risposte ai prompt successivi del cliente. I contenuti memorizzati nella cache vengono archiviati per un massimo di 24 ore. Per i dati memorizzati nella cache viene applicata la privacy a livello di progetto. Per scoprire come utilizzare l'API per ottenere lo stato della memorizzazione nella cache, disattivala o riattivala per un progetto Google Cloud, consulta Come faccio ad attivare o disattivare la memorizzazione nella cache? Se disattivi la memorizzazione nella cache, potresti riscontrare una latenza maggiore.
Disattiva il programma Trusted Tester
Se in precedenza hai consentito a Google di utilizzare i tuoi dati per migliorare pre-GA nell'ambito dei termini del programma Trusted Tester, puoi utilizzare Programma Trusted Tester - Richiesta di non partecipazione modulo per la disattivazione.
Passaggi successivi
- Scopri di più sulle best practice per l'IA responsabile e sui filtri di sicurezza di Vertex AI.