Creare ed eseguire il deployment di modelli di AI generativa e machine learning in un'azienda

Last reviewed 2024-03-28 UTC

Man mano che l'IA generativa e i modelli di machine learning (ML) diventano più comuni nelle attività e nei processi aziendali, le aziende hanno sempre più bisogno di indicazioni sullo sviluppo dei modelli per garantire coerenza, ripetibilità, sicurezza e sicurezza. Per aiutare le grandi aziende a creare ed eseguire il deployment di modelli di AI generativa e ML, abbiamo creato il progetto aziendale di AI generativa e machine learning. Questo progetto fornisce una guida completa all'intero ciclo di vita dello sviluppo dell'IA, dall'esplorazione e dalla sperimentazione preliminari dei dati fino all'addestramento, al deployment e al monitoraggio dei modelli.

Il progetto aziendale di AI generativa e ML offre molti vantaggi, tra cui i seguenti:

  • Indicazioni prescrittive: indicazioni chiare su come creare, configurare ed eseguire il deployment di un ambiente di sviluppo di IA generativa e ML basato su Vertex AI. Puoi usare Vertex AI per sviluppare modelli personalizzati.
  • Maggiore efficienza: ampia automazione per ridurre il lavoro manuale del deployment dell'infrastruttura e dello sviluppo di modelli di AI generativa e ML. L'Automation ti permette di concentrarti su attività a valore aggiunto, come la progettazione e la sperimentazione dei modelli.
  • Governance e verificabilità migliorate: riproducibilità, tracciabilità e deployment controllato dei modelli sono incorporati nella progettazione di questo progetto base. Questo vantaggio ti consente di gestire meglio il ciclo di vita del modello di AI generativa e ML e di assicurarti di poter riaddestrare e valutare i modelli in modo coerente, con audit trail chiari.
  • Sicurezza: il progetto base è progettato per essere in linea con i requisiti del framework del National Institute of Standards and Technology (NIST) e del framework del Cyber Risk Institute (CRI).

Il progetto aziendale di AI generativa e ML include quanto segue:

  • Un repository GitHub che contiene un set di configurazioni Terraform, un blocco note Jupyter, una definizione di Vertex AI Pipelines , un Cloud Composer Grafico aciclico diretto (DAG) e script accessori. I componenti nel repository completano quanto segue:
    • La configurazione di Terraform imposta una piattaforma di sviluppo di modelli Vertex AI in grado di supportare più team di sviluppo.
    • Il blocco note Jupyter ti consente di sviluppare un modello in modo interattivo.
    • La definizione di Vertex AI Pipelines traduce il blocco note Jupyter in un pattern riproducibile che può essere utilizzato per gli ambienti di produzione.
    • Il DAG di Cloud Composer offre un metodo alternativo alle pipeline di Vertex AI.
    • Gli script accessori consentono di eseguire il deployment del codice e delle pipeline Terraform.
  • Una guida all'architettura, alla progettazione, ai controlli di sicurezza e ai processi operativi per implementare questo progetto (questo documento).

Il progetto aziendale di AI generativa e ML è progettato per essere compatibile con il progetto di base aziendale. Il progetto di base aziendale fornisce una serie di servizi di base su cui si basa questo progetto, ad esempio le reti VPC. Puoi eseguire il deployment del progetto di AI generativa e ML aziendale senza eseguire il deployment del progetto di base aziendale se il tuo ambiente Google Cloud fornisce le funzionalità necessarie per supportare il progetto di AI generativa e ML aziendale.

Questo documento è destinato a Cloud Architect, data scientist e data engineer che possono utilizzare il progetto per creare ed eseguire il deployment di nuovi modelli di AI generativa o ML su Google Cloud. Questo documento presuppone che tu abbia familiarità con lo sviluppo di modelli di IA generativa e ML e con la piattaforma di machine learning Vertex AI.

Panoramica dei progetti aziendali di AI generativa e ML

Il progetto enterprise di AI generativa e ML adotta un approccio a più livelli per fornire le funzionalità che consentono l'addestramento di modelli diAIA generativa e ML. Il progetto è progettato per essere implementato e controllato attraverso un flusso di lavoro MLOps. Il seguente diagramma mostra in che modo il livello MLOps di cui è stato eseguito il deployment da questo progetto si riferisce ad altri livelli nel tuo ambiente.

I livelli del progetto.

Questo diagramma include quanto segue:

  • L'infrastruttura Google Cloud fornisce funzionalità di sicurezza come crittografia at-rest e crittografia dei dati in transito, nonché componenti di base di base come calcolo e archiviazione.
  • La piattaforma di base aziendale offre una base di risorse come i sistemi di identità, networking, logging, monitoraggio e deployment che ti consentono di adottare Google Cloud per i tuoi carichi di lavoro AI.
  • Il livello dati è un livello facoltativo nello stack di sviluppo che offre varie funzionalità come importazione, archiviazione dei dati, controllo dell'accesso ai dati, governance dei dati, monitoraggio dei dati e condivisione dei dati.
  • Il livello AI generativa e ML (questo progetto) consente di creare modelli ed eseguirne il deployment. Puoi utilizzare questo livello per l'esplorazione e la sperimentazione preliminari dei dati, l'addestramento del modello, la pubblicazione e il monitoraggio del modello.
  • CI/CD fornisce gli strumenti per automatizzare il provisioning, la configurazione, la gestione e il deployment di infrastruttura, flussi di lavoro e componenti software. Questi componenti consentono di garantire deployment coerenti, affidabili e verificabili, ridurre al minimo gli errori manuali e accelerare il ciclo di sviluppo complessivo.

Per mostrare come viene usato l'ambiente AI generativa e ML, il progetto include lo sviluppo di un modello ML di esempio. Lo sviluppo del modello di esempio ti guida nella creazione di un modello, nella creazione delle pipeline operative, nell'addestramento del modello, nel test del modello e nel suo deployment.

Architettura

Il progetto enterprise di AI generativa e ML ti offre la possibilità di lavorare direttamente con i dati. Puoi creare modelli in un ambiente interattivo (di sviluppo) e promuoverli in un ambiente operativo (di produzione o non di produzione).

Nell'ambiente interattivo, puoi sviluppare modelli ML utilizzando Vertex AI Workbench, un servizio di blocco note Jupyter gestito da Google. Crea funzionalità di estrazione dei dati, trasformazione dei dati e ottimizzazione dei modelli nell'ambiente interattivo e promuovi queste funzionalità nell'ambiente operativo.

Nell'ambiente operativo (non di produzione), utilizzi le pipeline per creare e testare i propri modelli in modo ripetibile e controllabile. Se le prestazioni del modello ti soddisfano, puoi eseguire il deployment del modello nell'ambiente operativo (produzione). Il seguente diagramma mostra le varie componenti degli ambienti interattivi e operativi.

L'architettura del progetto base.

Questo diagramma include quanto segue:

  1. Sistemi di deployment: servizi come Catalogo dei servizi e Cloud Build eseguono il deployment delle risorse Google Cloud nell'ambiente interattivo. Cloud Build esegue anche il deployment di risorse e flussi di lavoro di creazione di modelli Google Cloud.
  2. Origini dati: servizi come BigQuery, Cloud Storage, Spanner e AlloyDB per PostgreSQL ospitano i tuoi dati. Il progetto fornisce dati di esempio in BigQuery e Cloud Storage.
  3. Ambiente interattivo: un ambiente in cui puoi interagire direttamente con i dati, sperimentare i modelli e creare pipeline da utilizzare nell'ambiente operativo.
  4. Ambiente operativo: un ambiente in cui puoi creare e testare i tuoi modelli in modo ripetibile e quindi eseguirne il deployment in produzione.
  5. Servizi del modello: i seguenti servizi supportano varie attività MLOps:
  6. Archiviazione degli artefatti: questi servizi archiviano il codice e i container per lo sviluppo e le pipeline del modello. Questi servizi includono:
    • Artifact Registry archivia i container utilizzati dalle pipeline nell'ambiente operativo per controllare le varie fasi dello sviluppo del modello.
    • Il repository Git archivia il codebase dei vari componenti utilizzati nello sviluppo del modello.

Utente tipo della piattaforma

Quando esegui il deployment del progetto base, crei quattro tipi di gruppi di utenti: un gruppo di MLOps, un gruppo di ingegneri DevOps, un gruppo di data scientist e un gruppo di data engineer. I gruppi hanno le seguenti responsabilità:

  • Il gruppo di MLOps engineer sviluppa i modelli Terraform utilizzati dal catalogo dei servizi. Questo team fornisce modelli utilizzati da molti modelli.
  • Il gruppo di Ingegneri DevOps approva i modelli Terraform creati dal gruppo di sviluppatori MLOps.
  • Il gruppo di data scientist sviluppa modelli, pipeline e container utilizzati dalle pipeline. In genere, un singolo team è dedicato alla creazione di un singolo modello.
  • Il gruppo di Data Engineer approva l'utilizzo degli artefatti creati dal gruppo di data science.

Struttura organizzativa

che usa la struttura organizzativa del progetto di base aziendale come base per il deployment dei carichi di lavoro AI e ML. Il seguente diagramma mostra i progetti aggiunti alla base per abilitare carichi di lavoro di AI e ML.

La struttura organizzativa del progetto.

La seguente tabella descrive i progetti utilizzati dal progetto diAIA generativa e ML.

Cartella Progetto Descrizione

common

prj-c-infra-pipeline

Contiene la pipeline di deployment utilizzata per creare i componenti di AI generativa e ML del progetto. Per ulteriori informazioni, consulta la pipeline di infrastruttura nel progetto di base di un'azienda.

prj-c-service-catalog

Contiene l'infrastruttura utilizzata dal catalogo dei servizi per eseguire il deployment delle risorse nell'ambiente interattivo.

development

prj-d-machine-learning

Contiene i componenti per lo sviluppo di un caso d'uso AI e ML in modalità interattiva.

non-production

prj-n-machine-learning

Contiene i componenti per testare e valutare un caso d'uso AI e ML di cui è possibile eseguire il deployment in produzione.

production

prj-p-machine-learning

Contiene i componenti per il deployment di un caso d'uso di AI e ML in produzione.

Networking

Il progetto utilizza la rete VPC condiviso creata nel progetto di base dell'azienda. Nell'ambiente interattivo (di sviluppo), viene eseguito il deployment dei blocchi note Vertex AI Workbench nei progetti di servizio. Gli utenti on-premise possono accedere ai progetti utilizzando lo spazio di indirizzi IP privati nella rete VPC condiviso. Gli utenti on-premise possono accedere alle API Google Cloud, ad esempio Cloud Storage, tramite Private Service Connect. Ogni rete VPC condivisa (sviluppo, non produzione e produzione) ha un endpoint Private Service Connect distinto.

La rete del progetto.

L'ambiente operativo (non di produzione e di produzione) ha due reti VPC condiviso separate a cui le risorse on-premise possono accedere tramite indirizzi IP privati. Gli ambienti interattivi e operativi sono protetti mediante Controlli di servizio VPC.

Cloud Logging

Questo progetto utilizza le funzionalità di Cloud Logging fornite dal progetto di base aziendale.

Cloud Monitoring

Per monitorare i job di addestramento personalizzato, il progetto include una dashboard che consente di monitorare le seguenti metriche:

  • Utilizzo della CPU di ciascun nodo di addestramento
  • Utilizzo della memoria di ciascun nodo di addestramento
  • Utilizzo della rete

Se un job di addestramento personalizzato non riesce, il progetto utilizza Cloud Monitoring per fornirti un meccanismo di avviso via email che segnala l'errore. Per monitorare i modelli di cui è stato eseguito il deployment che utilizzano l'endpoint Vertex AI, il progetto viene fornito con una dashboard con le seguenti metriche:

  • Metriche sul rendimento:
    • Previsioni al secondo
    • Latenza del modello
  • Utilizzo delle risorse:
    • Utilizzo CPU
    • Memoria utilizzata

Configurazione dei criteri dell'organizzazione

Oltre ai criteri organizzativi creati dal progetto di base aziendale, questo progetto aggiunge i criteri dell'organizzazione elencati nella postura predefinita per l'IA sicura, estesa.

Suite operativa

Questa sezione descrive gli ambienti inclusi nel progetto base.

Ambiente interattivo

Per consentirti di esplorare i dati e sviluppare modelli mantenendo la strategia di sicurezza della tua organizzazione, l'ambiente interattivo offre un insieme controllato di azioni che puoi eseguire. Puoi eseguire il deployment delle risorse Google Cloud utilizzando uno dei seguenti metodi:

  • Il catalogo dei servizi, preconfigurato tramite l'automazione con i modelli di risorse,
  • Creare artefatti di codice ed eseguire il commit in repository Git utilizzando i blocchi note Vertex AI Workbench

Il seguente diagramma illustra l'ambiente interattivo.

L'ambiente interattivo del progetto.

Un flusso interattivo tipico è associato ai seguenti passaggi e componenti:

  1. Il catalogo dei servizi fornisce un elenco selezionato di risorse Google Cloud di cui i data scientist possono eseguire il deployment nell'ambiente interattivo. Il data scientist esegue il deployment della risorsa blocco note Vertex AI Workbench dal catalogo dei servizi.
  2. I blocchi note di Vertex AI Workbench sono l'interfaccia principale utilizzata dai data scientist per lavorare con le risorse Google Cloud distribuite nell'ambiente interattivo. I blocchi note consentono ai data scientist di estrarre il codice da Git e aggiornarlo in base alle esigenze.
  3. I dati di origine vengono archiviati al di fuori dell'ambiente interattivo e gestiti separatamente da questo progetto base. L'accesso ai dati è controllato da un proprietario dei dati. I data scientist possono richiedere l'accesso in lettura ai dati di origine, ma non possono scrivere nei dati di origine.
  4. I data scientist possono trasferire i dati di origine nell'ambiente interattivo in risorse create tramite il catalogo dei servizi. Nell'ambiente interattivo, i data scientist possono leggere, scrivere e manipolare i dati. Tuttavia, i data scientist non possono trasferire i dati dall'ambiente interattivo o concedere l'accesso alle risorse create dal catalogo dei servizi. BigQuery archivia dati strutturati e semistrutturati, mentre Cloud Storage archivia i dati non strutturati.
  5. Feature Store fornisce ai data scientist un accesso a bassa latenza alle caratteristiche per l'addestramento dei modelli.
  6. I data scientist addestrano i modelli utilizzando i job di addestramento personalizzato di Vertex AI. Il progetto utilizza anche Vertex AI per l'ottimizzazione degli iperparametri.

  7. I data scientist valutano i modelli utilizzando Vertex AI Experiments e Vertex AI TensorBoard. Vertex AI Experiments consente di eseguire più addestramenti su un modello utilizzando parametri, tecniche di modellazione, architetture e input diversi. Vertex AI TensorBoard consente di monitorare, visualizzare e confrontare i vari esperimenti eseguiti e poi scegliere il modello con le caratteristiche migliori osservate da convalidare.

  8. I data scientist convalidano i propri modelli con la valutazione Vertex AI. Per convalidare i propri modelli, i data scientist suddividono i dati di origine in un set di dati di addestramento e in un set di dati di convalida ed eseguono una valutazione Vertex AI sul tuo modello.

  9. I data scientist creano container utilizzando Cloud Build, archiviano i container in Artifact Registry e li utilizzano nelle pipeline che si trovano nell'ambiente operativo.

Ambiente operativo

L'ambiente operativo utilizza un repository Git e delle pipeline. Questo ambiente include l'ambiente di produzione e l'ambiente non di produzione del progetto di base aziendale. Nell'ambiente non di produzione, il data scientist seleziona una pipeline da una delle pipeline sviluppate nell'ambiente interattivo. Il data scientist può eseguire la pipeline nell'ambiente non di produzione, valutare i risultati e quindi determinare quale modello promuovere nell'ambiente di produzione.

Il progetto include una pipeline di esempio creata utilizzando Cloud Composer e una pipeline di esempio creata utilizzando Vertex AI Pipelines. Il diagramma seguente mostra l'ambiente operativo.

L'ambiente operativo del progetto.

Un flusso operativo tipico prevede i seguenti passaggi:

  1. Un data scientist unisce correttamente un ramo di sviluppo a un ramo di deployment.
  2. L'unione nel ramo di deployment attiva una pipeline di Cloud Build.
  3. Si verifica uno dei seguenti elementi:
    • Se un data scientist utilizza Cloud Composer come orchestratore, la pipeline di Cloud Build sposta un DAG in Cloud Storage.
    • Se il data scientist usa Vertex AI Pipelines come orchestratore, la pipeline sposta un file Python in Cloud Storage.
  4. La pipeline di Cloud Build attiva l'orchestratore (Cloud Composer o Vertex AI Pipelines).
  5. L'orchestratore estrae la definizione della pipeline da Cloud Storage e inizia a eseguirla.
  6. La pipeline estrae un container da Artifact Registry che viene utilizzato da tutte le fasi della pipeline per attivare i servizi Vertex AI.
  7. La pipeline, utilizzando il container, attiva un trasferimento di dati dal progetto di dati di origine all'ambiente operativo.
  8. I dati vengono trasformati, convalidati, suddivisi e preparati per l'addestramento e la convalida del modello da parte della pipeline.
  9. Se necessario, la pipeline sposta i dati in Vertex AI Feature Store per un facile accesso durante l'addestramento del modello.
  10. La pipeline usa l'addestramento di modelli personalizzati di Vertex AI per addestrare il modello.
  11. La pipeline utilizza la valutazione di Vertex AI per convalidare il modello.
  12. Un modello convalidato viene importato nel registro dei modelli dalla pipeline.
  13. Il modello importato viene quindi utilizzato per generare previsioni tramite previsioni online o previsioni batch.
  14. Dopo il deployment del modello nell'ambiente di produzione, la pipeline utilizza Vertex AI Model Monitoring per rilevare se le prestazioni del modello si deteriorano mediante il monitoraggio per il disallineamento addestramento/produzione e la derivazione della previsione.

Deployment

Il progetto utilizza una serie di pipeline Cloud Build per eseguire il provisioning dell'infrastruttura del progetto, della pipeline nell'ambiente operativo e dei container utilizzati per creare modelli di AI generativa e ML. Le pipeline utilizzate e le risorse di cui è stato eseguito il provisioning sono le seguenti:

  • pipeline dell'infrastruttura: questa pipeline fa parte del progetto di base dell'azienda. Questa pipeline esegue il provisioning delle risorse Google Cloud associate all'ambiente interattivo e all'ambiente operativo.
  • pipeline interattiva: la pipeline interattiva fa parte dell'ambiente interattivo. Questa pipeline copia i modelli Terraform da un repository Git a un bucket Cloud Storage che può essere letto da catalogo dei servizi. La pipeline interattiva viene attivata quando viene effettuata una richiesta di pull per l'unione con il ramo principale.
  • pipeline di container: il progetto include una pipeline di Cloud Build per creare i container utilizzati nella pipeline operativa. I container di cui viene eseguito il deployment in più ambienti sono immagini container immutabili. Le immagini container immutabili contribuiscono a garantire che venga eseguito il deployment della stessa immagine in tutti gli ambienti e non possa essere modificata durante l'esecuzione. Se devi modificare l'applicazione, devi ricreare l'immagine ed eseguirne nuovamente il deployment. Le immagini container utilizzate nel progetto base vengono archiviate in Artifact Registry e fanno riferimento ai file di configurazione utilizzati nella pipeline operativa.
  • pipeline operativa:la pipeline operativa fa parte dell'ambiente operativo. Questa pipeline copia i DAG per Cloud Composer o Vertex AI Pipelines, che vengono poi utilizzati per creare, testare ed eseguire il deployment di modelli.

Catalogo dei servizi

Il catalogo dei servizi consente a sviluppatori e amministratori del cloud di rendere le soluzioni utilizzabili dagli utenti aziendali interni. I moduli Terraform nel catalogo dei servizi vengono creati e pubblicati come artefatti nel bucket Cloud Storage con la pipeline CI/CD di Cloud Build. Dopo aver copiato i moduli nel bucket, gli sviluppatori possono utilizzarli per creare soluzioni Terraform nella pagina Amministratore del catalogo dei servizi, aggiungere le soluzioni al catalogo dei servizi e condividerle con progetti di ambienti interattivi in modo che gli utenti possano eseguire il deployment delle risorse.

L'ambiente interattivo utilizza il catalogo dei servizi per consentire ai data scientist di eseguire il deployment delle risorse Google Cloud in modo conforme alla strategia di sicurezza della propria azienda. Durante lo sviluppo di un modello che richiede risorse Google Cloud, ad esempio un bucket Cloud Storage, il data scientist seleziona la risorsa dal catalogo dei servizi, la configura ed esegue il deployment della risorsa nell'ambiente interattivo. Il catalogo dei servizi contiene modelli preconfigurati per varie risorse Google Cloud di cui i data scientist possono eseguire il deployment nell'ambiente interattivo. Il data scientist non può modificare i modelli di risorse, ma può configurarle tramite le variabili di configurazione esposte dal modello. Il seguente diagramma mostra la struttura dell'interazione tra il catalogo dei servizi e l'ambiente interattivo.

Il catalogo dei progetti.

I data scientist eseguono il deployment delle risorse utilizzando il catalogo dei servizi, come descritto nei seguenti passaggi:

  1. L'ingegnere MLOps inserisce un modello di risorse Terraform per Google Cloud in un repository Git.
  2. Il commit in Git attiva una pipeline Cloud Build.
  3. Cloud Build copia il modello e tutti i file di configurazione associati in Cloud Storage.
  4. L'ingegnere MLOps configura manualmente le soluzioni e il catalogo dei servizi. Il tecnico condivide quindi il catalogo dei servizi con un progetto di servizio nell'ambiente interattivo.
  5. Il data scientist seleziona una risorsa dal catalogo dei servizi.
  6. Catalogo dei servizi esegue il deployment del modello nell'ambiente interattivo.
  7. La risorsa estrae tutti gli script di configurazione necessari.
  8. Il data scientist interagisce con le risorse.

Repository

Le pipeline descritte in Deployment vengono attivate da modifiche nel repository corrispondente. Per garantire che nessuno possa apportare modifiche indipendenti all'ambiente di produzione, esiste una separazione delle responsabilità tra gli utenti che possono inviare il codice e quelli che possono approvare le modifiche al codice. La seguente tabella descrive i repository di progetti e i relativi mittenti e approvatori.

Repository Pipeline Descrizione Richiedente Approvatore

ml-foundation

Infrastruttura
Contiene il codice Terraform per il progetto di AI generativa e ML che crea gli ambienti interattivi e operativi. Ingegnere MLOps Ingegnere DevOps

service-catalog

Interattivo Contiene i modelli per le risorse di cui il catalogo dei servizi può eseguire il deployment. Ingegnere MLOps Ingegnere DevOps

artifact-publish

Container Contiene i container utilizzabili dalle pipeline nell'ambiente operativo. Data scientist Data engineer

machine-learning

Operative Contiene il codice sorgente che le pipeline nell'ambiente operativo possono utilizzare. Data scientist Data engineer

Strategia di diramazione

Il progetto utilizza una diramazione persistente per eseguire il deployment del codice nell'ambiente associato. Il progetto utilizza tre rami (sviluppo, non di produzione e produzione) che riflettono gli ambienti corrispondenti.

Controlli di sicurezza

Il progetto aziendale di AI generativa e ML utilizza un modello di sicurezza a più livelli per la difesa in profondità che utilizza le funzionalità predefinite di Google Cloud, i servizi Google Cloud e le funzionalità di sicurezza configurate mediante il progetto di base aziendale. Il seguente diagramma mostra il livello dei vari controlli di sicurezza per il progetto base.

I controlli di sicurezza del progetto.

Le funzioni dei livelli sono le seguenti:

  • Interface: fornisce ai data scientist servizi che consentono loro di interagire con il progetto in modo controllato.
  • Deployment: fornisce una serie di pipeline che eseguono il deployment dell'infrastruttura e creano container e modelli. L'uso delle pipeline consente controllibilità, tracciabilità e ripetibilità.
  • Networking: fornisce protezioni dall'esfiltrazione di dati per le risorse di progetto a livello dell'API e del livello IP.
  • Gestione degli accessi:controlla chi può accedere a determinate risorse e aiuta a prevenire l'uso non autorizzato delle risorse.
  • Crittografia: ti consente di controllare le chiavi di crittografia e i secret, nonché di proteggere i tuoi dati tramite crittografia at-rest predefinita e crittografia in transito.
  • Detective: consente di rilevare configurazioni errate e attività dannose.
  • Preventivo: consente di controllare e limitare il deployment dell'infrastruttura.

La seguente tabella descrive i controlli di sicurezza associati a ogni livello.

ponderazioni Risorsa Controllo di sicurezza
Interfaccia Vertex AI Workbench Fornisce un'esperienza di blocco note gestita che incorpora controllo dell'accesso dell'utente, controllo dell'accesso di rete, controllo dell'accesso IAM e download di file disattivati. Queste funzionalità consentono un'esperienza utente più sicura.
Repository Git Fornisce controllo dell'accesso degli utenti per proteggere i tuoi repository.
Catalogo dei servizi Fornisce ai data scientist un elenco selezionato di risorse di cui è possibile eseguire il deployment solo nelle configurazioni approvate.
Deployment Pipeline dell'infrastruttura Fornisce un flusso sicuro per eseguire il deployment dell'infrastruttura del progetto base utilizzando Terraform.
Pipeline interattiva Fornisce un flusso sicuro per trasferire i modelli da un repository Git a un bucket all'interno della tua organizzazione Google Cloud.
Pipeline di container Fornisce un flusso sicuro per creare container utilizzati dalla pipeline operativa.
Pipeline operativa Fornisce un flusso controllato per addestrare, testare, convalidare ed eseguire il deployment di modelli.
Artifact Registry Archivia le immagini dei container in modo sicuro con il controllo dell'accesso alle risorse
Rete Private Service Connect Consente di comunicare con le API Google Cloud utilizzando indirizzi IP privati in modo da evitare di esporre il traffico a internet.
VPC con indirizzi IP privati Il progetto utilizza VPC con indirizzi IP privati per rimuovere l'esposizione alle minacce rivolte a internet.
Controlli di servizio VPC Contribuisce a proteggere le risorse protette dall'esfiltrazione di dati.
Firewall Contribuisce a proteggere la rete VPC da accessi non autorizzati.
Gestione degli accessi Cloud Identity Fornisce la gestione centralizzata degli utenti, riducendo il rischio di accessi non autorizzati.
IAM Fornisce un controllo granulare su chi può fare cosa su quali risorse, consentendo cosìprivilegio minimoi nella gestione degli accessi.
Crittografia Cloud KMS Consente di controllare le chiavi di crittografia utilizzate all'interno della tua organizzazione Google Cloud.
Secret Manager Fornisce un archivio di secret per i tuoi modelli che è controllato da IAM.
Crittografia at-rest Per impostazione predefinita, Google Cloud cripta i dati at-rest.
Crittografia dei dati in transito Per impostazione predefinita, Google Cloud cripta i dati in transito.
Detective Security Command Center Fornisce rilevatori di minacce che aiutano a proteggere la tua organizzazione Google Cloud.
Architettura continua Controlla continuamente la tua organizzazione Google Cloud in base a una serie di criteri Open Policy Agent (OPA) che hai definito.
Motore per suggerimenti IAM Analizza le autorizzazioni degli utenti e fornisce suggerimenti sulla riduzione delle autorizzazioni per applicare il principio del privilegio minimo.
Firewall Insights Analizza le regole firewall, identifica le regole firewall eccessivamente permissive e suggerisce firewall più restrittivi per aiutarti a rafforzare la tua strategia di sicurezza complessiva.
Cloud Logging Offre visibilità sull'attività del sistema e consente il rilevamento di anomalie e attività dannose.
Cloud Monitoring Monitora gli indicatori e gli eventi chiave che possono aiutare a identificare le attività sospette.
Preventivo Servizio Criteri dell'organizzazione Consente di limitare le azioni all'interno dell'organizzazione Google Cloud.

Passaggi successivi