Crea ed esegui il deployment di modelli di IA generativa e machine learning in un'azienda

Last reviewed 2024-03-28 UTC

Man mano che i modelli di AI generativa e di machine learning (ML) diventano più comuni per le aziende le attività e i processi aziendali, le imprese sempre più bisogno di indicazioni sullo sviluppo dei modelli per garantire coerenza, ripetibilità, protezione e sicurezza. Per aiutare le grandi aziende a creare ed eseguire il deployment di AI generativa e ML, abbiamo creato l'IA generativa e i modelli di machine learning. Questo progetto fornisce una guida completa l'intero ciclo di vita dello sviluppo dell'AI, dall'esplorazione preliminare dei dati fino la sperimentazione mediante l'addestramento, il deployment e il monitoraggio del modello.

Il blueprint di ML e IA generativa aziendale offre molti vantaggi, tra cui:

  • Indicazioni prescrittive: indicazioni chiare su come creare, configurare ed eseguire il deployment di un ambiente di sviluppo di IA generativa e ML basato su Vertex AI. Puoi utilizzare Vertex AI per sviluppare i tuoi modelli.
  • Maggiore efficienza: automazione completa per contribuire a ridurre le difficoltà legate al deployment dell'infrastruttura e allo sviluppo di modelli di ML e AI generativa. L'automazione ti consente di concentrarti su attività a valore aggiunto come la progettazione e la sperimentazione dei modelli.
  • Governance e verificabilità migliorate: riproducibilità, tracciabilità e l'implementazione controllata dei modelli è incorporata nella progettazione di questo progetto. Questo vantaggio ti consente di gestire meglio l'AI generativa e l'ML ciclo di vita del modello, oltre a garantire la possibilità di riaddestrare e valutare i modelli in modo coerente, con audit trail chiari.
  • Sicurezza: il progetto è progettato per essere in linea con i requisiti del Framework del National Institute of Standards and Technology (NIST) e ai framework del Cyber Risk Institute (CRI).

Il progetto di AI generativa e ML a livello aziendale include quanto segue:

  • Un repository GitHub che contiene un insieme di configurazioni Terraform, un notebook Jupyter, una definizione di Vertex AI Pipelines un Cloud Composer directed acyclic graph (DAG), e script secondari. I componenti del repository completano i seguenti passaggi:
    • La configurazione Terraform imposta una piattaforma di sviluppo di modelli Vertex AI in grado di supportare più team di sviluppo di modelli.
    • Il blocco note Jupyter ti consente di sviluppare un modello in modo interattivo.
    • La definizione di Vertex AI Pipelines traduce il blocco note Jupyter in un pattern riproducibile che può essere utilizzato ambienti di produzione.
    • Il DAG di Cloud Composer fornisce un metodo alternativo a Vertex AI Pipelines.
    • Gli script secondari aiutano a eseguire il deployment del codice e delle pipeline Terraform.
  • Una guida all'architettura, alla progettazione, ai controlli di sicurezza e i processi che utilizzi da questo progetto per implementare (questo documento).

Il progetto di AI generativa e ML a livello aziendale è progettato per essere compatibile il progetto base aziendale. Il progetto base aziendale offre una serie di servizi di livello base su cui si basa questo progetto, come Reti VPC. Puoi eseguire il deployment del progetto base di AI generativa e ML a livello aziendale senza eseguire il deployment il progetto di base aziendale se il tuo ambiente Google Cloud fornisce le funzionalità necessarie per supportare i progetti aziendali di AI generativa e ML.

Questo documento è rivolto a cloud architect, data scientist e data scientist tecnici che possano utilizzare il progetto per creare ed eseguire il deployment di nuove AI generativa o ML di accesso a tutti i modelli su Google Cloud. In questo documento si presuppone che tu abbia familiarità con sviluppo di modelli ML e AI generativa e ai Piattaforma di machine learning Vertex AI.

Panoramica dei progetti aziendali di AI generativa e ML

Il blueprint di ML e IA generativa aziendale adotta un approccio a più livelli per fornire le funzionalità che consentono l'addestramento dei modelli di ML e IA generativa. La il progetto deve essere implementato e controllato attraverso Operazioni ML (MLOps) un flusso di lavoro di machine learning. Il seguente diagramma mostra il deployment del livello MLOps da parte di il progetto è collegato ad altri livelli del tuo ambiente.

I livelli del progetto.

Questo diagramma include quanto segue:

  • L'infrastruttura Google Cloud offre funzionalità di sicurezza come la crittografia at-rest e la crittografia in transito, nonché componenti di base come il calcolo e lo spazio di archiviazione.
  • La base aziendale fornisce una base di risorse come come sistemi di identità, networking, logging, monitoraggio e deployment che per consentirti di adottare Google Cloud per i tuoi carichi di lavoro di AI.
  • La livello dati è un livello facoltativo dello stack di sviluppo che fornisce varie funzionalità come importazione dati e l'archiviazione dei dati, controllo, governance dei dati, monitoraggio e condivisione dei dati.
  • Il livello di AI generativa e ML (questo progetto) consente di creare ed eseguire il deployment di grandi dimensioni. Puoi utilizzare questo livello per sperimentazioni ed esplorazioni preliminari dei dati, addestramento dei modelli, esecuzione dei modelli e monitoraggio.
  • CI/CD fornisce gli strumenti per automatizzare il provisioning, configurazione, gestione e deployment di infrastruttura, flussi di lavoro componenti software. Questi componenti ti aiutano a garantire implementazioni coerenti, affidabili e verificabili, a ridurre al minimo gli errori manuali e ad accelerare il ciclo di sviluppo complessivo.

Per mostrare come viene utilizzato l'ambiente di IA generativa e ML, il blueprint include lo sviluppo di un modello ML di esempio. Lo sviluppo del modello di esempio ti guida nella creazione di un modello, pipeline operative, addestramento del modello, test del modello un modello di machine learning.

Architettura

Il progetto base di AI generativa e ML a livello aziendale ti offre la possibilità lavorare direttamente con i dati. Puoi creare modelli in un ambiente interattivo (di sviluppo) e promuoverli in un ambiente operativo (di produzione o non di produzione).

Nell'ambiente interattivo, sviluppi modelli ML utilizzando Vertex AI Workbench, che è un servizio di Jupyter Notebook gestito da Google. I dati vengono creati da te di estrazione, trasformazione dei dati e ottimizzazione interattivo e di promuoverle nell'ambiente operativo.

Nell'ambiente operativo (non di produzione), utilizzi le pipeline per creare e testare i propri modelli in modo ripetibile e controllabile. Quando le prestazioni del modello ti soddisfano, puoi eseguirlo nell'ambiente operativo (di produzione). Il seguente diagramma mostra i vari degli ambienti operativi e interattivi.

L'architettura del progetto base.

Questo diagramma include:

  1. Sistemi di deployment: servizi come Catalogo dei servizi e Cloud Build il deployment delle risorse Google Cloud nell'ambiente interattivo. Cloud Build esegue anche il deployment di risorse Google Cloud i flussi di lavoro per la creazione di modelli nell'ambiente operativo.
  2. Origini dati: servizi come BigQuery Cloud Storage Spanner, e AlloyDB per PostgreSQL ospitare i tuoi dati. Il progetto fornisce dati di esempio in BigQuery e Cloud Storage.
  3. Ambiente interattivo: un ambiente in cui puoi interagire direttamente con i dati, sperimentare modelli e creare pipeline da utilizzare dell'ambiente operativo.
  4. Ambiente operativo: un ambiente in cui puoi creare e testare i modelli in modo ripetibile, quindi eseguirne il deployment in produzione.
  5. Servizi modello:i seguenti servizi supportano varie attività MLOps:
  6. Archiviazione degli artefatti: questi servizi archiviano il codice e i container per lo sviluppo del modello e le pipeline. Questi servizi includono:
    • Artifact Registry memorizza i contenitori utilizzati dalle pipeline nell'ambiente operativo per controllare le varie fasi dello sviluppo del modello.
    • Il repository Git archivia il codebase dei vari componenti utilizzate nello sviluppo del modello.

Utenti tipo della piattaforma

Quando esegui il deployment del progetto base, crei quattro tipi di gruppi di utenti: di tecnici, un gruppo di DevOps Engineer, un gruppo di data scientist e un gruppo di Google Cloud. I gruppi hanno le seguenti responsabilità:

  • Il gruppo di ingegneri MLOps sviluppa i modelli Terraform utilizzati dal Catalogo dei servizi. Questo team fornisce i modelli utilizzati molti modelli.
  • Il gruppo DevOps Engineer approva i modelli Terraform che creato dal gruppo di sviluppatori MLOps.
  • Il gruppo di data scientist sviluppa modelli, pipeline e usati dalle pipeline. In genere, un singolo team è dedicato alla creazione di un singolo modello.
  • Il gruppo Data engineer approva l'utilizzo degli elementi creati dal gruppo di scienza dei dati.

Struttura dell'organizzazione

Questo progetto utilizza la struttura organizzativa della piattaforma aziendale come base per il deployment di carichi di lavoro di AI e ML. Il seguente diagramma mostra i progetti aggiunti alla base per abilitare i carichi di lavoro di AI e ML.

La struttura organizzativa del progetto.

La tabella seguente descrive i progetti utilizzati dal blueprint di ML e IA generativa.

Cartella Progetto Descrizione

common

prj-c-infra-pipeline

Contiene la pipeline di deployment utilizzata per creare i componenti di AI generativa e ML del progetto. Per ulteriori informazioni, consulta la pipeline dell'infrastruttura nel progetto della piattaforma di base per le aziende.

prj-c-service-catalog

Contiene l'infrastruttura utilizzata da Service Catalog per eseguire il deployment delle risorse nell'ambiente interattivo.

development

prj-d-machine-learning

Contiene i componenti per lo sviluppo di un caso d'uso di AI e ML in una modalità interattiva.

non-production

prj-n-machine-learning

Contiene i componenti per testare e valutare un caso d'uso di IA e ML che può essere implementato in produzione.

production

prj-p-machine-learning

Contiene i componenti per il deployment di un caso d'uso di IA e ML in produzione.

Networking

Il progetto utilizza la rete VPC condiviso creata nell'azienda progetto di base. Nell'ambiente interattivo (di sviluppo), i blocchi note di Vertex AI Workbench vengono implementati nei progetti di servizio. Gli utenti on-premise possono accedere ai progetti utilizzando lo spazio degli indirizzi IP privati nella rete VPC condivisa. Gli utenti on-premise possono accedere alle API Google Cloud, come Cloud Storage, tramite Private Service Connect. Ogni rete VPC condivisa (sviluppo, non di produzione e di produzione) ha un oggetto Private Service Connect distinto endpoint.

La rete del progetto.

L'ambiente operativo (non di produzione e di produzione) ha due reti VPC condivise separate a cui le risorse on-premise possono accedere tramite indirizzi IP privati. Gli ambienti interattivi e operativi sono protetti utilizzando i Controlli di servizio VPC.

Cloud Logging

Questo progetto utilizza Cloud Logging di base fornite dal progetto base aziendale.

Cloud Monitoring

A monitorare job di addestramento personalizzato, il progetto include una dashboard che ti consente di monitorare metriche:

  • Utilizzo della CPU di ciascun nodo di addestramento
  • Utilizzo della memoria di ogni nodo di addestramento
  • Utilizzo della rete

Se un job di addestramento personalizzato non è riuscito, il blueprint utilizza Cloud Monitoring per fornire un meccanismo di avviso via email per informarti dell'errore. Per il monitoraggio dei modelli di cui è stato eseguito il deployment che utilizzano l'endpoint Vertex AI, il progetto include una dashboard con le seguenti metriche:

  • Metriche sul rendimento:
    • Previsioni al secondo
    • Latenza del modello
  • Utilizzo delle risorse:
    • Utilizzo CPU
    • Utilizzo memoria

Configurazione dei criteri dell'organizzazione

Oltre ai criteri dell'organizzazione creati dal blueprint di base dell'azienda, questo blueprint aggiunge i criteri dell'organizzazione elencati in Posizione predefinita per l'IA sicura, estesa.

Operazioni

Questa sezione descrive gli ambienti inclusi nel blueprint.

Ambiente interattivo

che consente di esplorare i dati e sviluppare modelli mantenendo al contempo della strategia di sicurezza dell'organizzazione, l'ambiente interattivo un insieme controllato di azioni che puoi eseguire. Puoi eseguire il deployment Google Cloud con uno dei seguenti metodi:

  • Utilizzo di Service Catalog, preconfigurato tramite automazione con modelli di risorse
  • Creazione di elementi di codice e commit nei repository Git utilizzando i blocchi note Vertex AI Workbench

Il seguente diagramma illustra l'ambiente interattivo.

L'ambiente interattivo di Blueprint.

Un flusso interattivo tipico è associato ai seguenti passaggi e componenti:

  1. Service Catalog fornisce un elenco selezionato di risorse Google Cloud che i data scientist possono implementare nell'ambiente interattivo. Il data scientist esegue il deployment della risorsa blocco note Vertex AI Workbench catalogo dei servizi.
  2. I notebook di Vertex AI Workbench sono l'interfaccia principale utilizzata dai data scientist per lavorare con le risorse Google Cloud di cui è stato eseguito il deployment nell'ambiente interattivo. I notebook consentono ai data scientist di estrarre il codice da Git e di aggiornarlo in base alle esigenze.
  3. I dati di origine vengono archiviati al di fuori dell'ambiente interattivo e gestiti distintamente da questo blueprint. L'accesso ai dati è controllato da un proprietario di dati. I data scientist possono richiedere l'accesso in lettura ai dati di origine, ma non possono scrivere nei dati di origine.
  4. I data scientist possono trasferire i dati di origine nell'ambiente interattivo dell'ambiente in risorse create catalogo dei servizi. Nell'ambiente interattivo, i data scientist possono leggere, scrivere e manipolare i dati. Tuttavia, i dati gli scienziati non possono trasferire dati dall'ambiente interattivo o concedere e l'accesso alle risorse create da catalogo dei servizi. BigQuery archivia dati strutturati e semistrutturati, mentre Cloud Storage archivia dati non strutturati.
  5. Feature Store fornisce ai data scientist l'accesso a bassa latenza alle caratteristiche per l'addestramento dei modelli.
  6. I data scientist addestrano i modelli utilizzando Vertex AI job di addestramento personalizzato. Il blueprint utilizza anche Vertex AI per l'ottimizzazione degli iperparametri.

  7. I data scientist valutano i modelli utilizzando Vertex AI Experiments e Vertex AI TensorBoard. Vertex AI Experiments ti consente di eseguire più addestramenti su un modello utilizzando diversi parametri, tecniche di modellazione, architetture e input. Vertex AI TensorBoard ti consente di monitorare, visualizzare e confrontare i vari esperimenti eseguiti e poi scegliere il modello con le migliori caratteristiche osservate da convalidare.

  8. I data scientist convalidano i propri modelli con la valutazione Vertex AI. Per convalidare i modelli, i data scientist suddividono i dati di origine in un set di dati di addestramento e un set di dati di convalida ed eseguono una valutazione Vertex AI sul modello.

  9. I data scientist creano i container utilizzando Cloud Build, li archiviano in Artifact Registry e li utilizzano nelle pipeline che si trovano nell'ambiente operativo.

Ambiente operativo

L'ambiente operativo utilizza un repository Git e pipeline. Questo ambiente include l'ambiente di produzione e l'ambiente non di produzione del blueprint della base di dati aziendale. Nell'ambiente non di produzione, il data scientist seleziona una pipeline da una delle pipeline sviluppate nell'ambiente interattivo. Il data scientist può eseguire la pipeline di produzione, valutare i risultati e quindi determinare quale modello da promuovere nell'ambiente di produzione.

Il blueprint include una pipeline di esempio creata utilizzando Cloud Composer e una pipeline di esempio creata utilizzando Vertex AI Pipelines. Il diagramma seguente mostra il funzionamento completamente gestito di Google Cloud.

L'ambiente operativo del progetto.

Un flusso operativo tipico prevede i seguenti passaggi:

  1. Un data scientist integra un ramo di sviluppo in un del deployment.
  2. L'unione nel ramo di deployment attiva una pipeline Cloud Build.
  3. Si verifica uno dei seguenti problemi:
    • Se un data scientist utilizza Cloud Composer come orchestratore, la pipeline Cloud Build sposta un DAG in Cloud Storage.
    • Se il data scientist utilizza Vertex AI Pipelines come orchestratore, la pipeline sposta un file Python in Cloud Storage.
  4. La pipeline Cloud Build attiva l'agente di orchestrazione (Cloud Composer o Vertex AI Pipelines).
  5. L'orchestratore estrae la definizione della pipeline da Cloud Storage e inizia a eseguirla.
  6. La pipeline estrae un contenitore da Artifact Registry che viene utilizzato da tutte le fasi della pipeline per attivare i servizi Vertex AI.
  7. La pipeline, utilizzando il container, attiva un trasferimento di dati di dati di origine nell'ambiente operativo.
  8. I dati vengono trasformati, convalidati, suddivisi e preparati per l'addestramento e la convalida del modello dalla pipeline.
  9. Se necessario, la pipeline sposta i dati in Vertex AI Feature Store per facilitarne l'accesso durante l'addestramento del modello.
  10. La pipeline utilizza l'addestramento di modelli personalizzati di Vertex AI addestrare il modello.
  11. La pipeline utilizza la valutazione di Vertex AI per convalidare il modello.
  12. Un modello convalidato viene importato nel Model Registry dalla pipeline.
  13. Il modello importato viene quindi utilizzato per generare previsioni previsioni online o previsioni batch.
  14. Una volta eseguito il deployment del modello nell'ambiente di produzione, la pipeline utilizza Vertex AI Model Monitoring per rilevare se le prestazioni del modello peggiorano, monitorando disallineamento addestramento/distribuzione e deviazione della previsione.

Deployment

Il blueprint utilizza una serie di pipeline Cloud Build per eseguire il provisioning dell'infrastruttura del blueprint, della pipeline nell'ambiente operativo e dei container utilizzati per creare modelli di ML e AI generativa. Le pipeline utilizzate e le risorse di cui è stato eseguito il provisioning sono le seguenti:

  • Pipeline di infrastruttura: questa pipeline fa parte del progetto della piattaforma aziendale. Questa pipeline provisiona le risorse Google Cloud associate all'ambiente interattivo e all'ambiente operativo.
  • Pipeline interattiva: la pipeline interattiva fa parte dell'ambiente interattivo. Questa pipeline copia i modelli Terraform da un il repository Git in un bucket Cloud Storage Catalogo dei servizi può leggere. La pipeline interattiva è viene attivato quando richiesta di pull per unirsi al ramo principale.
  • Pipeline di container: il progetto include una build di Cloud Build per creare container usati nella pipeline operativa. Container di cui viene eseguito il deployment in diversi ambienti sono immagini container immutabili. Le immagini contenitore immutabili contribuiscono a garantire che la stessa immagine venga dispiata in tutti gli ambienti e che non possa essere modificata durante l'esecuzione. Se devi modificare l'applicazione, devi ricreare ed eseguire nuovamente il deployment dell'immagine. Le immagini container utilizzate nel progetto vengono archiviate in Artifact Registry e a cui fanno riferimento i file di configurazione utilizzati nella pipeline operativa.
  • Pipeline operativa: la pipeline operativa fa parte della nel tuo ambiente operativo. Questa pipeline copia i DAG per Cloud Composer o Vertex AI Pipelines, che utilizzata per creare, testare ed eseguire il deployment dei modelli.

Catalogo dei servizi

Catalogo dei servizi consente a sviluppatori e amministratori cloud di rendere le loro soluzioni utilizzabili dagli utenti aziendali interni. I moduli Terraform in Service Catalog vengono compilati e pubblicati come elementi nel bucket Cloud Storage con la pipeline CI/CD Cloud Build. Dopo aver copiato i moduli nel bucket, gli sviluppatori possono utilizzarli per creare soluzioni Terraform nella pagina Amministrazione di Service Catalog, aggiungerle a Service Catalog e condividerle con i progetti di ambienti interattivi in modo che gli utenti possano eseguire il deployment delle risorse.

L'ambiente interattivo utilizza Service Catalog per consentire ai data scientist di eseguire il deployment delle risorse Google Cloud in modo conforme alla postura di sicurezza della loro azienda. Quando sviluppa un modello che richiede risorse Google Cloud, ad esempio un bucket Cloud Storage, il data scientist seleziona la risorsa dal Catalogo dei servizi, la configura e la esegue nell'ambiente interattivo. Service Catalog contiene modelli preconfigurati per varie risorse Google Cloud che il data scientist può implementare nell'ambiente interattivo. Il data scientist non può modificare i modelli di risorse, ma può configurare le risorse tramite le variabili di configurazione esposte dal modello. Il seguente diagramma mostra la struttura del modo in cui Il catalogo dei servizi e l'ambiente interattivo sono correlati.

Il catalogo dei progetti.

I data scientist eseguono il deployment delle risorse utilizzando il Catalogo dei servizi, come descritto nei passaggi che seguono:

  1. L'ingegnere MLOps inserisce un modello di risorsa Terraform per Google Cloud in un repository Git.
  2. Il commit in Git attiva una pipeline Cloud Build.
  3. Cloud Build copia il modello e gli eventuali file di configurazione associati in Cloud Storage.
  4. L'ingegnere MLOps configura manualmente le soluzioni e il catalogo dei servizi. L'ingegnere condivide quindi il catalogo dei servizi con un progetto di servizio nell'ambiente interattivo.
  5. Il data scientist seleziona una risorsa dal Catalogo dei servizi.
  6. Il Catalogo di servizi esegue il deployment del modello nell'ambiente interattivo.
  7. La risorsa recupera gli script di configurazione necessari.
  8. Il data scientist interagisce con le risorse.

Repository

Le pipeline descritte in Deployment vengono attivate dalle modifiche nel repository corrispondente. Per contribuire ad assicurare che nessuno possa apportare modifiche indipendenti all'ambiente di produzione, esiste una separazione delle responsabilità tra gli utenti che possono inviare codice e gli utenti che possono approvare le modifiche al codice. La tabella seguente descrive il progetto repository e i relativi mittenti e approvatori.

Repository Pipeline Descrizione Richiedente Approvatore

ml-foundation

Infrastruttura
Contiene il codice Terraform per il progetto base di AI generativa e ML che e crea ambienti interattivi e operativi. Ingegnere MLOps Ingegnere DevOps

service-catalog

Interattiva Contiene i modelli per le risorse che il deployment di catalogo dei servizi. MLOps engineer Ingegnere DevOps

artifact-publish

Container Contiene i container di cui viene eseguita la pipeline nell'ambiente operativo che è possibile usare. Data scientist Data engineer

machine-learning

Operative Contiene il codice sorgente che le pipeline dell'ambiente di rete. Data scientist Data engineer

Strategia di ramificazione

Il blueprint utilizza la ramificazione permanente per eseguire il deployment del codice nell'ambiente associato. Il blueprint utilizza tre branche (sviluppo, non di produzione e di produzione) che riflettono gli ambienti corrispondenti.

Controlli di sicurezza

Il progetto di IA generativa e ML aziendale utilizza un modello di sicurezza di difesa in profondità a più livelli che utilizza le funzionalità predefinite di Google Cloud, i servizi Google Cloud e le funzionalità di sicurezza configurate tramite il progetto di base per le aziende. Il seguente diagramma mostra la stratificazione dei vari controlli di sicurezza per il blueprint.

I controlli di sicurezza del progetto base.

Le funzioni dei livelli sono le seguenti:

  • Interfaccia: fornisce ai data scientist servizi che li consentono di interagire con il progetto in modo controllato.
  • Deployment: fornisce una serie di pipeline che eseguono il deployment dell'infrastruttura, creare container e creare modelli. L'uso delle pipeline consente la verificabilità, la tracciabilità e la ripetibilità.
  • Networking: fornisce protezioni contro l'esfiltrazione di dati attorno alle risorse del blueprint a livello di API e IP.
  • Gestione degli accessi:controlla chi può accedere a determinate risorse e aiuta impedire usi non autorizzati delle risorse.
  • Crittografia: ti consente di controllare le chiavi di crittografia, i secret e contribuire a proteggere i tuoi dati tramite la crittografia at-rest e in transito predefinita.
  • Rilevamento: consente di rilevare errori di configurazione e attività dannose.
  • Prevenzione: offre i mezzi per controllare e limitare il modo in cui viene eseguito il deployment dell'infrastruttura.

La tabella seguente descrive i controlli di sicurezza associati a per ogni livello.

incorporato Risorsa Controllo di sicurezza
Interfaccia Vertex AI Workbench Fornisce un'esperienza di blocco note gestita che include controllo dell'accesso degli utenti, controllo dell'accesso alla rete, controllo dell'accesso IAM e download di file disattivati. Queste funzionalità consentono un'esperienza utente più sicura.
Repository Git Fornisce il controllo dell'accesso degli utenti per proteggere i tuoi repository.
Catalogo dei servizi Offre ai data scientist un elenco selezionato di risorse che possono il deployment può essere eseguito solo nelle configurazioni approvate.
Deployment Pipeline di infrastruttura Fornisce un flusso sicuro per eseguire il deployment dell'infrastruttura del blueprint tramite l'utilizzo di Terraform.
Pipeline interattiva Fornisce un flusso sicuro per trasferire i modelli da un repository Git in un bucket all'interno della tua organizzazione Google Cloud.
Pipeline di container Fornisce un flusso sicuro per creare i container utilizzati dalla pipeline operativa.
Pipeline operativa Offre un flusso controllato per addestramento, test, convalida e deployment di grandi dimensioni.
Artifact Registry Archivia le immagini dei container in modo sicuro utilizzando l'accesso alle risorse controllo
Rete Private Service Connect Ti consente di comunicare con le API Google Cloud utilizzando indirizzi IP privati per evitare di esporre il traffico internet.
VPC con indirizzi IP privati Il progetto utilizza i VPC con indirizzi IP privati per facilitare la rimozione l'esposizione a Internet.
Controlli di servizio VPC Contribuisce a proteggere le risorse protette dall'esfiltrazione di dati.
Firewall Contribuisce a proteggere la rete VPC da accessi non autorizzati.
Gestione degli accessi Cloud Identity Fornisce una gestione utenti centralizzata, riducendo e il rischio di accesso.
IAM Fornisce un controllo granulare su chi può fare cosa su quali risorse, consentendo così il privilegio minimo nella gestione degli accessi.
Crittografia Cloud KMS Ti consente di controllare le chiavi di crittografia utilizzate all'interno del tuo dell'organizzazione Google Cloud.
Secret Manager Fornisce un archivio di secret per i tuoi modelli controllato dall'IAM.
Crittografia at-rest Per impostazione predefinita, Google Cloud cripta i dati at-rest.
Crittografia in transito Per impostazione predefinita, Google Cloud cripta i dati in transito.
Detective Security Command Center Fornisce rilevatori di minacce che aiutano a proteggere la tua organizzazione Google Cloud.
Architettura continua Controlla continuamente la tua organizzazione Google Cloud a fronte di serie di criteri di Open Policy Agent (OPA) che hai definito.
Motore per suggerimenti IAM Analizza le autorizzazioni degli utenti e fornisce suggerimenti per la riduzione delle autorizzazioni per aiutare ad applicare il principio del privilegio minimo.
Firewall Insights Analizza le regole firewall, identifica quelle eccessivamente permissive e suggerisce firewall più restrittivi per rafforzare della strategia di sicurezza generale.
Cloud Logging Offre visibilità sull'attività del sistema e consente di il rilevamento di anomalie e attività dannose.
Cloud Monitoring Monitora indicatori ed eventi chiave che possono aiutare a identificare attività مشکوکe.
Preventivo Servizio Criteri dell'organizzazione Ti consente di limitare le azioni all'interno di Google Cloud dell'organizzazione.

Passaggi successivi