Con l'aumento dell'utilizzo di modelli di AI generativa e machine learning (ML) nelle attività e nei processi aziendali, le aziende hanno sempre più bisogno di indicazioni per lo sviluppo dei modelli per garantire coerenza, ripetibilità, sicurezza e protezione. Per aiutare le grandi aziende a creare ed eseguire il deployment di modelli di AI generativa e ML, abbiamo creato il blueprint di AI generativa e machine learning per le aziende. Questo blueprint fornisce una guida completa all'intero ciclo di vita dello sviluppo dell'IA, dall'esplorazione e sperimentazione preliminari dei dati al monitoraggio, all'addestramento e al deployment dei modelli.
Il blueprint di ML e AI generativa per le aziende offre molti vantaggi, tra cui:
- Indicazioni prescrittive: indicazioni chiare su come creare, configurare ed eseguire il deployment di un ambiente di sviluppo di IA generativa e ML basato su Vertex AI. Puoi utilizzare Vertex AI per sviluppare i tuoi modelli.
- Maggiore efficienza:automazione completa per contribuire a ridurre le difficoltà legate al deployment dell'infrastruttura e allo sviluppo di modelli di ML e AI generativa. L'Automation ti consente di concentrarti su attività a valore aggiunto come la progettazione e la sperimentazione dei modelli.
- Governance e auditabilità avanzate: riproducibilità, tracciabilità e implementazione controllata dei modelli sono incorporate nella progettazione di questo blueprint. Questo vantaggio ti consente di gestire meglio il ciclo di vita dei modelli di AI generativa e ML e ti aiuta a garantire che tu possa addestrare e valutare nuovamente i modelli in modo coerente, con procedure di controllo chiare.
- Sicurezza: il blueprint è progettato per essere in linea con i requisiti del framework del National Institute of Standards and Technology (NIST) e del framework del Cyber Risk Institute (CRI).
Il blueprint di ML e AI generativa di livello enterprise include quanto segue:
- Un
repository GitHub
che contiene un insieme di configurazioni Terraform, un
notebook Jupyter,
una
definizione di Vertex AI Pipelines
un
Cloud Composer
directed acyclic graph (DAG),
e script secondari. I componenti nel repository completano quanto segue:
- La configurazione Terraform imposta una piattaforma di sviluppo di modelli Vertex AI in grado di supportare più team di sviluppo di modelli.
- Il blocco note Jupyter ti consente di sviluppare un modello in modo interattivo.
- La definizione di Vertex AI Pipelines traduce il Jupyter Notebook in un pattern riproducibile che può essere utilizzato per gli ambienti di produzione.
- Il DAG di Cloud Composer fornisce un metodo alternativo alle pipeline Vertex AI.
- Gli script secondari aiutano a eseguire il deployment del codice e delle pipeline Terraform.
- Una guida all'architettura, alla progettazione, ai controlli di sicurezza e alle procedure operative che utilizzi questo blueprint per implementare (questo documento).
Il progetto di ML e AI generativa aziendale è progettato per essere compatibile con il progetto di fondazione dell'azienda. Il progetto di fondazione di un'azienda fornisce una serie di servizi di base su cui si basa, come le reti VPC. Puoi eseguire il deployment del progetto di ML e AI generativa aziendale senza eseguire il deployment del progetto di base per le aziende se il tuo ambiente Google Cloud fornisce le funzionalità necessarie per supportare il progetto di ML e AI generativa aziendale.
Questo documento è rivolto ad architetti cloud, data scientist e data ingegneri che possono utilizzare il blueprint per creare ed eseguire il deployment di nuovi modelli di AI o ML generativi su Google Cloud. Questo documento presuppone che tu abbia familiarità con lo sviluppo di modelli diAI generativa e ML e con la piattaforma di machine learning Vertex AI.
Panoramica del blueprint di ML e AI generativa di livello enterprise
Il blueprint di ML e AI generativa aziendale adotta un approccio a più livelli per fornire le funzionalità che consentono l'addestramento dei modelli di ML e AI generativa. Il blueprint deve essere implementato e controllato tramite un flusso di lavoro di operazioni ML (MLOps). Il seguente diagramma mostra il rapporto tra il livello MLOps di cui è stato eseguito il deployment da questo blueprint e gli altri livelli del tuo ambiente.
Questo diagramma include quanto segue:
- L'infrastruttura Google Cloud offre funzionalità di sicurezza come la crittografia at-rest e la crittografia in transito, nonché componenti di base come il calcolo e lo spazio di archiviazione.
- La base di Google Cloud per le aziende fornisce una linea di base di risorse come sistemi di identità, networking, logging, monitoraggio ed esecuzione di deployment che ti consentono di adottare Google Cloud per i tuoi workload di AI.
- Il livello di dati è un livello facoltativo nello stack di sviluppo che offre varie funzionalità, come importazione dati, archiviazione dei dati, controllo dell'accesso ai dati, governance dei dati, monitoraggio dei dati e condivisione dei dati.
- Il livello di ML e AI generativa (questo blueprint) ti consente di creare e implementare modelli. Puoi utilizzare questo livello per sperimentazioni ed esplorazioni preliminari dei dati, addestramento dei modelli, esecuzione dei modelli e monitoraggio.
- CI/CD ti fornisce gli strumenti per automatizzare il provisioning, la configurazione, la gestione e il deployment di infrastruttura, flussi di lavoro e componenti software. Questi componenti ti aiutano a garantire implementazioni coerenti, affidabili e verificabili, a ridurre al minimo gli errori manuali e ad accelerare il ciclo di sviluppo complessivo.
Per mostrare come viene utilizzato l'ambiente di AI generativa e ML, il blueprint include lo sviluppo di un modello ML di esempio. Lo sviluppo del modello di esempio illustra la creazione di un modello, la creazione di pipeline operative, l'addestramento del modello, il test del modello e il deployment del modello.
Architettura
Il blueprint di ML e AI generativa aziendale ti consente di lavorare direttamente con i dati. Puoi creare modelli in un ambiente interattivo (di sviluppo) e promuoverli in un ambiente operativo (di produzione o non di produzione).
Nell'ambiente interattivo, sviluppi modelli ML utilizzando Vertex AI Workbench, che è un servizio di Jupyter Notebook gestito da Google. Puoi creare funzionalità di estrazione, trasformazione e ottimizzazione dei modelli di dati nell'ambiente interattivo e promuoverle nell'ambiente operativo.
Nell'ambiente operativo (non di produzione), utilizzi le pipeline per creare e testare i modelli in modo ripetibile e controllabile. Quando le prestazioni del modello ti soddisfano, puoi eseguirlo nell'ambiente operativo (di produzione). Il seguente diagramma mostra i vari componenti degli ambienti interattivi e operativi.
Questo diagramma include quanto segue:
- Sistemi di deployment: servizi come Service Catalog e Cloud Build eseguono il deployment delle risorse Google Cloud nell'ambiente interattivo. Cloud Build esegue inoltre il deployment delle risorse Google Cloud e dei flussi di lavoro di creazione dei modelli nell'ambiente operativo.
- Origini dati: servizi come BigQuery, Cloud Storage, Spanner, e AlloyDB per PostgreSQL ospitano i tuoi dati. Il blueprint fornisce dati di esempio in BigQuery e Cloud Storage.
- Ambiente interattivo:un ambiente in cui puoi interagire direttamente con i dati, eseguire esperimenti sui modelli e creare pipeline da utilizzare nell'ambiente operativo.
- Ambiente operativo: un ambiente in cui puoi creare e testare i modelli in modo ripetibile, quindi eseguirne il deployment in produzione.
- Servizi per i modelli: i seguenti servizi supportano varie attività di MLOps:
- Vertex AI Feature Store pubblica i dati delle funzionalità per il tuo modello.
- Model Garden include una libreria di modelli ML che ti consente di utilizzare i modelli di Google e selezionare modelli open source.
- Vertex AI Model Registry gestisce il ciclo di vita dei modelli ML.
- Archiviazione degli elementi:questi servizi archiviano il codice e i container per lo sviluppo e le pipeline dei modelli. Questi servizi includono:
- Artifact Registry memorizza i contenitori utilizzati dalle pipeline nell'ambiente operativo per controllare le varie fasi dello sviluppo del modello.
- Il repository Git memorizza la base di codice dei vari componenti utilizzati nello sviluppo del modello.
Profili della piattaforma
Quando esegui il deployment del blueprint, crei quattro tipi di gruppi di utenti: un gruppo di ingegneri MLOps, un gruppo di ingegneri DevOps, un gruppo di data scientist e un gruppo di ingegneri data. I gruppi hanno le seguenti responsabilità:
- Il gruppo di ingegneri MLOps sviluppa i modelli Terraform utilizzati dal Catalogo dei servizi. Questo team fornisce modelli utilizzati da molti modelli.
- Il gruppo di DevOps engineer approva i modelli Terraform creati dal gruppo di sviluppatori MLOps.
- Il gruppo di data scientist sviluppa modelli, pipeline e i contenitori utilizzati dalle pipeline. In genere, un singolo team è dedicato alla creazione di un singolo modello.
- Il gruppo Data engineer approva l'utilizzo degli elementi creati dal gruppo di scienza dei dati.
Struttura dell'organizzazione
Questo blueprint utilizza la struttura organizzativa del blueprint di base dell'azienda come base per il deployment dei carichi di lavoro di AI e ML. Il seguente diagramma mostra i progetti aggiunti alla base per abilitare i carichi di lavoro di AI e ML.
La tabella seguente descrive i progetti utilizzati dal blueprint di ML e AI generativa.
Cartella | Progetto | Descrizione |
---|---|---|
|
|
Contiene la pipeline di deployment utilizzata per creare i componenti di AI generativa e ML del blueprint. Per ulteriori informazioni, consulta la pipeline dell'infrastruttura nel progetto della piattaforma di base dell'azienda. |
|
Contiene l'infrastruttura utilizzata da catalogo dei servizi per eseguire il deployment delle risorse nell'ambiente interattivo. | |
|
|
Contiene i componenti per lo sviluppo di un caso d'uso di AI e ML in una modalità interattiva. |
|
|
Contiene i componenti per testare e valutare un caso d'uso di AI e ML che può essere implementato in produzione. |
|
|
Contiene i componenti per il deployment di un caso d'uso di AI e ML in produzione. |
Networking
Il progetto di base utilizza la rete VPC condiviso creata nel progetto di base per le aziende. Nell'ambiente interattivo (di sviluppo), i notebook Vertex AI Workbench vengono implementati nei progetti di servizio. Gli utenti on-premise possono accedere ai progetti utilizzando lo spazio indirizzo IP privato nella rete VPC condiviso. Gli utenti on-premise possono accedere alle API Google Cloud, come Cloud Storage, tramite Private Service Connect. Ogni rete VPC condivisa (di sviluppo, non di produzione e di produzione) ha un endpoint Private Service Connect distinto.
L'ambiente operativo (non di produzione e di produzione) ha due reti VPC condiviso separate a cui le risorse on-premise possono accedere tramite indirizzi IP privati. Gli ambienti interattivi e operativi sono protetti utilizzando i Controlli di servizio VPC.
Cloud Logging
Questo progetto di base utilizza le funzionalità di Cloud Logging fornite dal progetto di base per le aziende.
Cloud Monitoring
Per monitorare i job di addestramento personalizzati, il blueprint include una dashboard che consente di monitorare le seguenti metriche:
- Utilizzo della CPU di ciascun nodo di addestramento
- Utilizzo della memoria di ogni nodo di addestramento
- Utilizzo della rete
Se un job di addestramento personalizzato non è riuscito, il blueprint utilizza Cloud Monitoring per fornire un meccanismo di avviso via email per informarti dell'errore. Per monitorare i modelli di cui è stato eseguito il deployment che utilizzano l'endpoint Vertex AI, il blueprint è dotato di una dashboard con le seguenti metriche:
- Metriche sul rendimento:
- Previsioni al secondo
- Latenza del modello
- Utilizzo delle risorse:
- Utilizzo CPU
- Utilizzo memoria
Configurazione dei criteri dell'organizzazione
Oltre ai criteri dell'organizzazione creati dal blueprint di base dell'azienda, questo blueprint aggiunge i criteri dell'organizzazione elencati in Posizione predefinita per l'IA sicura, estesa.
Operazioni
Questa sezione descrive gli ambienti inclusi nel blueprint.
Ambiente interattivo
Per consentirti di esplorare i dati e sviluppare modelli mantenendo la security posture della tua organizzazione, l'ambiente interattivo ti fornisce un insieme controllato di azioni che puoi eseguire. Puoi eseguire il deployment delle risorse Google Cloud utilizzando uno dei seguenti metodi:
- Utilizzo di Service Catalog, preconfigurato tramite automazione con modelli di risorse
- Creazione di elementi di codice e commit nei repository Git utilizzando i notebook Vertex AI Workbench
Il seguente diagramma mostra l'ambiente interattivo.
Un flusso interattivo tipico è associato ai seguenti passaggi e componenti:
- Catalogo dei servizi fornisce un elenco selezionato di risorse Google Cloud che i data scientist possono implementare nell'ambiente interattivo. Il data scientist esegue il deployment della risorsa del notebook Vertex AI Workbench dal Catalogo dei servizi.
- I notebook di Vertex AI Workbench sono l'interfaccia principale utilizzata dai data scientist per lavorare con le risorse Google Cloud di cui è stato eseguito il deployment nell'ambiente interattivo. I notebook consentono ai data scientist di estrarre il codice da Git e di aggiornarlo in base alle esigenze.
- I dati di origine vengono archiviati al di fuori dell'ambiente interattivo e gestiti distintamente da questo blueprint. L'accesso ai dati è controllato da un proprietario di dati. I data scientist possono richiedere l'accesso in lettura ai dati di origine, ma non possono scrivere nei dati di origine.
- I data scientist possono trasferire i dati di origine nell'ambiente interattivo nelle risorse create tramite il Catalogo dei servizi. Nell'ambiente interattivo, i data scientist possono leggere, scrivere e manipolare i dati. Tuttavia, i data scientist non possono trasferire i dati dall'ambiente interattivo o concedere l'accesso alle risorse create da catalogo dei servizi. BigQuery archivia dati strutturati e semistrutturati, mentre Cloud Storage archivia dati non strutturati.
- Feature Store fornisce ai data scientist l'accesso a bassa latenza alle caratteristiche per l'addestramento dei modelli.
I data scientist addestrano i modelli utilizzando i job di addestramento personalizzato di Vertex AI. Il blueprint utilizza anche Vertex AI per l'ottimizzazione degli iperparametri.
I data scientist valutano i modelli utilizzando Vertex AI Experiments e Vertex AI TensorBoard. Vertex AI Experiments ti consente di eseguire più addestramenti su un modello utilizzando diversi parametri, tecniche di modellazione, architetture e input. Vertex AI TensorBoard ti consente di monitorare, visualizzare e confrontare i vari esperimenti eseguiti e poi scegliere il modello con le migliori caratteristiche osservate da convalidare.
I data scientist convalidano i propri modelli con la valutazione Vertex AI. Per convalidare i modelli, i data scientist suddividono i dati di origine in un set di dati di addestramento e un set di dati di convalida ed eseguono una valutazione Vertex AI sul modello.
I data scientist creano i container utilizzando Cloud Build, li archiviano in Artifact Registry e li utilizzano nelle pipeline che si trovano nell'ambiente operativo.
Ambiente operativo
L'ambiente operativo utilizza un repository Git e pipeline. Questo ambiente include l'ambiente di produzione e l'ambiente non di produzione del blueprint della base di dati aziendale. Nell'ambiente non di produzione, il data scientist seleziona una pipeline da una delle pipeline sviluppate nell'ambiente interattivo. Il data scientist può eseguire la pipeline nell'ambiente non di produzione, valutare i risultati e determinare quale modello promuovere nell'ambiente di produzione.
Il blueprint include una pipeline di esempio creata utilizzando Cloud Composer e una pipeline di esempio creata utilizzando Vertex AI Pipelines. Il diagramma seguente mostra l'ambiente operativo.
Un tipico flusso operativo prevede i seguenti passaggi:
- Un data scientist unisce correttamente un ramo di sviluppo a un ramo di deployment.
- L'unione nel ramo di deployment attiva una pipeline Cloud Build.
- Si verifica uno dei seguenti elementi:
- Se un data scientist utilizza Cloud Composer come orchestratore, la pipeline Cloud Build sposta un DAG in Cloud Storage.
- Se il data scientist utilizza Vertex AI Pipelines come orchestratore, la pipeline sposta un file Python in Cloud Storage.
- La pipeline Cloud Build attiva l'orchestratore (Cloud Composer o Vertex AI Pipelines).
- L'orchestratore estrae la definizione della pipeline da Cloud Storage e inizia a eseguirla.
- La pipeline estrae un contenitore da Artifact Registry che viene utilizzato da tutte le fasi della pipeline per attivare i servizi Vertex AI.
- La pipeline, utilizzando il contenitore, attiva un trasferimento di dati dal progetto di dati di origine all'ambiente operativo.
- I dati vengono trasformati, convalidati, suddivisi e preparati per l'addestramento e la convalida del modello dalla pipeline.
- Se necessario, la pipeline sposta i dati in Vertex AI Feature Store per facilitarne l'accesso durante l'addestramento del modello.
- La pipeline utilizza l'addestramento dei modelli personalizzati di Vertex AI per addestrare il modello.
- La pipeline utilizza la valutazione di Vertex AI per convalidare il modello.
- Un modello convalidato viene importato nel registro dei modelli dalla pipeline.
- Il modello importato viene poi utilizzato per generare previsioni tramite previsioni online o previsioni batch.
- Dopo aver eseguito il deployment del modello nell'ambiente di produzione, la pipeline utilizza Vertex AI Model Monitoring per rilevare se le prestazioni del modello peggiorano monitorando la presenza di disallineamento tra addestramento e pubblicazione e deviazione della previsione.
Deployment
Il blueprint utilizza una serie di pipeline Cloud Build per eseguire il provisioning dell'infrastruttura del blueprint, della pipeline nell'ambiente operativo e dei container utilizzati per creare modelli di ML e AI generativa. Le pipeline utilizzate e le risorse di cui è stato eseguito il provisioning sono le seguenti:
- Pipeline di infrastruttura: questa pipeline fa parte del progetto della piattaforma aziendale. Questa pipeline provisiona le risorse Google Cloud associate all'ambiente interattivo e all'ambiente operativo.
- Pipeline interattiva: la pipeline interattiva fa parte dell'ambiente interattivo. Questa pipeline copia i modelli Terraform da un repository Git a un bucket Cloud Storage che può essere letto da catalogo dei servizi. La pipeline interattiva viene attivata quando viene creata una pull request per l'unione con il ramo principale.
- Pipeline dei container: il blueprint include una pipeline Cloud Build per creare i container utilizzati nella pipeline operativa. I container che vengono dipartiti in più ambienti sono immagini container immutabili. Le immagini contenitore immutabili contribuiscono a garantire che la stessa immagine venga dispiattata in tutti gli ambienti e che non possa essere modificata durante l'esecuzione. Se devi modificare l'applicazione, devi ricostruire e rieseguire il deployment dell'immagine. Le immagini container utilizzate nel blueprint vengono archiviate in Artifact Registry e a cui fanno riferimento i file di configurazione utilizzati nella pipeline operativa.
- Pipeline operativa:la pipeline operativa fa parte dell'ambiente operativo. Questa pipeline copia i DAG per Cloud Composer o Vertex AI Pipelines, che vengono poi utilizzati per creare, testare ed eseguire il deployment dei modelli.
Catalogo dei servizi
Catalogo dei servizi consente agli sviluppatori e agli amministratori del cloud di rendere le loro soluzioni utilizzabili dagli utenti aziendali interni. I moduli Terraform in catalogo dei servizi vengono compilati e pubblicati come elementi nel bucket Cloud Storage con la pipeline CI/CD Cloud Build. Dopo aver copiato i moduli nel bucket, gli sviluppatori possono utilizzarli per creare soluzioni Terraform nella pagina Amministrazione di Service Catalog, aggiungerle a catalogo dei servizi e condividerle con i progetti di ambienti interattivi in modo che gli utenti possano eseguire il deployment delle risorse.
L'ambiente interattivo utilizza catalogo dei servizi per consentire ai data scientist di eseguire il deployment delle risorse Google Cloud in modo conforme alla postura di sicurezza della loro azienda. Quando sviluppa un modello che richiede risorse Google Cloud, ad esempio un bucket Cloud Storage, il data scientist seleziona la risorsa dal Catalogo dei servizi, la configura e la esegue nell'ambiente interattivo. Il Catalogo dei servizi contiene modelli preconfigurati per varie risorse Google Cloud che il data scientist può implementare nell'ambiente interattivo. Il data scientist non può modificare i modelli di risorse, ma può configurare le risorse tramite le variabili di configurazione esposte dal modello. Il seguente diagramma mostra la struttura di interazione tra il Catalogo dei servizi e l'ambiente interattivo.
I data scientist eseguono il deployment delle risorse utilizzando il Catalogo dei servizi, come descritto nei passaggi che seguono:
- L'ingegnere MLOps inserisce un modello di risorsa Terraform per Google Cloud in un repository Git.
- Il commit in Git attiva una pipeline Cloud Build.
- Cloud Build copia il modello e gli eventuali file di configurazione associati in Cloud Storage.
- L'ingegnere MLOps configura manualmente le soluzioni e il catalogo dei servizi. L'ingegnere condivide quindi il catalogo dei servizi con un progetto di servizio nell'ambiente interattivo.
- Il data scientist seleziona una risorsa dal Catalogo dei servizi.
- Il catalogo dei servizi esegue il deployment del modello nell'ambiente interattivo.
- La risorsa recupera gli script di configurazione necessari.
- Il data scientist interagisce con le risorse.
Repository
Le pipeline descritte in Deployment vengono attivate dalle modifiche nel repository corrispondente. Per contribuire ad assicurarti che nessuno possa apportare modifiche indipendenti all'ambiente di produzione, è prevista una separazione delle responsabilità tra gli utenti che possono inviare codice e gli utenti che possono approvare le modifiche al codice. La tabella seguente descrive i repository di blueprint e i relativi mittenti e approvatori.
Repository | Pipeline | Descrizione | Richiedente | Approvatore |
---|---|---|---|---|
|
Infrastruttura |
Contiene il codice Terraform per il blueprint di AI generativa e ML che crea gli ambienti interattivi e operativi. | Ingegnere MLOps | Ingegnere DevOps |
|
Interattiva | Contiene i modelli per le risorse che il catalogo dei servizi può implementare. | Ingegnere MLOps | Ingegnere DevOps |
|
Container | Contiene i container che possono essere utilizzati dalle pipeline nell'ambiente operativo. | Data scientist | Data engineer |
|
Operativo | Contiene il codice sorgente che le pipeline nell'ambiente operativo possono utilizzare. | Data scientist | Data engineer |
Strategia di ramificazione
Il blueprint utilizza la ramificazione permanente per eseguire il deployment del codice nell'ambiente associato. Il blueprint utilizza tre branche (sviluppo, non di produzione e di produzione) che riflettono gli ambienti corrispondenti.
Controlli di sicurezza
Il progetto di AI generativa e ML aziendale utilizza un modello di sicurezza di difesa in profondità a più livelli che utilizza le funzionalità predefinite di Google Cloud, i servizi Google Cloud e le funzionalità di sicurezza configurate tramite il progetto di base per le aziende. Il seguente diagramma mostra la stratificazione dei vari controlli di sicurezza per il blueprint.
Le funzioni dei livelli sono le seguenti:
- Interfaccia:fornisce ai data scientist servizi che consentono loro di interagire con il blueprint in modo controllato.
- Deployment:fornisce una serie di pipeline che eseguono il deployment dell'infrastruttura, creano container e generano modelli. L'utilizzo delle pipeline consente verificabilità, tracciabilità e ripetibilità.
- Networking: fornisce protezioni contro l'esfiltrazione di dati attorno alle risorse del blueprint a livello di API e IP.
- Gestione dell'accesso:controlla chi può accedere a quali risorse e aiuta a impedire l'uso non autorizzato delle risorse.
- Crittografia:ti consente di controllare le chiavi di crittografia, i secret e contribuire a proteggere i tuoi dati tramite la crittografia at-rest e in transito predefinita.
- Detective:ti aiuta a rilevare errori di configurazione e attività dannose.
- Preventivo:ti fornisce i mezzi per controllare e limitare il modo in cui viene implementata la tua infrastruttura.
La tabella seguente descrive i controlli di sicurezza associati a ciascun livello.
incorporato | Risorsa | Controllo di sicurezza |
---|---|---|
Interfaccia | Vertex AI Workbench | Offre un'esperienza con i blocchi note gestiti che include il controllo dell'accesso degli utenti, il controllo dell'accesso alla rete, il controllo dell'accesso IAM e i download di file disattivati. Queste funzionalità consentono un'esperienza utente più sicura. |
Repository Git | Fornisce controllo dell'accesso degli utenti per proteggere i tuoi repository. | |
Catalogo dei servizi | Fornisce ai data scientist un elenco selezionato di risorse che possono essere implementate solo in configurazioni approvate. | |
Deployment | Pipeline di infrastruttura | Fornisce un flusso sicuro per eseguire il deployment dell'infrastruttura del blueprint tramite l'utilizzo di Terraform. |
Pipeline interattiva | Fornisce un flusso sicuro per trasferire i modelli da un repository Git in un bucket all'interno della tua organizzazione Google Cloud. | |
Pipeline dei container | Fornisce un flusso sicuro per creare i container utilizzati dalla pipeline operativa. | |
Pipeline operativa | Fornisce un flusso controllato per addestrare, testare, convalidare e implementare i modelli. | |
Artifact Registry | Memorizza le immagini dei container in modo sicuro utilizzando il controllo di accesso alle risorse | |
Rete | Private Service Connect | Ti consente di comunicare con le API Google Cloud utilizzando indirizzi IP privati per evitare di esporre il traffico a internet. |
VPC con indirizzi IP privati | Il blueprint utilizza VPC con indirizzi IP privati per contribuire a rimuovere l'esposizione alle minacce presenti su internet. | |
Controlli di servizio VPC | Contribuisce a proteggere le risorse protette dall'esfiltrazione di dati. | |
Firewall | Contribuisce a proteggere la rete VPC da accessi non autorizzati. | |
Gestione degli accessi | Cloud Identity | Offre una gestione centralizzata degli utenti, riducendo il rischio di accesso non autorizzato. |
IAM | Fornisce un controllo granulare di chi può fare cosa su quali risorse, in modo da attivare il privilegio minimo nella gestione dell'accesso. | |
Crittografia | Cloud KMS | Ti consente di controllare le chiavi di crittografia utilizzate all'interno della tua organizzazione Google Cloud. |
Secret Manager | Fornisce un archivio di secret per i tuoi modelli controllato dall'IAM. | |
Crittografia dei dati inattivi | Per impostazione predefinita, Google Cloud cripta i dati at-rest. | |
Crittografia dei dati in transito | Per impostazione predefinita, Google Cloud cripta i dati in transito. | |
Detective | Security Command Center | Fornisce rilevatori di minacce che aiutano a proteggere la tua organizzazione Google Cloud. |
Architettura continua | Controlla continuamente la tua organizzazione Google Cloud rispetto a una serie di criteri Open Policy Agent (OPA) che hai definito. | |
Motore per suggerimenti IAM | Analizza le autorizzazioni utente e fornisce suggerimenti per ridurle al fine di applicare il principio del privilegio minimo. | |
Firewall Insights | Analizza le regole firewall, identifica quelle troppo permissive e suggerisce firewall più restrittivi per rafforzare la tua postura di sicurezza complessiva. | |
Cloud Logging | Fornisce visibilità sull'attività di sistema e contribuisce a abilitare il rilevamento di anomalie e attività dannose. | |
Cloud Monitoring | Monitora indicatori ed eventi chiave che possono aiutare a identificare attività مشکوکe. | |
Preventivo | Servizio Criteri dell'organizzazione | Ti consente di limitare le azioni all'interno della tua organizzazione Google Cloud. |
Passaggi successivi
- Esegui il deployment di Terraform associato a questo blueprint.
- Scopri di più sul progetto della piattaforma di base per le aziende.
- Leggi le best practice per l'implementazione del machine learning su Google Cloud.
- Scopri di più su Vertex AI.
- Scopri di più su MLOps su Google Cloud:
- MLOps su Vertex AI
- Practitioners guide to MLOps: A framework for continuous delivery and automation of machine learning (PDF)
- MLOps: pipeline di distribuzione continua e automazione nel machine learning
- Architettura per MLOps che utilizza TensorFlow Extended, Vertex AI Pipelines e Cloud Build
- Codice di esempio di Vertex AI Pipelines
- Codice di esempio del blocco note Vertex AI
- Per altre architetture di riferimento, diagrammi e best practice, visita il Cloud Architecture Center.