Quando utilizzi i componenti della pipeline di Google Cloud (GCPC), puoi utilizzare le seguenti funzionalità di Vertex AI e Google Cloud per proteggere i componenti e gli elementi.
Specifica un account di servizio per un componente
Quando utilizzi un componente, puoi specificare facoltativamente un account di servizio.
Il componente viene avviato e agisce con le autorizzazioni di questo account di servizio.
Ad esempio, puoi utilizzare il seguente codice per specificare l'account di servizio di un componente ModelDeploy
:
model_deploy_op = ModelDeployOp(model=training_job_run_op.outputs["model"],
endpoint=endpoint_op.outputs["endpoint"],
automatic_resources_min_replica_count=1,
automatic_resources_max_replica_count=1,
service_account="SERVICE_ACCOUNT_ID@PROJECT_ID.iam.gserviceaccount.com")
Sostituisci quanto segue:
- SERVICE_ACCOUNT_ID: l'ID dell'account di servizio.
- PROJECT_ID: l'ID del progetto.
Scopri di più su come utilizzare un account di servizio personalizzato e configurare un account di servizio da utilizzare con Vertex AI Pipelines.
Utilizzare i Controlli di servizio VPC per impedire l'esfiltrazione di dati
I Controlli di servizio VPC possono aiutarti a mitigare il rischio di esfiltrazione di dati da Vertex AI Pipelines. Quando utilizzi i Controlli di servizio VPC per creare un perimetro di servizio, le risorse e i dati creati da Vertex AI Pipelines e dai componenti della pipeline di Google Cloud vengono protetti automaticamente. Ad esempio, quando utilizzi Controlli di servizio VPC per proteggere i seguenti artefatti non possono lasciare il tuo perimetro di servizio:
- Dati di addestramento per un modello AutoML
- I modelli che hai creato
- Risultati di una richiesta di previsione batch
Scopri di più su Controlli di servizio VPC con Vertex AI.
Configurazione del peering di rete VPC
Puoi configurare i componenti della pipeline di Google Cloud per eseguire il peering con un Virtual Private Cloud fornendo parametri aggiuntivi. Ad esempio, puoi utilizzare il seguente codice per specificare una rete VPC per un componente EndpointCreate
:
endpoint_create_op = EndpointCreateOp(
project="PROJECT_ID",
location="REGION",
display_name="endpoint-display-name",
network="NETWORK")
Sostituisci quanto segue:
- PROJECT_ID: l'ID del progetto.
- REGION: la regione in cui utilizzi Vertex AI.
- NETWORK: la rete VPC, ad esempio
"projects/12345/global/networks/myVPC"
.
Scopri di più su Peering di rete VPC in Vertex AI.
Utilizzo delle chiavi di crittografia gestite dal cliente (CMEK)
Per impostazione predefinita, Google Cloud cripta automaticamente i dati quando rest utilizzando chiavi di crittografia. gestiti da Google. Se hai requisiti di conformità o normativi specifici relativi alle chiavi che proteggono i tuoi dati, puoi utilizzare le chiavi di crittografia gestite dal cliente (CMEK) per le tue risorse. Prima di iniziare a utilizzare di crittografia gestite dal cliente, scopri di più vantaggi di CMEK su Vertex AI e le risorse attualmente supportate da CMEK.
Configurare il componente con CMEK
Dopo aver creato un mazzo di chiavi e una chiave in
Cloud Key Management Service,
e aver concesso a Vertex AI le autorizzazioni di crittografia e decrittografia per la chiave,
puoi creare un nuovo componente supportato da CMEK specificando la chiave come uno dei parametri di creazione. Ad esempio, puoi utilizzare il seguente codice per specificare
una chiave per un componente ModelBatchPredict
:
model_batch_predict_op = ModelBatchPredictOp(project="PROJECT_ID",
model=model_upload_op.outputs["model"],
encryption_spec_key_name="projects/PROJECT_ID/locations/LOCATION_ID/keyRings/KEY_RING_NAME/cryptoKeys/KEY_NAME")
Sostituisci quanto segue:
- PROJECT_ID: l'ID del tuo progetto Google Cloud.
- LOCATION_ID: un identificatore di località o regione valido, ad esempio
us-central1
. - KEY_RING_NAME: il nome del keyring della tua CMEK. Per ulteriori informazioni sui keyring, vedi Risorse di Cloud KMS.
- KEY_NAME: il nome della chiave CMEK.
Nota:componenti di Google Cloud diversi da quelli di Vertex AI potrebbero richiedere autorizzazioni aggiuntive. Ad esempio, un componente BigQuery potrebbe richiedere l'autorizzazione di crittografia e decrittografia. Inoltre, la posizione della chiave CMEK deve essere la stessa del componente. Ad esempio, se un componente di BigQuery carica i dati da un set di dati basato su località con più regioni negli Stati Uniti, anche la chiave CMEK deve trovarsi nella località US (più regioni).
Consumo o produzione artefatti nel componente
L'SDK dei componenti della pipeline di Google Cloud definisce un insieme Tipi di artefatti dei metadati ML che fungono da componenti input e output. Alcuni componenti della pipeline di Google Cloud utilizzano questi artefatti come input o producili come output.
Questa pagina mostra come utilizzare e produrre questi elementi.
Consuma un artefatto ML
Utilizzare un artefatto nel file YAML del componente
I metadati dell'artefatto possono fungere da input per un componente. Per preparare un l'artefatto da consumare come input, devi estrarlo e inserirlo in un componente YAML.
Ad esempio, la proprietà ModelUploadOp
genera un artefatto google.VertexModel
che può essere utilizzato da un
ModelDeployOp
di strumento di authoring. Utilizza il seguente codice in un file YAML del componente per recuperare
una risorsa Vertex AI Model
dagli input (riferimento):
"model": "',"{{$.inputs.artifacts['model'].metadata['resourceName']}}", '"'
Per lo schema completo dei metadati dell'artefatto, vedi
File artifact_types.py
nel repository GitHub di Kubeflow.
Consuma un artefatto in un componente Python leggero
from kfp.dsl import Artifact, Input
@dsl.component
def classification_model_eval_metrics(
project: str,
location: str, # "us-central1",
model: Input[Artifact],
) :
# Consumes the `resourceName` metadata
model_resource_path = model.metadata["resourceName"]
Per un esempio di come utilizzare i tipi di elementi Vertex ML Metadata, consulta Addestrare un modello di classificazione utilizzando dati tabulari e AutoML per Vertex AI.
Creare un artefatto ML
Gli esempi di codice riportati di seguito mostrano come creare un elemento metadata di Vertex ML che un componente GCPC può accettare come input.
Utilizzare un nodo importatore
Nell'esempio seguente viene creato un nodo di importazione che registra un nuovo artefatto a Vertex ML Metadata. Il nodo dell'importatore prende l'URI e i metadati dell'artefatto come elementi primitivi e li pacchettizza in un artefatto.
from google_cloud_pipeline_components import v1
from google_cloud_pipeline_components.types import artifact_types
from kfp.components import importer_node
from kfp import dsl
@dsl.pipeline(name=_PIPELINE_NAME)
def pipeline():
# Using importer and UnmanagedContainerModel artifact for model upload
# component.
importer_spec = importer_node.importer(
artifact_uri='gs://managed-pipeline-gcpc-e2e-test/automl-tabular/model',
artifact_class=artifact_types.UnmanagedContainerModel,
metadata={
'containerSpec': {
'imageUri':
'us-docker.pkg.dev/vertex-ai/automl-tabular/prediction-server:prod'
}
})
# Consuming the UnmanagedContainerModel artifact for the previous step
model_upload_with_artifact_op = v1.model.ModelUploadOp(
project=_GCP_PROJECT_ID,
location=_GCP_REGION,
display_name=_MODEL_DISPLAY_NAME,
unmanaged_container_model=importer_spec.outputs['artifact'])
Utilizzare componenti basati su funzioni Python
L'esempio seguente mostra come generare un output di Vertex ML Metadata artefatto direttamente da un componente Python.
from google_cloud_pipeline_components import v1
from kfp.components import importer_node
from kfp import dsl
@dsl.component(
base_image='python:3.9',
packages_to_install=['google-cloud-aiplatform'],
)
# Note currently KFP SDK doesn't support outputting artifacts in `google` namespace.
# Use the base type dsl.Artifact instead.
def return_unmanaged_model(model: dsl.Output[dsl.Artifact]):
model.metadata['containerSpec'] = {
'imageUri':
'us-docker.pkg.dev/vertex-ai/automl-tabular/prediction-server:prod'
}
model.uri = f'gs://automl-tabular-pipeline/automl-tabular/model'
@dsl.pipeline(name=_PIPELINE_NAME)
def pipeline():
unmanaged_model_op = return_unmanaged_model()
# Consuming the UnmanagedContainerModel artifact for the previous step
model_upload_with_artifact_op = v1.model.ModelUploadOp(
project=_GCP_PROJECT_ID,
location=_GCP_REGION,
display_name=_MODEL_DISPLAY_NAME,
unmanaged_container_model=unmanaged_model_op.outputs['model'])
Utilizzare il tuo componente basato su container
L'esempio seguente mostra come generare un elemento VertexBatchPredictionJob
come output da un componente basato su contenitore utilizzando la classe di utilità artifact_types.py
.
bp_job_artifact = VertexBatchPredictionJob(
'batchpredictionjob', vertex_uri_prefix + get_job_response.name,
get_job_response.name, get_job_response.output_info.bigquery_output_table,
get_job_response.output_info.bigquery_output_dataset,
get_job_response.output_info.gcs_output_directory)
output_artifacts = executor_input_json.get('outputs', {}).get('artifacts', {})
executor_output['artifacts'] = bp_job_artifact.to_executor_output_artifact(output_artifacts[bp_job_artifact.name])