Escribe un componente para mostrar un vínculo de la consola de Google Cloud.
Es común que cuando ejecutas un componente, no solo desees ver el vínculo al trabajo de componente que se inicia, sino también el vínculo a los recursos subyacentes de la nube, como los trabajos de predicción por lotes de Vertex o los trabajos de Dataflow.
El proto gcp_resource
es un parámetro especial que puedes usar en el componente para permitir que la consola de Google Cloud proporcione una vista personalizada de los registros y el estado del recurso en la consola de canalizaciones de Vertex AI.
Obtén el resultado del parámetro gcp_resource
.
Usa un componente basado en contenedores
Primero, deberás definir el parámetro gcp_resource
en el componente, como se muestra en el siguiente archivo component.py
de ejemplo:
Python
Si deseas obtener información para instalar o actualizar el SDK de Vertex AI para Python, consulta Instala el SDK de Vertex AI para Python. Si deseas obtener más información, consulta la documentación de referencia de la API de Python.
A continuación, dentro del contenedor, instala el paquete de componentes de canalización de Google Cloud:
pip install --upgrade google-cloud-pipeline-components
A continuación, en el código de Python, define el recurso como un parámetro gcp_resource
:
Python
Si deseas obtener información para instalar o actualizar el SDK de Vertex AI para Python, consulta Instala el SDK de Vertex AI para Python. Si deseas obtener más información, consulta la documentación de referencia de la API de Python.
from google_cloud_pipeline_components.proto.gcp_resources_pb2 import GcpResources
from google.protobuf.json_format import MessageToJson
dataflow_resources = GcpResources()
dr = dataflow_resources.resources.add()
dr.resource_type='DataflowJob'
dr.resource_uri='https://dataflow.googleapis.com/v1b3/projects/[your-project]/locations/us-east1/jobs/[dataflow-job-id]'
with open(gcp_resources, 'w') as f:
f.write(MessageToJson(dataflow_resources))
Usa un componente de Python
De manera alternativa, puedes mostrar el parámetro de salida gcp_resources
como lo harías con cualquier parámetro de salida de string:
@dsl.component(
base_image='python:3.9',
packages_to_install=['google-cloud-pipeline-components==2.15.0'],
)
def launch_dataflow_component(project: str, location:str) -> NamedTuple("Outputs", [("gcp_resources", str)]):
# Launch the dataflow job
dataflow_job_id = [dataflow-id]
dataflow_resources = GcpResources()
dr = dataflow_resources.resources.add()
dr.resource_type='DataflowJob'
dr.resource_uri=f'https://dataflow.googleapis.com/v1b3/projects/{project}/locations/{location}/jobs/{dataflow_job_id}'
gcp_resources=MessageToJson(dataflow_resources)
return gcp_resources
Valores admitidos de resource_type
:
Puedes configurar resource_type
para que sea una string arbitraria, pero solo los siguientes tipos tienen vínculos en la consola de Google Cloud:
- BatchPredictionJob
- BigQueryJob
- CustomJob
- DataflowJob
- HyperparameterTuningJob
Escribe un componente para cancelar los recursos subyacentes
Cuando se cancela un trabajo de canalización, el comportamiento predeterminado es que los recursos subyacentes de Google Cloud se sigan ejecutando. No se cancelan de forma automática. Para cambiar este comportamiento, debes adjuntar un controlador SIGTERM al trabajo de canalización. Un buen lugar para hacerlo es justo antes de un bucle de sondeo para un trabajo que podría ejecutarse durante mucho tiempo.
La cancelación se implementó en varios componentes de la canalización de Google Cloud, incluidos los siguientes:
- Trabajo de predicción por lotes
- Trabajo de BigQuery ML
- Trabajo personalizado
- Trabajo por lotes sin servidores de Dataproc
- Trabajos de ajuste de hiperparámetros
Para obtener más información, incluido un código de muestra que indica cómo adjuntar un controlador de SIGTERM, consulta los siguientes vínculos de GitHub:
- https://github.com/kubeflow/pipelines/blob/google-cloud-pipeline-components-2.15.0/components/google-cloud/google_cloud_pipeline_components/container/utils/execution_context.py
- https://github.com/kubeflow/pipelines/blob/google-cloud-pipeline-components-2.15.0/components/google-cloud/google_cloud_pipeline_components/container/v1/gcp_launcher/job_remote_runner.py#L124
Ten en cuenta lo siguiente cuando implementes tu controlador de SIGTERM:
- La propagación de cancelación funciona solo después de que el componente haya estado en ejecución durante unos minutos. Por lo general, esto se debe a las tareas de inicio en segundo plano que deben procesarse antes de que se llame a los controladores de señales de Python.
- Es posible que algunos recursos de Google Cloud no tengan implementadas la cancelación. Por ejemplo, crear o borrar un extremo o modelo de Vertex AI podría crear una operación de larga duración que acepte una solicitud de cancelación a través de su API de REST, pero no implementa la operación de cancelación en sí.