Os componentes sem servidor para o Apache Spark permitem-lhe executar cargas de trabalho em lote do Apache Spark a partir de um pipeline no Vertex AI Pipelines. O Serverless para Apache Spark executa as cargas de trabalho em lote numa infraestrutura de computação gerida, escalando automaticamente os recursos conforme necessário.
Saiba mais sobre o Google Cloud Serverless para Apache Spark e os encargos de trabalho do Spark suportados.
No Serverless for Apache Spark, um recurso Batch
representa uma carga de trabalho em lote.
O SDK Google Cloud inclui os seguintes operadores para criar recursos Batch
e monitorizar a respetiva execução:
Referência da API
Para referência de componentes, consulte a Google Cloud referência do SDK para os Google Cloud componentes Serverless for Apache Spark .
Para consultar a referência de recursos do Serverless for Apache Spark, consulte a seguinte página de referência da API:
Batch
recurso
Tutoriais
Histórico de versões e notas de lançamento
Para saber mais sobre o histórico de versões e as alterações ao Google Cloud SDK de componentes de pipeline, consulte as Google Cloud notas de lançamento do SDK de componentes de pipeline.
Contactos do apoio técnico
Se tiver dúvidas, contacte kfp-dataproc-components@google.com.