Recurso: Lote
Es una representación de una carga de trabajo por lotes en el servicio.
| Representación JSON |
|---|
{ "name": string, "uuid": string, "createTime": string, "runtimeInfo": { object ( |
| Campos | |
|---|---|
name |
Solo salida. Es el nombre del recurso del lote. |
uuid |
Solo salida. Un UUID por lotes (identificador único universal). El servicio genera este valor cuando crea el lote. |
create |
Solo salida. Es la hora en la que se creó el lote. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
runtime |
Solo salida. Información del entorno de ejecución sobre la ejecución por lotes |
state |
Solo salida. Es el estado del lote. |
state |
Solo salida. Detalles del estado del lote, como una descripción de la falla si el estado es |
state |
Solo salida. La hora en que el lote entró en un estado actual. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
creator |
Solo salida. La dirección de correo electrónico del usuario que creó el lote |
labels |
Opcional. Las etiquetas que se asociarán con este lote. Las claves de etiqueta deben contener entre 1 y 63 caracteres y cumplir con la RFC 1035. Los valores de la etiqueta pueden estar vacíos, pero, si están presentes, deben contener entre 1 y 63 caracteres y cumplir con la RFC 1035. No se pueden asociar más de 32 etiquetas a un lote. Un objeto que contiene una lista de pares |
runtime |
Opcional. Configuración del entorno de ejecución para la ejecución por lotes. |
environment |
Opcional. Configuración del entorno para la ejecución por lotes |
operation |
Solo salida. El nombre del recurso de la operación asociada con este lote. |
state |
Solo salida. Información histórica del estado del lote. |
Campo de unión batch_config. Es la parte específica de la aplicación o el framework de la configuración por lotes. batch_config puede ser solo uno de los siguientes: |
|
pyspark |
Opcional. Configuración por lotes de PySpark |
spark |
Opcional. Configuración por lotes de Spark |
spark |
Opcional. Configuración por lotes de SparkR |
spark |
Opcional. Configuración por lotes de SparkSql. |
PySparkBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache PySpark
| Representación JSON |
|---|
{ "mainPythonFileUri": string, "args": [ string ], "pythonFileUris": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
| Campos | |
|---|---|
main |
Obligatorio. Es el URI de HCFS del archivo principal de Python que se usará como controlador de Spark. Debe ser un archivo .py. |
args[] |
Opcional. Los argumentos que se pasarán al controlador. No incluyas argumentos que se puedan establecer como propiedades de lotes, como |
python |
Opcional. URIs de archivos HCFS de archivos de Python para pasar al framework de PySpark Tipos de archivos compatibles: |
jar |
Opcional. URIs de HCFS de archivos JAR para agregar a la ruta de acceso de clases del controlador y las tareas de Spark. |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
SparkBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache Spark
| Representación JSON |
|---|
{ "args": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ], // Union field |
| Campos | |
|---|---|
args[] |
Opcional. Los argumentos que se pasarán al controlador. No incluyas argumentos que se puedan establecer como propiedades de lote, como |
jar |
Opcional. URIs de HCFS de archivos JAR para agregarlos a la ruta de acceso de clases del controlador y las tareas de Spark. |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
Campo de unión driver. La especificación del método principal al que se debe llamar para dirigir la carga de trabajo de Spark. Especifica el archivo jar que contiene la clase principal o el nombre de la clase principal. Para pasar un jar principal y una clase principal en ese jar, agrega el jar a jar_file_uris y, luego, especifica el nombre de la clase principal en main_class. driver solo puede ser una de las siguientes opciones: |
|
main |
Opcional. El URI de HCFS del archivo JAR que contiene la clase principal. |
main |
Opcional. Es el nombre de la clase principal del controlador. El archivo jar que contiene la clase debe estar en el classpath o especificarse en |
SparkRBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache SparkR
| Representación JSON |
|---|
{ "mainRFileUri": string, "args": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
| Campos | |
|---|---|
main |
Obligatorio. Es el URI de HCFS del archivo R principal que se usará como controlador. Debe ser un archivo |
args[] |
Opcional. Los argumentos que se pasarán al controlador de Spark. No incluyas argumentos que se puedan establecer como propiedades de lote, como |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
SparkSqlBatch
Es una configuración para ejecutar consultas de Apache Spark SQL como una carga de trabajo por lotes.
| Representación JSON |
|---|
{ "queryFileUri": string, "queryVariables": { string: string, ... }, "jarFileUris": [ string ] } |
| Campos | |
|---|---|
query |
Obligatorio. Es el URI de HCFS de la secuencia de comandos que contiene las consultas de Spark SQL que se ejecutarán. |
query |
Opcional. Asignación de nombres de variables de consulta a valores (equivalente al comando Spark SQL: Un objeto que contiene una lista de pares |
jar |
Opcional. URIs de HCFS de los archivos JAR que se agregarán al CLASSPATH de Spark. |
Estado
El estado del lote.
| Enums | |
|---|---|
STATE_UNSPECIFIED |
Se desconoce el estado del lote. |
PENDING |
El lote se crea antes de ejecutarse. |
RUNNING |
El lote se está ejecutando. |
CANCELLING |
Se cancela el lote. |
CANCELLED |
La cancelación masiva se realizó correctamente. |
SUCCEEDED |
El lote se completó correctamente. |
FAILED |
El lote ya no se ejecuta debido a un error. |
StateHistory
Información histórica del estado.
| Representación JSON |
|---|
{
"state": enum ( |
| Campos | |
|---|---|
state |
Solo salida. Es el estado del lote en este punto del historial. |
state |
Solo salida. Detalles sobre el estado en este momento de la historia. |
state |
Solo salida. Es la hora en la que el lote entró en el estado histórico. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
Métodos |
|
|---|---|
|
Crea una carga de trabajo por lotes que se ejecuta de forma asíncrona. |
|
Borra el recurso de carga de trabajo por lotes. |
|
Obtiene la representación del recurso de la carga de trabajo por lotes. |
|
Muestra una lista de cargas de trabajo por lotes. |