资源:批处理
表示服务中的批量工作负载。
JSON 表示法 |
---|
{ "name": string, "uuid": string, "createTime": string, "runtimeInfo": { object ( |
字段 | |
---|---|
name |
仅限输出。批处理的资源名称。 |
uuid |
仅限输出。批次 UUID(通用唯一标识符)。该服务会在创建批处理时生成此值。 |
create |
仅限输出。批次的创建时间。 时间戳采用 RFC3339 世界协调时间(UTC,即“祖鲁时”)格式,精确到纳秒,最多九个小数位。示例: |
runtime |
仅限输出。有关批量执行的运行时信息。 |
state |
仅限输出。批处理的状态。 |
state |
仅限输出。批处理状态详情,例如,如果状态为 |
state |
仅限输出。批处理进入当前状态的时间。 时间戳采用 RFC3339 世界协调时间(UTC,即“祖鲁时”)格式,精确到纳秒,最多九个小数位。示例: |
creator |
仅限输出。创建批处理的用户的电子邮件地址。 |
labels |
可选。要与此批次关联的标签。标签键必须包含 1 到 63 个字符,并且必须符合 RFC 1035 的要求。标签值可以为空,但如果存在,则必须包含 1 到 63 个字符,并且必须符合 RFC 1035。与批处理关联的标签不得超过 32 个。 包含一系列 |
runtime |
可选。批量执行的运行时配置。 |
environment |
可选。批量执行的环境配置。 |
operation |
仅限输出。与此批处理关联的操作的资源名称。 |
state |
仅限输出。批处理的历史状态信息。 |
联合字段 batch_config 。批处理配置的应用/框架专用部分。batch_config 只能是下列其中一项: |
|
pyspark |
可选。PySpark 批处理配置。 |
spark |
可选。Spark 批处理配置。 |
spark |
可选。SparkR 批处理配置。 |
spark |
可选。SparkSql 批处理配置。 |
PySparkBatch
用于运行 Apache PySpark 批处理工作负载的配置。
JSON 表示法 |
---|
{ "mainPythonFileUri": string, "args": [ string ], "pythonFileUris": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
字段 | |
---|---|
main |
必需。要用作 Spark 驱动程序的主 Python 文件的 HCFS URI。必须是 .py 文件。 |
args[] |
可选。要传递给驱动程序的参数。请勿添加可设置为批量属性的参数(例如 |
python |
可选。要传递给 PySpark 框架的 Python 文件的 HCFS 文件 URI。支持的文件类型: |
jar |
可选。要添加到 Spark 驱动程序和任务的类路径的 JAR 文件的 HCFS URI。 |
file |
可选。要放入各个执行程序的工作目录中的文件的 HCFS URI。 |
archive |
可选。要提取到每个执行程序的工作目录中的归档文件的 HCFS URI。支持的文件类型: |
SparkBatch
用于运行 Apache Spark 批处理工作负载的配置。
JSON 表示法 |
---|
{ "args": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ], // Union field |
字段 | |
---|---|
args[] |
可选。要传递给驱动程序的参数。请勿添加可设置为批量属性的参数(例如 |
jar |
可选。要添加到 Spark 驱动程序和任务的类路径的 JAR 文件的 HCFS URI。 |
file |
可选。要放入各个执行程序的工作目录中的文件的 HCFS URI。 |
archive |
可选。要提取到每个执行程序的工作目录中的归档文件的 HCFS URI。支持的文件类型: |
联合字段 driver 。用于调用以驱动 Spark 工作负载的主要方法的规范。指定包含主类的 jar 文件或主类名称。如需同时传递主 jar 和该 jar 中的主类,请将 jar 添加到 jar_file_uris ,然后在 main_class 中指定主类名称。driver 只能是下列其中一项: |
|
main |
可选。包含主类的 jar 文件的 HCFS URI。 |
main |
可选。驱动程序主类的名称。包含该类的 jar 文件必须位于类路径中或在 |
SparkRBatch
用于运行 Apache SparkR 批处理工作负载的配置。
JSON 表示法 |
---|
{ "mainRFileUri": string, "args": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
字段 | |
---|---|
main |
必需。要用作驱动程序的主要 R 文件的 HCFS URI。必须是 |
args[] |
可选。要传递给 Spark 驱动程序的参数。请勿添加可设置为批量属性的参数(例如 |
file |
可选。要放入各个执行程序的工作目录中的文件的 HCFS URI。 |
archive |
可选。要提取到每个执行程序的工作目录中的归档文件的 HCFS URI。支持的文件类型: |
SparkSqlBatch
用于将 Apache Spark SQL 查询作为批处理工作负载运行的配置。
JSON 表示法 |
---|
{ "queryFileUri": string, "queryVariables": { string: string, ... }, "jarFileUris": [ string ] } |
字段 | |
---|---|
query |
必需。包含要执行的 Spark SQL 查询的脚本的 HCFS URI。 |
query |
可选。将查询变量名称映射到值(相当于 Spark SQL 命令: 包含一系列 |
jar |
可选。要添加到 Spark CLASSPATH 的 JAR 文件的 HCFS URI。 |
州
批处理状态。
枚举 | |
---|---|
STATE_UNSPECIFIED |
批处理状态未知。 |
PENDING |
系统会在运行前创建批处理。 |
RUNNING |
批处理正在运行。 |
CANCELLING |
批处理正在取消。 |
CANCELLED |
批量取消操作已成功。 |
SUCCEEDED |
批量处理已成功完成。 |
FAILED |
由于出现错误,批处理作业已停止运行。 |
StateHistory
历史状态信息。
JSON 表示法 |
---|
{
"state": enum ( |
字段 | |
---|---|
state |
仅限输出。历史记录中此时间点的批处理状态。 |
state |
仅限输出。有关历史记录中此时间点状态的详细信息。 |
state |
仅限输出。批次进入历史状态的时间。 时间戳采用 RFC3339 世界协调时间(UTC,即“祖鲁时”)格式,精确到纳秒,最多九个小数位。示例: |
方法 |
|
---|---|
|
创建以异步方式执行的批处理工作负载。 |
|
删除批处理工作负载资源。 |
|
获取批量工作负载资源表示法。 |
|
列出批处理工作负载。 |