使用 scikit-learn 流水线进行预测

在本教程中,您将使用 Iris 数据集训练一个简单的模型来预测花的种类。在本地训练并保存模型后,您可以将其部署到 AI Platform Prediction,并对其进行查询以获取在线预测结果。

您可以在 AI Platform Prediction 上部署和提供 scikit-learn 流水线。通过 scikit-learn 中的流水线模块,您可以在使用 Estimator 进行训练之前应用多个数据转换。这样可以封装数据处理的多个步骤,并确保每个步骤使用相同的训练数据。

概览

在本入门教程中,您将完成以下步骤:

  • 使用 scikit-learn 流水线,根据 Iris 数据集训练模型。
  • 在本地保存模型。
  • 将保存的模型上传到 Cloud Storage。
  • 创建 AI Platform Prediction 模型资源和模型版本。
  • 针对两个数据实例进行在线预测。

准备工作

完成以下步骤以设置 GCP 账号,激活 AI Platform Prediction API,以及安装并激活 Cloud SDK。

设置 GCP 项目

  1. 登录您的 Google Cloud 账号。如果您是 Google Cloud 新手,请创建一个账号来评估我们的产品在实际场景中的表现。新客户还可获享 $300 赠金,用于运行、测试和部署工作负载。
  2. 在 Google Cloud Console 中的项目选择器页面上,选择或创建一个 Google Cloud 项目

    转到“项目选择器”

  3. 确保您的 Google Cloud 项目已启用结算功能

  4. 启用 AI Platform Training & Prediction and Compute Engine API。

    启用 API

  5. 安装 Google Cloud CLI。
  6. 如需初始化 gcloud CLI,请运行以下命令:

    gcloud init
  7. 在 Google Cloud Console 中的项目选择器页面上,选择或创建一个 Google Cloud 项目

    转到“项目选择器”

  8. 确保您的 Google Cloud 项目已启用结算功能

  9. 启用 AI Platform Training & Prediction and Compute Engine API。

    启用 API

  10. 安装 Google Cloud CLI。
  11. 如需初始化 gcloud CLI,请运行以下命令:

    gcloud init

设置环境

请在以下选项中选择是在 macOS 本地设置环境,还是在 Cloud Shell 的远程环境中设置环境。

如果您是 macOS 用户,我们建议您按照下面的 MACOS 标签页中的说明设置环境。Cloud Shell 适用于 macOS、Linux 和 Windows 系统,在 CLOUD SHELL 标签页中提供。Cloud Shell 可帮助您快速体验 AI Platform Prediction,但不适用于持续性的开发工作。

macOS

  1. 检查 Python 的安装情况
    确认您是否已安装 Python;如有必要,请安装。

    python -V
  2. 检查 pip 的安装情况
    pip 是 Python 的软件包管理器,包含在当前版本的 Python 中。请运行 pip --version 来检查您是否已安装 pip。如果未安装,请了解如何安装 pip

    您可以使用以下命令升级 pip

    pip install -U pip

    如需了解详情,请参阅 pip 文档

  3. 安装 virtualenv
    virtualenv 是用于创建独立 Python 环境的工具。请运行 virtualenv --version 来检查您是否已安装 virtualenv。如果未安装,请安装 virtualenv

    pip install --user --upgrade virtualenv

    如需为本指南创建一个独立的开发环境,请在 virtualenv 中新建一个虚拟环境。例如,以下命令会激活名为 aip-env 的环境:

    virtualenv aip-env
    source aip-env/bin/activate
  4. 在本教程中,请在虚拟环境中运行其余命令。

    详细了解如何使用 virtualenv。如需退出 virtualenv,请运行 deactivate

Cloud Shell

  1. 打开 Google Cloud 控制台。

    Google Cloud 控制台

  2. 点击控制台窗口顶部的激活 Google Cloud Shell 按钮。

    激活 Google Cloud Shell

    一个 Cloud Shell 会话随即会在控制台底部的新框内打开,并显示命令行提示符。该 Shell 会话可能需要几秒钟来完成初始化。

    Cloud Shell 会话

    您的 Cloud Shell 会话已就绪,可以使用了。

  3. 配置 gcloud 命令行工具以使用您所选的项目。

    gcloud config set project [selected-project-id]

    其中,[selected-project-id] 是您的项目 ID。(忽略中括号)。

安装框架

macOS

在虚拟环境中,您可以运行以下命令,以安装 AI Platform Prediction 运行时版本 2.11 中使用的 scikit-learn 和 Pandas 版本:

(aip-env)$ pip install scikit-learn==1.0.2 pandas==1.3.5

通过在上述命令中提供版本号,您可以确保虚拟环境中的依赖项与运行时版本中的依赖项相匹配。这有助于防止您的代码在 AI Platform Prediction 上运行时出现不符合预期的行为。

如需了解详情、安装选项和问题排查信息,请参阅每个框架的安装说明:

Cloud Shell

运行以下命令可安装 scikit-learn 和 pandas:

pip install --user scikit-learn pandas

如需了解详情、安装选项和问题排查信息,请参阅每个框架的安装说明:

训练和导出模型

您可以使用 scikit-learn 或 pickle 中包含的 joblib 版本导出 Pipeline 对象,方法与导出 scikit-learn Estimator 类似。以下示例设置一个流水线,该流水线使用 RandomForestClassifier 根据 Iris 数据集训练模型。

joblib

设置流水线,训练模型,然后使用 joblib 导出 Pipeline 对象:

from sklearn import datasets
from sklearn import svm
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline

from sklearn.externals import joblib

# Load the Iris dataset
iris = datasets.load_iris()

# Set up a pipeline with a feature selection preprocessor that
# selects the top 2 features to use.
# The pipeline then uses a RandomForestClassifier to train the model.

pipeline = Pipeline([
      ('feature_selection', SelectKBest(chi2, k=2)),
      ('classification', RandomForestClassifier())
    ])

pipeline.fit(iris.data, iris.target)

# Export the classifier to a file
joblib.dump(pipeline, 'model.joblib')

pickle

设置流水线,训练模型,然后使用 pickle 导出 Pipeline 对象:

from sklearn import datasets
from sklearn import svm
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline

import pickle

# Load the Iris dataset
iris = datasets.load_iris()

# Set up a pipeline with a feature selection preprocessor that
# selects the top 2 features to use.
# The pipeline then uses a RandomForestClassifier to train the model.

pipeline = Pipeline([
      ('feature_selection', SelectKBest(chi2, k=2)),
      ('classification', RandomForestClassifier())
    ])

pipeline.fit(iris.data, iris.target)

# Export the classifier to a file
with open('model.pkl', 'wb') as model_file:
  pickle.dump(pipeline, model_file)

模型文件命名要求

您保存并上传到 Cloud Storage 的模型文件必须命名为 model.pklmodel.joblib,具体取决于所使用的库。此限制可确保在导入和导出模型时,AI Platform Prediction 均使用相同的模式重建模型。

导出模型时使用的库 正确的模型名称
pickle model.pkl
sklearn.externals.joblib model.joblib

为了在未来进行模型的迭代,请妥善组织您的 Cloud Storage 存储桶,确保每个新模型都有一个专用目录。

将模型存储在 Cloud Storage 中

在本教程中,最简单的方法是使用 AI Platform Prediction 所用的项目中的专用 Cloud Storage 存储桶。

如果您使用的是其他项目中的存储桶,则必须确保您的 AI Platform Prediction 服务账号可以访问 Cloud Storage 中的模型。如果没有适当的权限,创建 AI Platform Prediction 模型版本的请求将失败。请详细了解如何授予访问存储空间的权限

设置 Cloud Storage 存储桶

本部分介绍如何创建新存储桶。您可以使用现有存储桶,但它所在区域必须与您计划运行 AI Platform 作业的区域相同。此外,如果该存储桶不属于您用于运行 AI Platform Prediction 的项目,则您必须明确向 AI Platform Prediction 服务账号授予访问权限

  1. 为新存储桶指定名称。该名称在 Cloud Storage 的所有存储桶中必须是唯一的。

    BUCKET_NAME="YOUR_BUCKET_NAME"

    例如,使用附加了 -aiplatform 的项目名称:

    PROJECT_ID=$(gcloud config list project --format "value(core.project)")
    BUCKET_NAME=${PROJECT_ID}-aiplatform
  2. 检查您创建的存储桶名称。

    echo $BUCKET_NAME
  3. 为您的存储桶选择一个区域,并设置 REGION 环境变量。

    使用您计划在其中运行 AI Platform Prediction 作业的区域。查看 AI Platform Prediction 服务的可用区域

    例如,以下代码会创建 REGION 并将其设置为 us-central1

    REGION=us-central1
  4. 创建新的存储桶:

    gsutil mb -l $REGION gs://$BUCKET_NAME

将导出的模型文件上传到 Cloud Storage

运行以下命令,将已保存的流水线文件上传到您的 Cloud Storage 存储桶:

gsutil cp ./model.joblib gs://$BUCKET_NAME/model.joblib

您可以使用同一个 Cloud Storage 存储桶来存储多个模型文件,但每个模型文件必须位于该存储分区内的专属目录中。

设置用于预测的输入数据格式

gcloud

创建一个 input.json 文件,其中每个输入实例位于单独的一行:

[6.8,  2.8,  4.8,  1.4]
[6.0,  3.4,  4.5,  1.6]

请注意,输入实例的格式需要与模型要求的格式相匹配。在本例中,Iris 模型需要 4 个特征,因此您的输入必须为形状矩阵 (num_instances, 4)。

REST API

创建一个 input.json 文件,格式采用简单的浮点数列表,其中每个输入实例位于单独的一行:

{
  "instances": [

    [6.8,  2.8,  4.8,  1.4],
    [6.0,  3.4,  4.5,  1.6]

  ]
}

请注意,输入实例的格式需要与模型要求的格式相匹配。在本例中,Iris 模型需要 4 个特征,因此您的输入必须为形状矩阵 (num_instances, 4)。

如需了解详情,请参阅设置用于在线预测的输入数据格式

使用本地预测测试模型

在将模型部署到 AI Platform Prediction 之前,您可以使用 gcloud ai-platform local predict 命令测试模型如何提供预测服务。该命令使用本地环境中的依赖项执行预测,并以 gcloud ai-platform predict 在执行在线预测时使用的同一格式返回结果。在本地测试预测有助于在产生在线预测请求费用之前发现错误。

对于 --model-dir 参数,请指定本地机器或 Cloud Storage 中包含导出的机器学习模型的目录。对于 --framework 参数,请指定 tensorflowscikit-learnxgboost。您不能将 gcloud ai-platform local predict 命令与自定义预测例程搭配使用。

以下示例展示了如何执行本地预测:

gcloud ai-platform local predict --model-dir LOCAL_OR_CLOUD_STORAGE_PATH_TO_MODEL_DIRECTORY/ \
  --json-instances LOCAL_PATH_TO_PREDICTION_INPUT.JSON \
  --framework NAME_OF_FRAMEWORK

部署模型和版本

AI Platform Prediction 使用模型和版本资源来组织经过训练的模型。modelmodelAI Platform Prediction 模型是存放机器学习模型版本的容器。

如需部署模型,请在 AI Platform Prediction 中创建模型资源,创建该模型的版本,然后将模型版本关联到存储在 Cloud Storage 中的模型文件。

创建模型资源

AI Platform Prediction 使用模型资源来组织模型的不同版本。

此时,您必须确定希望属于此模型的模型版本使用区域端点还是全球端点。在大多数情况下,建议选择区域端点。如果您需要仅旧版 (MLS1) 机器类型才提供的功能,请使用全球端点。

此时,您还必须确定,是否希望属于该模型的模型版本在提供预测时导出任何日志。以下示例不启用日志记录。了解如何启用日志记录

控制台

  1. 打开 Google Cloud 控制台中的 AI Platform Prediction 模型页面:

    转到“模型”页面

  2. 点击模型页面顶部的新建模型按钮。您随即会进入创建模型页面。

  3. 模型名称字段中,输入一个唯一的模型名称。

  4. 选中使用区域端点复选框后,AI Platform Prediction 将使用区域端点。要改为使用全球端点,请清除使用区域端点复选框。

  5. 区域下拉列表中,选择预测节点的位置。可用区域取决于您是使用区域端点还是全球端点。

  6. 点击创建

  7. 确认您已返回模型页面,并且新模型显示在列表中。

gcloud

区域端点

运行以下命令:

gcloud ai-platform models create MODEL_NAME \
  --region=REGION

替换以下内容:

如果您没有指定 --region 标志,则 gcloud CLI 会提示您选择一个区域端点(或在全球端点上使用 us-central)。

或者,您可以ai_platform/region 属性设置为特定区域,以确保 gcloud CLI 始终为 AI Platform Prediction 使用相应的区域端点,即使您未指定 --region 标志也是如此。(此配置不适用于 gcloud ai-platform operations 命令组中的命令。)

全球端点

运行以下命令:

gcloud ai-platform models create MODEL_NAME \
  --regions=REGION

替换以下内容:

如果您没有指定 --regions 标志,则 gcloud CLI 会提示您选择一个区域端点(或在全球端点上使用 us-central1)。

REST API

区域端点

  1. 通过将模型对象放在请求正文中来设置请求的格式。至少,通过替换以下示例中的 MODEL_NAME,为模型指定一个名称:

    {
      "name": "MODEL_NAME"
    }
    
  2. 针对以下网址进行 REST API 调用,并将 PROJECT_ID 替换为您的 Google Cloud 项目 ID:

    POST https://REGION-ml.googleapis.com/v1/projects/PROJECT_ID/models/
    

    替换以下内容:

    例如,您可以使用 curl 命令发出以下请求。该命令使用与您的 Google Cloud CLI 安装关联的凭据向请求授权。

    curl -X POST -H "Content-Type: application/json" \
      -d '{"name": "MODEL_NAME"}' \
      -H "Authorization: Bearer `gcloud auth print-access-token`" \
      "https://REGION-ml.googleapis.com/v1/projects/PROJECT_ID/models"
    

    API 会返回类似于如下所示的响应:

    {
      "name": "projects/PROJECT_ID/models/MODEL_NAME",
      "regions": [
        "REGION"
      ]
    }
    

全球端点

  1. 通过将模型对象放在请求正文中来设置请求的格式。至少,通过替换以下示例中的 MODEL_NAME,为模型指定一个名称,并通过将 REGION 替换为支持旧版 (MLS1) 机器类型的区域来指定区域:

    {
      "name": "MODEL_NAME",
      "regions": ["REGION"]
    }
    
  2. 针对以下网址进行 REST API 调用,并将 PROJECT_ID 替换为您的 Google Cloud 项目 ID:

    POST https://ml.googleapis.com/v1/projects/PROJECT_ID/models/
    

    例如,您可以使用 curl 命令发出以下请求。该命令使用与您的 Google Cloud CLI 安装关联的凭据向请求授权。

    curl -X POST -H "Content-Type: application/json" \
      -d '{"name": "MODEL_NAME", "regions": ["REGION"]}' \
      -H "Authorization: Bearer `gcloud auth print-access-token`" \
      "https://ml.googleapis.com/v1/projects/PROJECT_ID/models"
    

    API 会返回类似于如下所示的响应:

    {
      "name": "projects/PROJECT_ID/models/MODEL_NAME",
      "regions": [
        "REGION"
      ]
    }
    

如需了解详情,请参阅 AI Platform Prediction 模型 API

创建模型版本

现在,您就可以使用先前上传到 Cloud Storage 且经过训练的模型来创建模型版本了。创建版本时,您可以指定多个参数。以下列表介绍了一些常见参数,其中一些是必需的参数:

  • name:在 AI Platform Prediction 模型中必须是唯一的。
  • deploymentUri:Cloud Storage 中模型目录的路径。

    • 如果您要部署 TensorFlow 模型,则此参数是 SavedModel 目录。
    • 如果您要部署 scikit-learn 或 XGBoost 模型,则此参数是包含 model.joblibmodel.pklmodel.bst 文件的目录。
    • 如果您要部署自定义预测例程,则此参数是包含所有模型工件的目录。此目录的总大小不能超过 500 MB
  • frameworkTENSORFLOWSCIKIT_LEARNXGBOOST

  • runtimeVersion:基于模型所需依赖项的运行时版本。如果您要部署 scikit-learn 模型或 XGBoost 模型,则此参数必须至少为 1.4。如果您计划将模型版本用于批量预测,则必须使用运行时版本 2.1 或更早版本。

  • pythonVersion:必须设置为“3.5”(对于运行时版本 1.4 到 1.14)或“3.7”(对于运行时版本 1.15 及更高版本),才能与使用 Python 3 导出的模型文件兼容。如果与运行时版本 1.15 或更早版本配合使用,也可设置为“2.7”。

  • machineType(可选):AI Platform Prediction 用于提供预测服务的节点的虚拟机类型。详细了解机器类型。如果未设置,则默认为在区域端点上使用 n1-standard-2 以及在全球端点上使用 mls1-c1-m2

如需详细了解上述每个参数以及其他不常见的参数,请参阅版本资源的 API 参考文档

此外,如果您在区域端点上创建了模型,请务必在同一区域端点上创建版本

控制台

  1. 打开 Google Cloud 控制台中的 AI Platform Prediction 模型页面:

    转到“模型”页面

  2. 模型页面上,选择要用于创建版本的模型资源的名称。您随即会进入模型详情页面。

  3. 点击模型详情页面顶部的新建版本按钮。您随即会进入创建版本页面。

  4. 名称字段中输入您的版本名称。(可选)在说明字段中,输入版本的说明。

  5. 在相应的下拉框中输入有关您如何训练模型的以下信息:

  6. 选择要运行在线预测的机器类型

  7. 模型 URI 字段中,输入您上传模型文件时使用的 Cloud Storage 存储桶位置。您可以使用浏览按钮查找正确的路径。

    请确保指定的路径指向包含该文件的目录,而非指向模型文件本身。例如,使用 gs://your_bucket_name/model-dir/,而不是 gs://your_bucket_name/model-dir/saved_model.pbgs://your_bucket_name/model-dir/model.pkl

  8. 选择用于在线预测部署的扩缩选项:

    • 如果选择“自动扩缩”,则系统会显示可选的节点数下限字段。您可以输入当服务规模缩减时应始终保持运行的最小节点数。

    • 如果选择“手动扩缩”,则必须输入您希望始终保持运行的节点数

    了解扩缩选项如何因机器类型而异

    如需了解详情,请参阅预测费用的价格

  9. 点击保存即可完成模型版本的创建。

gcloud

  1. 设置环境变量,以存储模型二进制文件所在的 Cloud Storage 目录的路径、模型名称、版本名称和框架选项。

    使用 gcloud CLI 创建版本时,您可以提供带下划线的大写字母框架名称(例如 SCIKIT_LEARN)或带连字符的小写字母框架名称(例如 scikit-learn)。这两种方式具有相同的效果。

    [VALUES_IN_BRACKETS] 替换为适当的值:

    MODEL_DIR="gs://your_bucket_name/"
    VERSION_NAME="[YOUR-VERSION-NAME]"
    MODEL_NAME="[YOUR-MODEL-NAME]"
    FRAMEWORK="[YOUR-FRAMEWORK_NAME]"
    

  2. 创建版本:

    gcloud ai-platform versions create $VERSION_NAME \
      --model=$MODEL_NAME \
      --origin=$MODEL_DIR \
      --runtime-version=2.11 \
      --framework=$FRAMEWORK \
      --python-version=3.7 \
      --region=REGION \
      --machine-type=MACHINE_TYPE
    

    替换以下内容:

    • REGION:您在其上创建模型区域端点的区域。如果您在全球端点上创建模型,请省略 --region 标志。

    • MACHINE_TYPE:一种机器类型,用于确定预测节点可使用的计算资源。

    创建版本需要几分钟时间。完成后,您应该会看到以下输出:

    Creating version (this might take a few minutes)......done.
  3. 获取有关新版本的信息:

    gcloud ai-platform versions describe $VERSION_NAME \
      --model=$MODEL_NAME
    

    您应该会看到如下所示的输出:

    createTime: '2018-02-28T16:30:45Z'
    deploymentUri: gs://your_bucket_name
    framework: [YOUR-FRAMEWORK-NAME]
    machineType: mls1-c1-m2
    name: projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]
    pythonVersion: '3.7'
    runtimeVersion: '2.11'
    state: READY

REST API

  1. 设置请求正文的格式,使其包含版本对象。以下示例指定了版本 namedeploymentUriruntimeVersionframeworkmachineType。将 [VALUES_IN_BRACKETS] 替换为适当的值:

    {
      "name": "[YOUR-VERSION-NAME]",
      "deploymentUri": "gs://your_bucket_name/",
      "runtimeVersion": "2.11",
      "framework": "[YOUR_FRAMEWORK_NAME]",
      "pythonVersion": "3.7",
      "machineType": "[YOUR_MACHINE_TYPE]"
    }
    
  2. 针对以下路径进行 REST API 调用,将 [VALUES_IN_BRACKETS] 替换为适当的值:

    POST https://REGION-ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions
    

    REGION 替换为您在其上创建了模型区域端点的区域。如果您是在全球端点上创建的模型,请使用 ml.googleapis.com

    例如,您可以使用 curl 命令发出以下请求:

    curl -X POST -H "Content-Type: application/json" \
      -d '{"name": "[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name/", "runtimeVersion": "2.11", "framework": "[YOUR_FRAMEWORK_NAME]", "pythonVersion": "3.7", "machineType": "[YOUR_MACHINE_TYPE]"}' \
      -H "Authorization: Bearer `gcloud auth print-access-token`" \
      "https://REGION-ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions"
    

    创建版本需要几分钟时间。完成后,您应该会看到类似如下所示的输出:

    {
      "name": "projects/[YOUR-PROJECT-ID]/operations/create_[YOUR-MODEL-NAME]_[YOUR-VERSION-NAME]-[TIMESTAMP]",
      "metadata": {
        "@type": "type.googleapis.com/google.cloud.ml.v1.OperationMetadata",
        "createTime": "2018-07-07T02:51:50Z",
        "operationType": "CREATE_VERSION",
        "modelName": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]",
        "version": {
          "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]",
          "deploymentUri": "gs://your_bucket_name",
          "createTime": "2018-07-07T02:51:49Z",
          "runtimeVersion": "2.11",
          "framework": "[YOUR_FRAMEWORK_NAME]",
          "machineType": "[YOUR_MACHINE_TYPE]",
          "pythonVersion": "3.7"
        }
      }
    }
    

发送在线预测请求

成功创建版本后,AI Platform Prediction 将启动一个可处理预测请求的新服务器。

gcloud

  1. 为模型名称、版本名称和输入文件的名称设置环境变量:

    MODEL_NAME="pipeline"
    VERSION_NAME="v1"
    INPUT_FILE="input.json"
    
  2. 发送预测请求:

    gcloud ai-platform predict --model $MODEL_NAME --version \
      $VERSION_NAME --json-instances $INPUT_FILE
    

Python

此示例设定您熟悉适用于 Python 的 Google Cloud 客户端库。如果不熟悉,请参阅使用 Python 客户端库

import googleapiclient.discovery

def predict_json(project, model, instances, version=None):
    """Send json data to a deployed model for prediction.
    Args:
        project (str): project where the AI Platform Prediction Model is deployed.
        model (str): model name.
        instances ([[float]]): List of input instances, where each input
           instance is a list of floats.
        version: str, version of the model to target.
    Returns:
        Mapping[str: any]: dictionary of prediction results defined by the
            model.
    """
    # Create the AI Platform Prediction service object.
    # To authenticate set the environment variable
    # GOOGLE_APPLICATION_CREDENTIALS=<path_to_service_account_file>
    service = googleapiclient.discovery.build('ml', 'v1')
    name = 'projects/{}/models/{}'.format(project, model)

    if version is not None:
        name += '/versions/{}'.format(version)

    response = service.projects().predict(
        name=name,
        body={'instances': instances}
    ).execute()

    if 'error' in response:
        raise RuntimeError(response['error'])

    return response['predictions']

如需详细了解预测输入参数,请参阅预测输入的 AI Platform Prediction API

后续步骤