AI Platform Prediction 将 TensorFlow、scikit-learn、XGBoost 的强大功能和灵活性带到了云端。您可以使用 AI Platform Prediction 托管经过训练的模型,以便向其发送预测请求。
使用入门
-
AI Platform 简介
AI Platform 产品概览。
-
预测概览
介绍如何使用 AI Platform Prediction 托管机器学习模型以及提供预测结果。
-
开发环境
针对本地开发环境的要求。
-
在线预测与批量预测对比
简要介绍在线预测与批量预测之间的差异。
-
开始使用:用 TensorFlow Keras 进行训练和预测
在 AI Platform Training 中训练 TensorFlow Keras 模型,并将模型部署到 AI Platform Prediction。
-
开始使用:用 TensorFlow Estimator 进行训练和预测
在 AI Platform Training 中训练 TensorFlow Estimator 模型,并将模型部署到 AI Platform Prediction。
-
scikit-learn 和 XGBoost 使用入门
部署 scikit-learn 或 XGBoost 模型来提供预测结果。
预测工作流
-
导出模型以进行预测
编写训练代码以导出可用于 AI Platform Prediction 的模型工件。
-
导出 SavedModel 以执行预测
导出 TensorFlow SavedModel,使其与 AI Platform Prediction 兼容。
-
部署模型
通过创建模型和模型版本资源来部署机器学习模型。
-
自定义预测例程
自定义 AI Platform Prediction 如何处理预测请求。
-
用于在线预测的机器类型
配置 AI Platform Prediction 用于处理请求的虚拟机和 GPU 类型。
-
获取在线预测结果
向您部署的机器学习模型发送请求并接收预测结果。
-
获取批量预测结果
使用 TensorFlow 模型对大量数据实例执行预测。
用于在线预测的自定义容器
与工具和服务集成
监控和安全
AI Platform Prediction 资源
教程
-
使用 Keras 创建自定义预测例程
部署 Keras 模型以及用于处理请求的预处理和后处理代码。
-
使用 XGBoost 获取在线预测结果
部署 XGBoost 模型并请求预测。
-
使用 scikit-learn 进行在线预测
部署 scikit-learn 模型,该模型使用带有众多转换器的流水线。
-
使用 scikit-learn 流水线进行预测
部署 scikit-learn 模型,该模型使用带有预处理步骤和分类步骤的流水线。
-
使用带有自定义转换器的 scikit-learn 流水线
部署带有自定义预处理的 scikit-learn 流水线。
-
使用 scikit-learn 创建自定义预测例程
部署 scikit-learn 模型以及用于处理请求的预处理和后处理代码。
-
在 Kaggle 和 AI Platform Prediction 上使用 scikit-learn
在 Kaggle 中训练模型并将其部署到 AI Platform Prediction。
AI Explanations
-
AI Explanations 概览
介绍如何将 AI Explanations 与 AI Platform Prediction 搭配使用。
-
AI Explanations 使用入门
部署 TensorFlow 模型并发出说明请求。
-
AI Explanations 的限制
使用 AI Explanations 时的注意事项。
-
使用特征归因
为 AI Explanations 配置机器学习模型并请求说明。
-
保存 TensorFlow 模型
为 AI Explanations 正确保存 TensorFlow 2 和 TensorFlow 1.15 模型。
-
准备元数据
使用 Explainable AI SDK 创建 AI Explanations 所需的说明元数据文件。
-
直观显示说明
利用 AI Explanations 直观显示说明。
-
了解说明的输入和输出
在将现有 TensorFlow 1.15 模型部署到 AI Explanations 之前,先查找输入和输出张量以手动创建说明元数据文件。