リリースノート

このページには、AI Platform の本番環境に関する更新内容が記載されています。このページを定期的にチェックして、新機能や更新された機能、バグ修正、既知の問題、サポートが終了した(非推奨になった)機能に関するお知らせを確認してください。

プロダクトのアップデートに関する最新情報を受け取るには、このページの URL をフィード リーダーに追加してください。

2019 年 7 月 19 日

AI Platform ランタイム バージョン 1.14 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.14.0 をサポートし、ランタイム バージョンのリストにある他のパッケージを含んでいます。

TPU を使用したトレーニングは、現時点ではランタイム バージョン 1.14 でサポートされていません。

AI Platform ランタイム バージョン 1.12 に TensorFlow 1.12.3 のサポートが追加されました。ランタイム バージョン 1.12 に含まれる全パッケージのリストについては、ランタイム バージョンのリストをご覧ください。

2019 年 7 月 17 日

次の組み込みアルゴリズムの予測入力形式が変更されました。

生文字列の代わりに、「csv_row」キーおよび「key」キーを持つ JSON として各インスタンスをフォーマットしてください。この「key」は、AI Platform を使用してバッチ予測を行う場合に便利です。オンライン予測の場合は、入力する JSON リクエストで「key」キーにダミー値を渡すことができます。次に例を示します。

{"csv_row": "1, 2, 3, 4, 0, abc", "key" : "dummy-key"}

例については、国勢調査所得のチュートリアルをご覧ください。

2019 年 6 月 19 日

asia-southeast1(シンガポール)リージョンにてトレーニングとバッチ予測を実施できるようになりました。同リージョンでは、P4 または T4 GPU を使用してトレーニングを実施できます。asia-southeast1 におけるトレーニングの料金をお読みください。アクセラレータの料金についても記載されています。

2019 年 6 月 18 日

ランタイム バージョン 1.13 で、TPU を使用したトレーニング(TensorFlow 1.13 を使用)が可能となりました。

ランタイム バージョン 1.11 の TPU を使用したトレーニングのサポートは、2019 年 6 月 6 日に終了しました

2019 年 6 月 12 日

GCP Console の AI Platform の [ジョブの詳細] ページで、トレーニング ジョブのモニタリング データを直接閲覧できるようになりました。次のグラフを見ることができます。

  • マスター、ワーカー、パラメータ サーバー別の CPU、GPU、メモリの使用率。
  • ネットワーク使用量: 1 秒間に送受信されたバイトのレート。

詳しくは、トレーニング ジョブのリソース消費のモニタリングをご覧ください。

GCP Console の AI Platform の [ジョブ] ページにあるジョブのフィルタリングに新オプションが追加され、ジョブをタイプ別、あるいは HyperTune の適用の有無によりフィルタリングできるようになりました。

詳しくは、トレーニング ジョブをフィルタリングする方法をご覧ください。

GCP Console の AI Platform の [ジョブの詳細] ページでハイパーパラメータ調整トライアルの表示や並べ替えができるようになりました。トレーニング ジョブでハイパーパラメータ調整を行うと、[ジョブの詳細] ページに HyperTune トライアル表が表示され、ここで RMSE、学習率、トレーニング ステップなどの指標を見ることができます。各トライアルのログにもアクセスできます。この表により、個々のトライアルの比較が容易になります。

詳しくは、ハイパーパラメータ調整トライアルの表示方法をご覧ください。

2019 年 6 月 5 日

AI Platform 予測にカスタム予測ルーチンをデプロイするときに使用するモデルバージョンのサービス アカウントを指定できるようになりました。この機能はベータ版です。

2019 年 6 月 3 日

R およびコア R パッケージがインストールされた AI Platform Notebooks インスタンスを作成できるようになりました。R の依存関係をインストールする方法をご覧になり、AI Platform Notebooks の BigQuery での R の使用同じノートブックでの R および Python の使用に関するガイドをお読みください。

2019 年 5 月 3 日

T4 GPU が AI Platform トレーニングのベータ版になりました。詳細については、GPU の使用に関するガイド、GPU を利用可能なリージョンGPU の料金をご覧ください。

AI Platform ランタイム バージョン 1.12 に TensorFlow 1.12.2 のサポートが追加されました。ランタイム バージョン 1.12 に含まれる全パッケージのリストについては、ランタイム バージョンのリストをご覧ください。

2019 年 4 月 25 日

AI Platform で、ベータ版の予測カスタム予測ルーチンを使用できるようになりました。カスタム予測ルーチンを使用すると、デプロイしたモデルからオンライン予測を提供するときに使用するカスタムコードを AI Platform に提供できます。この機能は、予測入力の前処理やモデルの予測の後処理をする場合などに便利です。

Keras を使用したカスタム予測ルーチンのデプロイに関するチュートリアルや scikit-learn を使用したカスタム予測ルーチンのデプロイに関するチュートリアルを実施してください。

AI Platform 予測で、ベータ版の scikit-learn パイプラインのカスタム Transformer を使用できるようになりました。これにより、オンライン予測時に使用するカスタムコードを AI Platform に提供できるようになります。デプロイした scikit-learn パイプラインはこのコードを使用して予測を提供します。

カスタム scikit-learn パイプラインのトレーニングとデプロイに関するチュートリアルを実施してください。

AI Platform 予測で、オンライン予測時に予測ノードの stderr および stdout ストリームのログを Stackdriver Logging に記録できるようになりました。ストリーム ロギングはベータ版です。このタイプのロギングは、すでに利用可能なアクセス ロギングに加えて、あるいはその代わりとしてご使用いただけます。この機能により、予測リクエストがデプロイにおいてどう処理されるかを理解しやすくなります。

2019 年 4 月 1 日

AI Platform のトレーニング、オンライン予測、バッチ予測の料金が引き下げられました。

詳しくは、AI Platform の料金をご覧ください。

2019 年 3 月 28 日

AI Platform は、組み込みアルゴリズムを使用したトレーニングの提供を開始しました。データを送信して自動で前処理させて、モデルを TensorFlow 線形学習者、TensorFlow ワイド&ディープ、および XGBoost アルゴリズムでトレーニングできます。コードを記述する必要はありません。

詳しくは、組み込みアルゴリズムを使用したトレーニングをご覧ください。

2019 年 3 月 25 日

AI Platform ランタイム バージョン 1.13 に TensorFlow 1.13.1 のサポートが追加されました。ランタイム バージョン 1.13 に含まれる全パッケージのリストについては、ランタイム バージョンのリストをご覧ください。

2019 年 3 月 8 日

AI Platform ランタイム バージョン 1.9 の TPU を使用したトレーニングのサポートは、2019 年 3 月 8 日に終了しました。現在サポートされているバージョンについては、ランタイム バージョンのリストをご覧ください。

2019 年 3 月 6 日

AI Platform ランタイム バージョン 1.13 で、トレーニングと予測を行えるようになりました。このバージョンは、TensorFlow 1.13 をサポートし、ランタイム バージョンのリストに記載される他のパッケージを含んでいます。

TPU を使用したトレーニングは、現時点ではランタイム バージョン 1.13 でサポートされていません。

2019 年 3 月 1 日

AI Platform Notebooks のベータ版がリリースされました。AI Platform Notebooks を使用すると、JupyterLab にあらかじめパッケージ化された仮想マシン(VM)インスタンスとディープ ラーニング ソフトウェア スイートを作成および管理できます。

詳しくは、AI Platform Notebooks の概要新しいノートブック インスタンスを作成するをご覧ください。

2019 年 2 月 13 日

Cloud TPU が一般提供され、TensorFlow モデルのトレーニングで使用できるようになりました。Tensor Processing Unit(TPU)は、機械学習ワークロードを高速化するために Google が独自に開発したアクセラレータです。

AI Platform 上で TPU を使用してモデルをトレーニングする方法を確認してください。TPU の料金についてはこちらをご覧ください。

2019 年 2 月 7 日

カスタム コンテナを使用したトレーニングがベータ版で利用可能になりました。この機能により、AI Platform でカスタム Docker イメージを使用してトレーニング アプリケーションを実行できるようになります。カスタム コンテナは、任意の ML フレームワークを使用して作成できます。カスタム コンテナを使用した PyTorch モデルのトレーニングをお試しください。

特定の Compute Engine マシンタイプを指定してトレーニング ジョブを構成できるようになりました。これにより、トレーニング ジョブにさらに柔軟にコンピューティング リソースを割り当てることができます。この機能はベータ版で利用できます。

Compute Engine マシンタイプを指定してジョブを構成するときに、任意のセットの GPU を接続することもできます。

詳細については、Compute Engine のマシンタイプGPU 接続料金をご覧ください。

トレーニングに P4 GPU のベータ版を利用できるようなりました。詳細については、GPU の使用GPU を利用可能なリージョンGPU の料金に関するガイドをご覧ください。

2019 年 2 月 1 日

クアッドコア CPU のベータ版でオンライン予測が可能になりました。マシンタイプの名前が変更され、料金が更新されました。

  • projects.models.versions.createmachineType を設定して、サービスに使用するマシンタイプを指定します。クアッドコア CPU には mls1-c4-m2 を使用します。デフォルトは、シングルコア CPU である mls1-c1-m2 です。
  • アルファ版で使用されているマシン名 mls1-highmem-1mls1-highcpu-4非推奨になりました。
  • 詳細については、オンライン予測のガイドをご覧ください。
  • マシンタイプについては、更新版の料金をご覧ください。

2019 年 1 月 25 日

オンライン予測が、us-east4 リージョンで利用可能になりました。利用可能なリージョンに関するガイドをご覧ください。

2019 年 1 月 10 日

V100 GPU を使用するトレーニングが一般提供されることになりました。詳細については、GPU の使用料金に関するガイドをご覧ください。

2018 年 12 月 19 日

AI Platform ランタイム バージョン 1.11 と 1.12 がトレーニングと予測に使用できるようになりました。これらのバージョンはそれぞれ、TensorFlow 1.11、1.12 をサポートしています。また、ランタイム バージョンのリストに記載される他のパッケージもサポートしています。

AI Platform ランタイム バージョン 1.11 と 1.12 に TPU トレーニングのサポートが追加されました。バージョン 1.10 はサポートされていません。現在サポートされているバージョンについては、ランタイム バージョンのリストをご覧ください。

AI Platform ランタイムの各バージョンに joblib が同梱されるようになりました。joblib は、バージョン 1.4 以降のランタイムに同梱されます。

2018 年 10 月 26 日

Cloud ML ランタイム バージョン 1.8 向けの TPU トレーニングのサポートは、2018 年 10 月 26 日に終了しました。現在サポートされているバージョンについては、ランタイム バージョンのリストをご覧ください。

2018 年 10 月 11 日

AI Platform ランタイム バージョン 1.11 は、GPU トレーニング中の CuDNN バージョンの不一致によるエラーのためにロールバックされます。当面の回避策として、ランタイム バージョン 1.10 をご使用ください。詳細については、ランタイム バージョン リストをご覧ください。

2018 年 10 月 5 日

AI Platform ランタイム バージョン 1.11 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.11 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 8 月 31 日

AI Platform ランタイム バージョン 1.10 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.10 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 8 月 27 日

トレーニングに V100 GPU のベータ版を使用できるようになりました。今後、V100 GPU を使用すると、料金が発生します。詳細については、GPU の使用料金に関するガイドをご覧ください。

P100 GPU を使用するトレーニングが一般提供されることになりました。詳細については、GPU の使用料金に関するガイドをご覧ください。

us-west1 と europe-west4 の 2 つの新しいリージョンでトレーニングを実施できることになりました。詳細については、リージョンのページをご覧ください。

2018 年 8 月 24 日

Cloud ML ランタイム バージョン 1.7 の TPU トレーニングのサポートは、2018 年 8 月 24 日に終了しました。現在サポートされているバージョンについては、ランタイム バージョンのリストをご覧ください。

2018 年 8 月 9 日

このたび、AI Platform によるオンライン予測の料金を大幅に値下げすることになりました。

次の表に、新旧の料金を示します。

リージョン 1 時間あたりのノードごとの旧料金 1 時間あたりのノードごとの新料金
米国 $0.30 米ドル $0.056 米ドル
ヨーロッパ $0.348 米ドル $0.061 米ドル
アジア太平洋 $0.348 米ドル $0.071 米ドル

詳細については、料金ガイドをご覧ください。

2018 年 8 月 8 日

このたび、AI Platform の Cloud TPU のキャンペーンを実施し、料金を大幅に値下げすることになりました。

次の表に、新旧の料金を示します。

リージョン: 米国 1 時間あたりの TPU ごとの旧料金 1 時間あたりの TPU ごとの新料金
スケール階層: BASIC_TPU(ベータ版) $9.7674 米ドル $6.8474 米ドル
カスタム マシンタイプ: cloud_tpu(ベータ版) $9.4900 米ドル $6.5700 米ドル

この表には、米国リージョンのみの料金が示されています。AI Platform での Cloud TPU の提供状況に変更はありません。詳細については、料金ガイドをご覧ください。

2018 年 8 月 6 日

AI Platform ランタイム バージョン 1.9 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.9 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 7 月 23 日

AI Platform で、トレーニングに scikit-learnXGBoost を利用できるようになりました。この機能は一般提供されています。AI Platform での scikit-learn と XGBoost によるトレーニングに関するガイドをご覧ください。

オンライン予測での scikit-learnXGBoost のサポートが一般提供になりました。

2018 年 7 月 12 日

AI Platform のリソース(ジョブモデルモデル バージョン)にラベルを追加すると、これらのラベルを使用してリソースをカテゴリ別に整理できます。ラベルはオペレーションでも使用できますが、この場合はオペレーションの適用先のリソースからラベルが導出されます。詳細については、ラベルの追加と使用に関する記事をご覧ください。

2018 年 6 月 26 日

次の追加のリージョンで全機能が利用できるようになりました。

  • us-east1
  • asia-northeast1

詳細については、利用可能なリージョンをご覧ください。

2018 年 6 月 13 日

Cloud ML ランタイム バージョン 1.6 での TPU トレーニングのサポートは、2018 年 6 月 13 日に終了しました。現在サポートされているバージョンについては、ランタイム バージョンのリストをご覧ください。

2018 年 5 月 29 日

TensorFlow 1.8 と AI Platform ランタイム バージョン 1.8 で Cloud TPU(ベータ版)を使用できるようになりました。

背景情報: 5 月 14 日より、Cloud TPU が AI Platform ランタイム バージョン 1.6 と 1.7 で使用できるようになりました。先週、ランタイム バージョン 1.8 がリリースされましたが、その時点では TensorFlow 1.8 で Cloud TPU はまだ使用できませんでした。現在は使用できるようになりました。TPU を使用して AI Platform でモデルをトレーニングする方法をご覧ください。

2018 年 5 月 16 日

AI Platform ランタイム バージョン 1.8 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.8 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 5 月 15 日

既存のモデル バージョンで自動スケーリングするノードの最小数を更新できるようになりました。また、新しいバージョンを作成するときに属性を指定できるようになりました。

2018 年 5 月 14 日

AI Platform は、TensorFlow モデルのトレーニング用に Cloud TPU(ベータ版)を提供するようになりました。Tensor Processing Unit(TPU)は、Google 独自開発の ASIC であり、機械学習ワークロードを高速化します。TPU を使用して AI Platform でモデルをトレーニングする方法をご覧ください。

2018 年 4 月 26 日

AI Platform ランタイム バージョン 1.7 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.7 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 4 月 16 日

ハイパーパラメータ アルゴリズム: トレーニング ジョブでハイパーパラメータを調整するときに、HyperparameterSpec で検索アルゴリズムを指定できるようになりました。使用可能な値は次のとおりです。

  • GRID_SEARCH: 実行可能領域内の単純なグリッド検索。このオプションは、実行可能領域内のポイント数を超える試行回数を指定する場合に特に便利です。そのような場合、グリッド検索を指定しないと、AI Platform のデフォルト アルゴリズムによって重複した候補が生成されることがあります。グリッド検索を使用するには、すべてのパラメータの型が INTEGERCATEGORICAL、または DISCRETE でなければなりません。
  • RANDOM_SEARCH: 実行可能領域内の単純なランダム検索。

アルゴリズムを指定しない場合、デフォルトの AI Platform アルゴリズムが使用されます。このアルゴリズムは、パラメータ空間をより効果的に検索し、最適なソリューションを導き出します。ハイパーパラメータ調整については、ハイパーパラメータ調整の概要をご覧ください。

2018 年 4 月 5 日

AI Platform で、オンライン予測に scikit-learnXGBoost を使用できるようになりました。この機能はベータ版です。

  • モデル バージョンを作成する際に、projects.models.versions.createframework を設定して機械学習フレームワークを指定します。有効な値は、TENSORFLOWSCIKIT_LEARNXGBOOST です。デフォルトは TENSORFLOW です。SCIKIT_LEARN または XGBOOST を指定する場合は、モデル バージョンで runtimeVersion を 1.4 以上に設定する必要があります。
  • AI Platform での scikit-learn と XGBoost に関するガイドをご覧ください。

オンライン予測に Python 3.5 を利用できます。

2018 年 3 月 20 日

AI Platform ランタイム バージョン 1.6 がトレーニングと予測に使用できるようになりました。このバージョンは、TensorFlow 1.6 とランタイム バージョンのリストにある他のパッケージをサポートしています。

2018 年 3 月 13 日

TensorFlow 1.5 の AI Platform ランタイム バージョンがトレーニングと予測に使用できるようになりました。詳細については、ランタイム バージョン リストをご覧ください。

2018 年 2 月 8 日

ハイパーパラメータ調整に新機能が追加されました。トライアルの早期自動停止、以前のハイパーパラメータ調整ジョブの再開、類似したジョブの実行中の効率的な最適化などの機能が追加されています。 ハイパーパラメータ調整については、ハイパーパラメータ調整の概要をご覧ください。

2017 年 12 月 14 日

TensorFlow 1.4 の AI Platform ランタイム バージョンがトレーニングと予測に使用できるようになりました。詳細については、ランタイム バージョン リストをご覧ください。

Python 3 が TensorFlow 1.4 の AI Platform ランタイム バージョンの一部としてトレーニングで使用できるようになりました。詳細については、ランタイム バージョン リストをご覧ください。

オンライン予測が一般提供され、シングルコア サービスで使えるようになりました。オンライン予測に関するガイドとブログ投稿をご覧ください。

トレーニングと予測の両方で価格設定が引き下げられ、シンプルになりました。料金の詳細ブログ投稿をご覧ください。また、新旧の料金の比較については料金に関するよくある質問をご覧ください。

P100 GPU がベータ版で利用可能になりました。今後、P100 GPU を使用すると料金が発生します。詳細については、GPU の使用料金をご覧ください。

2017 年 10 月 26 日

AI Platform の監査ロギングがベータ版で利用可能になりました。詳細については、監査ログの表示をご覧ください。

2017 年 9 月 25 日

AI Platform の事前定義された IAM の役割が一般提供になりました。詳細については、アクセス制御をご覧ください。

2017 年 6 月 27 日

TensorFlow 1.2 の AI Platform ランタイム バージョンがトレーニングと予測に使用できるようになりました。詳細については、ランタイム バージョン リストをご覧ください。

AI Platform による TensorFlow 0.11 および 0.12 の古いランタイム バージョンのサポートが終了しました。詳細については、ランタイム バージョン リスト古いランタイム バージョンのサポート タイムラインをご覧ください。

2017 年 5 月 9 日

GPU が有効なマシンの一般提供が発表されました。詳細については、クラウド中のトレーニング モデルに GPU を使用をご覧ください。

2017 年 4 月 27 日

GPU は us-central1 リージョンで利用できるようになりました。GPU をサポートするリージョンの一覧については、クラウド内でのモデルのトレーニングに GPU を使用するをご覧ください。

v1(2017 年 3 月 8 日)

AI Platform の一般提供を発表しました。AI Platform のバージョン 1 は、モデルのトレーニング、モデルの導入、バッチ予測の生成に汎用的に使用できます。ハイパーパラメータ調整機能も一般提供になりましたが、オンライン予測と GPU 対応マシンはベータ版のままです。

オンラインでの予測は、ベータ版のリリース段階に入っています。現在、AI Platform の料金ポリシーの対象で、バッチ予測と同じ料金設定式が適用されます。オンライン予測はまだベータ版で、重要度の高いアプリケーションで使用されることを意図していません。

AI Platform をモデルのトレーニングや予測のために使用する環境では、AI Platform のランタイム バージョンとして定義されています。トレーニング、モデルリソースの定義、またはバッチ予測の要求時に使用する、サポートされているランタイム バージョンを指定できます。現時点でのランタイム バージョンの主な違いは、それぞれがサポートしている TensorFlow のバージョンですが、今後より多くの違いが生じる可能性があります。詳細については、ランタイム バージョン リストをご覧ください。

Google Cloud Storage に保存されていて、AI Platform でモデル バージョンとしてホストされていない TensorFlow SavedModels に対してバッチ予測ジョブを実行できるようになりました。ジョブの作成時にモデルまたはバージョンの ID を指定する代わりに、SavedModel の URI を使用できます。

以前はアルファ版としてリリースされていた Google Cloud Machine Learning SDK は非推奨となり、2017 年 5 月 7 日以降はサポートされなくなります。SDK によって公開されている機能のほとんどは、新しい TensorFlow パッケージ tf.Transform に移行されました。どのような技術やツールを使用しても、入力データを前処理できます。ただし、Google では tf.Transform とともに、Google Cloud Platform で使用可能なサービス(Google Cloud Dataflow、Google Cloud Dataproc、Google BigQuery など)をおすすめしています。

v1 ベータ 1(2016 年 9 月 29 日)

オンライン予測はアルファ版機能です。AI Platform 全体としてはベータ版のフェーズにありますが、オンライン予測は、性能改善のための重大な変更がいまだ進行中です。アルファ版である間は、オンライン予測には課金されません。

前処理とその他の AI Platform SDK はアルファ版の機能です。AI Platform と Apache Beam の統合を進めるため、SDK の開発が積極的に進められています。

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

scikit-learn と XGBoost の AI Platform