AI Platform の概要

AI Platform を使用すると、大規模な機械学習モデルのトレーニング、トレーニング済みモデルのクラウド内でのホスト、モデルを使用した新しいデータについての予測ができます。

機械学習の簡単な説明

機械学習(ML)は人工知能(AI)のサブフィールドです。ML の目的は、コンピュータにデータを与えて学ばせることです。コンピュータが取るべき行動を表すコードを記述するのではなく、意図する動作の例に基づいて適応するアルゴリズムをコードで提供します。結果として得られるプログラムは、アルゴリズムと学習された関連パラメータで構成されます。これは、トレーニング済みモデルと呼ばれます。

AI Platform が ML ワークフローに適合する場所

下の図は、ML ワークフローの段階の概要を示しています。青色で塗りつぶされたボックスは、AI Platform がマネージド サービスと API を提供する場所を示します。

ML ワークフロー
ML ワークフロー

図が示すように、AI Platform を使用して、ML ワークフローの次の段階を管理できます。

  • データで ML モデルをトレーニングする。

    • モデル トレーニング
    • モデルの精度を評価する
    • ハイパーパラメータを調整する
  • トレーニング済みモデルをデプロイする。

  • モデルに予測リクエストを送信する。

    • オンライン予測
    • バッチ予測
  • 継続的に予測をモニタリングする。

  • モデルとモデル バージョンを管理する。

AI Platform のコンポーネント

このセクションでは、AI Platform を構成する要素を挙げ、それぞれの主な目的を説明します。

トレーニング サービス

AI Platform トレーニング サービスを利用すると、多種多様なカスタマイズ オプションを使用してモデルをトレーニングできます。

トレーニング ジョブを駆動するマシンは、さまざまなマシンタイプから選択できます。さらに、分散トレーニングの有効化、ハイパーパラメータ調整の使用、GPU と TPU による加速化にも対応しています。

トレーニング アプリケーションをカスタマイズする方法も、さまざまなオプションの中から選択できます。AI Platform の入力データを送信して、組み込みアルゴリズム(ベータ版)によるトレーニングを行うことができます。組み込みアルゴリズムが実際のユースケースに適していない場合は、AI Platform で実行するための独自のトレーニング アプリケーションを送信できます。あるいは、AI Platform で実行するためのトレーニング アプリケーションとその依存関係を使用して、カスタム コンテナの構築(ベータ版を行うことができます。

予測サービス

AI Platform 予測サービスを利用すると、AI Platform 上でモデルがトレーニングされたかどうかにかかわらず、トレーニング済みモデルに基づく予測を行うことができます。

ノートブック

AI Platform Notebooks を使用すると、JupyterLab にあらかじめパッケージ化されている仮想マシン(VM)インスタンスを作成および管理できます。AI Platform Notebooks インスタンスには、ディープ ラーニング パッケージ スイート(TensorFlow および PyTorch フレームワークのサポートなど)がプリインストールされています。ニーズに合わせて、CPU のみのインスタンスか GPU 対応のインスタンスを構成できます。

Google Cloud Platform(GCP)の認証と承認によって保護されるノートブック インスタンスには、ノートブック インスタンスの URL を使用してアクセスします。ノートブック インスタンスには GitHub も統合されるため、簡単にノートブックと GitHub リポジトリを同期できます。

Data Labeling Service(ベータ版)

AI Platform Data Labeling Service(ベータ版)では、カスタム機械学習モデルのトレーニングに使用するデータセットに対し、ヒューマン ラベリングをリクエストできます。リクエストを送信して、動画、イメージ、テキストデータにラベル付けできます。

ラベリング リクエストを送信するには、ラベル付きデータの代表的なサンプルを提供します。データセットに使用可能なすべてのラベルを指定して、どのようにラベル付けするかを指示します。ヒューマン ラベリングの担当者が指示に従い、ラベリング リクエストが完了すると、機械学習モデルのトレーニングに使用できるアノテーション付きデータセットが得られます。

Deep Learning VM Image

AI Platform Deep Learning VM Image を使用すれば、データ サイエンスと機械学習タスクに最適化された、Debian 9 ベースの Compute Engine 仮想マシンイメージのセットから選択できます。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。また、GPU を持つインスタンスですぐに使用でき、データ処理タスクを高速化できます。

AI Platform を操作するツール

このセクションでは、AI Platform の操作に使用するツールについて説明します。

Google Cloud Platform Console

クラウドにモデルをデプロイし、GCP Console でモデル、バージョン、ジョブを管理できます。このオプションは、機械学習リソースを使用して作業するためのユーザー インターフェースを提供します。GCP の一部として、AI Platform のリソースは Stackdriver Logging や Stackdriver Monitoring などの便利なツールに接続されています。

gcloud コマンドライン ツール

gcloud ai-platform コマンドライン ツールを使用して、コマンドラインでモデルとバージョンの管理、ジョブの送信、その他の AI Platform タスクの実行を行うことができます。

一般に、AI Platform タスクには gcloud コマンドを、オンライン予測には REST API(下記参照)を使用することをおすすめします。

REST API

AI Platform の REST API は、ジョブ、モデル、バージョンの管理や、GCP でホストされているモデルを使った予測を行う RESTful サービスを提供します。

この API にアクセスするには Python 用 Google API クライアント ライブラリを使用します。クライアント ライブラリを使用する際は、この API で使用されるリソースとオブジェクトの Python 表現を使用します。こうすると、HTTP リクエストで直接操作するより簡単で、コードも少なくて済みます。

特にオンラインの予測については REST API をおすすめします。

次のステップ

  • スタートガイドにあるエンドツーエンドのサンプルを使用して、モデルのトレーニング、クラウドへのモデルのアップロード、予測リクエストの送信方法を確認する。
  • 関連するすべてのガイドを確認する。
このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

TensorFlow 用 AI Platform