AI Platform の概要

AI Platform を使用すると、大規模な機械学習モデルをトレーニングし、トレーニング済みモデルをクラウドでホストし、モデルを使用して新しいデータについて予測することができます。

機械学習の簡単な説明

機械学習(ML)は人工知能(AI)のサブフィールドです。ML の目的は、コンピュータにデータを与えて学ばせることです。コンピュータが取るべき行動を表すコードを記述するのではなく、意図する動作の例に基づいて適応するアルゴリズムをコードで提供します。結果として得られるプログラムは、アルゴリズムと学習された関連パラメータで構成されます。これは、トレーニング済みモデルと呼ばれます。

AI Platform が ML ワークフローに適合する場所

下の図は、ML ワークフローの段階の概要を示しています。青色で塗りつぶされたボックスは、AI Platform がマネージド サービスと API を提供する場所を示します。

ML ワークフロー
ML ワークフロー

図が示すように、AI Platform を使用して、ML ワークフローの次の段階を管理できます。

  • データで ML モデルをトレーニングする。

    • モデル トレーニング
    • モデルの精度を評価する
    • ハイパーパラメータを調整する
  • トレーニング済みモデルをデプロイする。

  • モデルに予測リクエストを送信する。

    • オンライン予測
    • バッチ予測(TensorFlow のみ)
  • 継続的に予測をモニタリングする。

  • モデルとモデル バージョンを管理する。

AI Platform のコンポーネント

このセクションでは、AI Platform を構成する要素を挙げ、それぞれの主な目的を説明します。

トレーニング サービス

AI Platform トレーニング サービスを利用すると、多種多様なカスタマイズ オプションを使用してモデルをトレーニングできます。

トレーニング ジョブを駆動するマシンは、さまざまなマシンタイプから選択できます。さらに、分散トレーニングの有効化、ハイパーパラメータ調整の使用、GPU と TPU による加速化にも対応しています。

トレーニング アプリケーションをカスタマイズする方法も、さまざまなオプションの中から選択できます。AI Platform の入力データを送信して、組み込みアルゴリズム(ベータ版)によるトレーニングを行うことができます。組み込みアルゴリズムが実際のユースケースに適合しない場合は、独自のトレーニング アプリケーションを送信して AI Platform で実行できます。また、トレーニング アプリケーションとその依存関係を格納したカスタム コンテナ(ベータ版)を構築し、そのコンテナを AI Platform で実行することもできます。

予測サービス

AI Platform 予測サービスを利用すると、AI Platform 上でモデルがトレーニングされたかどうかにかかわらず、トレーニング済みモデルに基づく予測を行うことができます。

ノートブック

AI Platform Notebooks を使用すると、JupyterLab にあらかじめパッケージ化されている仮想マシン(VM)インスタンスを作成および管理できます。AI Platform Notebooks インスタンスには、ディープ ラーニング パッケージ スイート(TensorFlow および PyTorch フレームワークのサポートなど)がプリインストールされています。ニーズに合わせて、CPU のみのインスタンスか GPU 対応のインスタンスを構成できます。

Google Cloud Platform(GCP)の認証と承認によって保護されるノートブック インスタンスには、ノートブック インスタンスの URL を使用してアクセスします。ノートブック インスタンスには GitHub も統合されるため、簡単にノートブックと GitHub リポジトリを同期できます。

Data labeling Service(ベータ版)

AI Platform Data Labeling Service(ベータ版)では、カスタム機械学習モデルのトレーニングに使用するデータセットに対し、ヒューマン ラベリングをリクエストできます。リクエストを送信して、動画、画像、テキストデータにラベル付けできます。

ラベリング リクエストを送信するには、ラベル付きデータの代表的なサンプルを提供します。データセットに使用可能なすべてのラベルを指定して、どのようにラベル付けするかを指示します。ヒューマン ラベリングの担当者が指示に従い、ラベリング リクエストが完了すると、機械学習モデルのトレーニングに使用できるアノテーション付きデータセットが得られます。

Deep Learning VM Image

AI Platform Deep Learning VM Image を使用すれば、データ サイエンスと機械学習タスクに最適化された、Debian 9 ベースの Compute Engine 仮想マシンイメージのセットから選択できます。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。また、GPU を持つインスタンスですぐに使用でき、データ処理タスクを高速化できます。

AI Platform とやり取りするためのツール

このセクションでは、AI Platform とのやり取りに使用するツールについて説明します。

Google Cloud Platform Console

クラウドにモデルをデプロイし、GCP Console でモデル、バージョン、ジョブを管理できます。このオプションは、機械学習リソースを使用して作業するためのユーザー インターフェースを提供します。AI Platform のリソースは GCP の一部として、Stackdriver Logging や Stackdriver Monitoring などの便利なツールに接続されています。

gcloud コマンドライン ツール

gcloud ai-platform コマンドライン ツールを使用して、モデルとバージョンの管理、ジョブの送信などの AI Platform タスクをコマンドラインで実施できます。

一般に、AI Platform タスクには gcloud コマンドを、オンライン予測には REST API(下記参照)を使用することをおすすめします。

REST API

AI Platform の REST API は、ジョブ、モデル、バージョンの管理や、GCP でホストされているモデルを使った予測を行う RESTful サービスを提供します。

この API にアクセスするには Python 用 Google API クライアント ライブラリを使用します。クライアント ライブラリを使用する際は、この API で使用されるリソースとオブジェクトの Python 表現を使用します。こうすると、HTTP リクエストで直接操作するより簡単で、コードも少なくて済みます。

特にオンラインの予測については REST API をおすすめします。

次のステップ

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...