AI プラットフォームの概要

AI プラットフォームを使用すると、大規模な機械学習モデルのトレーニング、トレーニング済みモデルのクラウド内でのホスト、モデルを使用した新しいデータについての予測ができます。

機械学習の簡単な説明

機械学習(ML)は人工知能(AI)のサブフィールドです。ML の目的は、コンピュータにデータを与えて学ばせることです。コンピュータが取るべき行動を表すコードを記述するのではなく、意図する動作の例に基づいて適応するアルゴリズムをコードで提供します。結果として得られるプログラムは、アルゴリズムと学習された関連パラメータで構成されます。これは、トレーニング済みモデルと呼ばれます。

AI プラットフォームが ML ワークフローに適合する場所

下の図は、ML ワークフローの段階の概要を示しています。青色で塗りつぶされたボックスは、AI Platform がマネージド サービスと API を提供する場所を示します。

ML ワークフロー
ML ワークフロー

図が示すように、AI プラットフォームを使用して、ML ワークフローの次の段階を管理できます。

  • データで ML モデルをトレーニングする。

    • モデル トレーニング
    • モデルの精度を評価する
    • ハイパーパラメータを調整する
  • トレーニング済みモデルをデプロイする。

  • モデルに予測リクエストを送信する。

    • オンライン予測
  • 継続的に予測をモニタリングする。

  • モデルとモデル バージョンを管理する。

AI プラットフォームのコンポーネント

このセクションでは、AI プラットフォームを構成する要素を挙げ、それぞれの主な目的を説明します。

トレーニング サービス

AI プラットフォーム トレーニング サービスを利用すると、多種多様なカスタマイズ オプションを使用してモデルをトレーニングできます。

トレーニング ジョブを駆動するマシンは、さまざまなマシンタイプから選択できます。さらに、分散トレーニングの有効化、ハイパーパラメータ調整の使用、GPU と TPU による加速化にも対応しています。

トレーニング アプリケーションをカスタマイズする方法も、さまざまなオプションの中から選択できます。AI プラットフォームの入力データを送信して、組み込みのアルゴリズムを使用したトレーニング(ベータ版を行うことができます。組み込みアルゴリズムが実際のユースケースに適していない場合は、AI プラットフォームで実行するための独自のトレーニング アプリケーションを送信できます。あるいは、AI プラットフォームで実行するためのトレーニング アプリケーションとその依存関係を使用して、カスタム コンテナの構築(ベータ版を行うことができます。

予測サービス

AI プラットフォーム予測サービスを利用すると、AI プラットフォーム 上でモデルがトレーニングされたかどうかにかかわらず、トレーニング済みモデルに基づく予測を行うことができます。

ノートブック

AI Platform Notebooks を使用すると、JupyterLab にあらかじめパッケージ化されている仮想マシン(VM)インスタンスを作成および管理できます。AI Platform Notebooks インスタンスには、ディープ ラーニング パッケージ スイート(TensorFlow および PyTorch フレームワークのサポートなど)がプリインストールされています。ニーズに合わせて、CPU のみのインスタンスか GPU 対応のインスタンスを構成できます。

Google Cloud Platform(GCP)の認証と承認によって保護されるノートブック インスタンスには、ノートブック インスタンスの URL を使用してアクセスします。ノートブック インスタンスには GitHub も統合されるため、簡単にノートブックと GitHub リポジトリを同期できます。

データ ラベリング サービス(ベータ版)

AI プラットフォーム データ ラベリング サービス(ベータ版)では、カスタム機械学習モデルのトレーニングに使用するデータセットに対し、ヒューマン ラベリングをリクエストできます。リクエストを送信して、動画、イメージ、テキストデータにラベル付けできます。

ラベリング リクエストを送信するには、ラベル付きデータの代表的なサンプルを提供します。データセットに使用可能なすべてのラベルを指定して、どのようにラベル付けするかを指示します。ヒューマン ラベリングの担当者が指示に従い、ラベリング リクエストが完了すると、機械学習モデルのトレーニングに使用できるアノテーション付きデータセットが得られます。

Deep Learning VM Image

AI プラットフォーム Deep Learning VM Image を使用すれば、データ サイエンスと機械学習タスクに最適化された、Debian 9 ベースの Compute Engine 仮想マシンイメージのセットから選択できます。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。また、GPU を持つインスタンスですぐに使用でき、データ処理タスクを高速化できます。

AI プラットフォームを操作するツール

このセクションでは、AI プラットフォームの操作に使用するツールについて説明します。

Google Cloud Platform Console

クラウドにモデルをデプロイし、GCP Console でモデル、バージョン、ジョブを管理できます。このオプションは、機械学習リソースを使用して作業するためのユーザー インターフェースを提供します。GCP の一部として、AI プラットフォームのリソースは Stackdriver Logging や Stackdriver Monitoring などの便利なツールに接続されています。

gcloud コマンドライン ツール

gcloud ai-platform コマンドライン ツールを使用して、コマンドラインでモデルとバージョンの管理、ジョブの送信、その他の AI プラットフォーム タスクの実行を行うことができます。

一般に、AI プラットフォーム タスクには gcloud コマンドを、オンライン予測には REST API(下記参照)を使用することをおすすめします。

REST API

AI プラットフォームの REST API は、ジョブ、モデル、バージョンの管理や、GCP でホストされているモデルを使った予測を行う RESTful サービスを提供します。

この API にアクセスするには Python 用 Google API クライアント ライブラリを使用します。クライアント ライブラリを使用する際は、この API で使用されるリソースとオブジェクトの Python 表現を使用します。こうすると、HTTP リクエストで直接操作するより簡単で、コードも少なくて済みます。

特にオンラインの予測については REST API をおすすめします。

次のステップ

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...