コンテンツに移動
AI & 機械学習

Cloud AI Platform がさらに高速かつ柔軟に

2019年11月5日
Google Cloud Japan Team

※この投稿は米国時間 2019 年 10 月 26 日に、Google Cloud blog に投稿されたものの抄訳です。 

モバイルゲームの最適化から疾患の検出住宅の 3D モデル作成まで、企業は、革新的な機械学習の用途をどんどん創出しています。機械学習の用途の多様化が進むなかで、データ サイエンティストはビジネスに固有の課題を AI で解決するために、さまざまなハードウェアやソフトウェアを必要としています。そして、業務を遂行するためのシンプルかつ高速なシステムも求めています。

この記事では、AI Platform へのさまざまなアップデートを紹介します。これらのアップデートにより、機械学習ワークロードを、より高速、より柔軟に処理できるようになります。

NVIDIA GPU を搭載した新しく堅牢なバックエンドでモデルを提供

AI Platform Prediction を使用すると、データ サイエンティストはオンライン予測モデルをサーバーレス環境で提供できます。これにより、アプリケーション開発者は 機械学習 フレームワークを理解していなくても AI を利用できるようになり、データ サイエンティストもモデル提供のためのインフラストラクチャを管理する必要がなくなります。

それでも、一部の 機械学習 モデルは非常に複雑なため、多数の CPU や NVIDIA GPU などのアクセラレータを搭載したマシンでないと、レイテンシが許容できないほど高くなります。これは特に、画像、動画、テキストなどの非構造化データを処理するモデルについて言えます。

AI Platform Prediction では、いくつかの Compute Engine マシンタイプから選択してモデルを実行できるようになりました。今後は、推論に最適化された低レイテンシの NVIDIA T4 などの GPU を追加が可能です。なによりも、基盤となるインフラストラクチャは引き続き管理不要で、モデルのプロビジョニング、スケーリング、提供はすべて、AI Platform が処理します。これまでは、オンライン予測に選択できる vCPU マシンタイプは 1 コアか 4 コアでした。

AI Platform Prediction の新しいマシンタイプでは、モニタリングとデバックも簡単です。予測に対するリクエストとレスポンスを BigQuery に記録できるようになったので、そこで歪度や外れ値の分析や、モデルを再トレーニングすべきかどうかの判断が可能となります。

この機能は、Google Kubernetes Engine を基盤とする新しいバックエンドを使用します。これにより、機械学習で求められる柔軟性をすべて備えた、高速で信頼性の高い提供システムを構築できます。

AI Platform Prediction が複雑な問題をより簡単に、わかりやすい形で解決するのを支援している格好の実例として、Wildlife Insights の例をご紹介します。Conservation International は、「人類の幸福のために、自然、すなわち地球規模の生物多様性を、責任を持って持続可能な形で保全する」という使命を持っています。ワシントン D.C. を本拠地とする同組織は、Wildlife Insights のコラボレーション パートナーです。

Conservation Technology のシニア ディレクター、Eric H. Fegraus 氏は次のように述べています。「Wildlife Insights は、野生動物の数百万もの画像を重要なデータポイントに変換して、世界中の野生動物の生息数を把握し、それらを保護、救助するのに役立てています。Google Cloud の AI Platform によって、機械学習モデルを確実に提供し、その予測データをアプリケーションに簡単に統合できます。応答性とスケーラビリティに優れた GPU ハードウェア環境で予測を高速に行えることは、当社のユーザー エクスペリエンスにとって不可欠です。」

これらの新しいマシンタイプは簡単に使用できます。(UI、API、または gcloud から)モデル作成リクエストの「machineType」フィールドを Compute Engine マシンタイプに設定するだけです。NVIDIA T4 を搭載したマシンにデプロイする gcloud コマンドの例を次に示します。

読み込んでいます...

モデル開発の効率を上げる新機能

AI Platform Training により、データ サイエンティストはあらゆるハードウェアでトレーニング スクリプトを実行することも可能です。その際には、基盤となるマシンを管理する必要はありません。Google では、トレーニングできるモデルのタイプを拡大するために、次のような多数の機能をリリースしています。

カスタム コンテナ(一般提供): AI Platform で Docker コンテナを起動することで、任意の言語、フレームワーク、依存関係でモデルをトレーニングできます。これは特に、AI Platform Deep Learning Containers に構築したコンテナで便利です。

トレーニング用の Compute Engine マシンタイプ

https://cloud.google.com/ml-engine/docs/machine-types

(一般提供): CPU、RAM、アクセラレータの任意の組み合わせを選択できます。

AI でより多くの問題を解決する

Cloud AI Platform は、モデルのトレーニングとデプロイを容易にすることで、AI を使用して困難な問題を解決することに注力できるようにします。ラインアップが増えた推論ハードウェアとトレーニング ソフトウェアを活用して、皆様が今後 AI によってどのような課題に取り組むのか、拝見することを楽しみにしています。

詳細については、こちらをご覧ください。 

- by Henry Tappen, Product Manager, Cloud AI Platform

投稿先