コンテンツに移動
AI & 機械学習

Vertex AI NAS: 複雑な ML モデル向けの高い精度と低いレイテンシ

2021年12月6日
https://storage.googleapis.com/gweb-cloudblog-publish/images/google_translate_api.max-2200x2200.max-2200x2200.png
Google Cloud Japan Team

※この投稿は米国時間 2021 年 12 月 1 日に、Google Cloud blog に投稿されたものの抄訳です。

Vertex AI は、「各種 ML ツールをまとめた単一の AI プラットフォーム」を前提にリリースされました。Vertex AI が幅広いユースケースに対して例外なくモデリングを効率化する方法について説明します。

Vertex AI の目的は、モデリングを簡素化することで企業が速やかにイノベーションを実現し、製品化までの時間を短縮して、最終的に ML 投資に対する収益率を高めることです。Vertex AI はいくつかの方法でこのプロセスを容易にします。たとえば、Vertex AI Workbench のような機能は、従来のノートブックと比較してモデルのトレーニングとデプロイメントを 5 倍高速化します。Vertex AI Workbench の BigQuery と Spark とのネイティブな統合は、データ サイエンスの専門知識のないユーザーでも簡単に機械学習の作業を行うことができることを意味します。最先端の事前トレーニング済み API や AutoML など、統合された Vertex AI プラットフォームに組み込まれたツールにより、データ サイエンティストは簡単に、従来より短い時間でモデルを構築できます。また、カスタム モデリングに適したモデリング作業のために、Vertex AI のカスタムモデル ツールは、高度な ML コーディングをサポートしており、カスタム ライブラリを使用してモデルをトレーニングするために必要なコードの行数が、競合プラットフォームと比較して 80% 近く少なくなっています。Vertex AI は、Explainable AI に重点を置きながらこれらを実現しています。

しかし、AI や機械学習に多額の投資を行い、ML エキスパートのチームを擁する組織は、非常に複雑な問題を解決するために極めて高度なツールセットを必要としています。簡素化された ML モデリングは、単純なユースケースのみに限定されるものではありません。

たとえば、Vertex AI Neural Architecture Search(NAS)を見てみましょう。

Vertex AI NAS を使用すると、最高レベルの ML の専門家が非常に複雑なタスクをより高精度、低レイテンシ、低消費電力で実行できます。Vertex AI NAS は、高度な AI を大規模に構築してきた Alphabet の豊富な経験から生まれたものです。2017 年、Google Brain チームは AI モデリングをスケーリングするためにもっと優れた方法が必要であると認識し、ニューラル アーキテクチャ検索技術を開発しました。これにより、他のニューラル ネットワークを生成する AI を作成し、ユーザーが提供する特定のタスクでパフォーマンスを最適化するようにトレーニングできます。AI に最適化されたこれらのモデルは、ImageNet や SOTA MobileNet などの多くの最先端のベンチマークを凌ぎ、多くの Google 内部のプロダクトを含め、今日使用されている多くのアプリケーションの新しい基準を設定してこの分野の多くの関係者を驚かせました。Google Cloud はこのような技術の可能性に注目し、1 年足らずでこの技術の製品バージョンを AutoML というブランドでリリースしました。Vertex AI NAS は、初期の研究以降に登場した最も洗練されたイノベーションを使用して、このアイデアを最新かつ最も強力なバージョンで実現したものです。

お客様の組織でもすでに最先端のワークロードに Vertex AI NAS が導入されています。自律走行車メーカーの Nuro は Vertex AI NAS を使用しており、同社の自律プラットフォーム責任者 Jack Guo 氏は、「Nuro の認知チームは Vertex AI NAS を使用して AI モデルの開発を加速させました。Vertex AI NAS を使用することで、AI モデルのイノベーション促進、適切な精度の実現、ターゲット ハードウェアのメモリやレイテンシの最適化が可能になりました。全体的に、これは知覚 AI モデルを開発してデプロイするチームの生産性を向上させました」と述べています。

そして、Vertex AI NAS 向けのパートナー エコシステムは拡大中です。Google Cloud と Qualcomm Technologies は共同で Vertex AI NAS を Qualcomm Technologies Neural Processing SDK に導入し、Snapdragon 8 用に最適化しました。これにより、IoT、複合現実、自動車、モバイルを含むさまざまなデバイスタイプやユースケースに AI が導入されます。

初心者から上級者までのデータユーザーに機械学習をよりアクセスしやすく便利なものにすること、そして企業の機械学習の有効性を高めることが、Google Cloud の取り組みにおける最優先事項です。Vertex AI 内の統合された機械学習ツールスイートを使用することで、組織は単一の AI プラットフォーム上で必要なすべての ML ツールを活用できます。

Vertex AI による ML モデリングを使い始める準備はできましたか?無料で作成を開始できます。Vertex AI Platform が、企業の ML 投資に対する収益率を高める方法の詳細については、Google にお問い合わせください。


- Cloud AI PM ディレクター Craig Wiley
投稿先