AI & 機械学習

Vertex AI を使用して本番環境への ML デプロイを加速

applied ml summit 2022.jpg

※この投稿は米国時間 2022 年 6 月 9 日に、Google Cloud blog に投稿されたものの抄訳です。

本日の Google Cloud Applied ML Summit の一環として、本番環境における機械学習(ML)モデルの構築、デプロイ、管理、保守をより迅速かつ効率的に行うためのさまざまなプロダクト機能および技術提携を発表いたします。

Google のパフォーマンス テストにより、2021 年に Vertex AI と BigQuery を通じて生成された ML 予測の件数が 2.5 倍増となり、Vertex AI Workbench をご利用のお客様がこの 6 か月だけで 25 倍増となったことがわかりました。お客様の動向から、マネージド型統合 ML プラットフォームが本番環境への ML のデプロイを加速するうえで非常に重要であることがわかっています。たとえば、Wayfair は、Vertex AI を使用して大規模なモデルのトレーニング ジョブを 5~10 倍高速化し、試験回数の増加、コーディングの削減、および本番環境に導入するモデルの増加を実現しています。同様に、Seagate は、以前のカスタムモデルでは 70~80% の精度しかなかったのに対し、AutoML を使用することで精度 98% の ML モデルを構築しました

Ford の AI およびクラウド担当責任者である Brian Goodman 氏は、「Vertex AI は、ソフトウェアの専門家ではない人たちのために AI をスケールする取り組みを加速させるなど、Ford の機械学習開発プラットフォームに不可欠な要素となっています」と述べています。

この流れがかなり活発になっていますが、世界中の企業が AI による業務のデジタル化を迅速に進めるためには、まだまだやるべきことがあることを Google は認識しています。

Gartner* によると、「機械学習スキルのトレーニングを受けたソフトウェア エンジニアが 50% 以上いる組織はわずか 10%」です [出典: Gartner: Survey Analysis: AI Adoption Spans Software Engineering and Organizational Boundaries(調査分析: AI の導入はソフトウェア工学と組織の境界を超える)- Van Baker、Benoit Lheureux - 2021 年 11 月 25 日]。同様に、Gartner は、「ML プロジェクトの平均 53% が本番稼働している」と述べています [出典: Gartner: 4 Machine Learning Best Practices to Achieve Project Success(プロジェクトを成功させるための機械学習のベスト プラクティス 4 選) - Afraz Jaffri、Carlie Idoine、Erick Brethenoux - 2021 年 12 月 7 日]。

これらの調査結果は、ML スキルを身につけ、技術面の依存関係を取り除き、より多くの人が ML の導入プロセスに参加できるようにするだけでなく、これらのスキルを応用してモデルを本番環境にデプロイし、継続的にモニタリングし、ビジネスに大きく役立てることが主な課題となることを物語っています。

今回の発表で、有用かつ予測可能な ML を大規模にデプロイするうえでの障壁をどのように取り除けるかを見てみましょう。

本番環境への ML デプロイ加速のための 4 本柱

本日発表する機能は、お客様、パートナー、その他の業界のオピニオン リーダーとの議論を通じて開発した、以下の 4 つの枠組みに当てはまります。

選択の自由を与える

データ サイエンティストは、ML フレームワーク、デプロイ インスタンス、使用するコンピューティング プロセッサを自由に選択できる場合に、最も効率良く作業できます。このため、Google は、今年初めに NVIDIA と提携し、Vertex AI Workbench への NVIDIA AI ソフトウェア ソリューションのワンクリック デプロイを開始しました。データ サイエンティストは、NVIDIA の NGC カタログを使用して、Google Cloud 上でモデル開発を開始し、最先端の AI を構築、デプロイするまでの時間を短縮できます。この機能は、Jupyter Notebook のデプロイを 12 段階以上の複雑なステップからワンクリックに簡素化し、ルーチンタスクを省いて、データ サイエンス チームが本番環境への ML デプロイの加速に集中できるよう支援します。

また、Google は、この選択機能が費用を伴うものであってはならないと考えています。Google は、このことを念頭に置いて、Tensorflow と PyTorch の両方をサポートする Vertex AI Training Reduction Server を発表いたします。Training Reduction Server は、NVIDIA GPU 上のマルチノード分散トレーニングの帯域幅とレイテンシを最適化するために構築されたサービスです。これにより、BERT のような大規模な言語ワークロードに必要なトレーニング時間が大幅に短縮され、異なる手法間で費用を同等額にさらに保てるようになります。多くのミッション クリティカルなビジネス シナリオにおいて、トレーニング期間の短縮により、データ サイエンティストは一定のデプロイ期間内でより高い予測性能を持つモデルをトレーニングできます。

ユーザーそれぞれの状況に対応する

ML タスクが事前トレーニング済み API、AutoML、またはゼロから構築したカスタムモデルのいずれを必要とする場合であっても、企業全体の戦略に参加するために技能熟練度が前提条件となるべきではありません。これは、データ エンジニア、データ アナリスト、ML 研究者、MLOps エンジニア、データ サイエンティストが組織全体の ML 導入加速のプロセスに参加するための唯一の方法なのです。

そこで Google は、Vertex AI Tabular Workflows のプレビューを発表します。このワークフローには、モデル構築とモデルデプロイのプロセスの各ステップを確認、解釈できるグラスボックスとマネージド AutoML パイプラインが備わっています。これにより、AutoML に処理させたい部分と自分で設計したい部分を選択することで、精度を妥協せずに、1 テラバイト以上のデータセットを快適にトレーニングできるようになりました。


Tabular Workflows の要素は、既存の Vertex AI Pipelines にインテグレーションすることも可能です。TabNet のような高度な研究モデル、特徴選択やモデル抽出などのための新しいアルゴリズムなど、新しいマネージド アルゴリズムが追加されました。今後の注目すべきコンポーネントとして、Temporal Fusion Transformers などの Google 独自のモデルのほか、XGboost や Wide & Deep などのオープンソース モデルの実装が挙げられます。

データと AI を統合する

ML モデルを本番環境に迅速にデプロイするため、組織にはデータと AI に関する統一的戦略が必要です。Google は、データ エンジニアリング機能をデータ サイエンス環境に直接統合するために、構造化データ、グラフデータ、非構造化データなど、すべてのデータタイプに対応する機能を発表します。

まず、構造化データ向けに、Serverless Spark on Vertex AI Workbench のプレビューを発表します。これにより、データ サイエンティストが自分のノートブック内でサーバーレス Spark セッションを起動し、対話形式でコードを作成できます。

グラフデータの分野では、Neo4j とのデータ パートナーシップを紹介いたします。このパートナーシップにより、データ サイエンティストがグラフベースの ML モデルを活用して、Neo4j の連携データから特徴を探索、分析、設計し、Vertex AI を使用して単一の統合プラットフォーム内ですべてのモデルをデプロイできます。データ サイエンティストは、Neo4j Graph Data Science と Vertex AI を使用することで、グラフベースの入力を使用したモデルから多くの予測を行い、詐欺行為や異常の検出、レコメンデーション エンジン、Customer 360、ロジスティクスなどのユースケースにおいて、より迅速に本番環境に移行できるようになります。

非構造化データの分野では、Labelbox とのパートナーシップにより、データ サイエンティストが非構造化データを活用し、Vertex AI 上でより効果的な ML モデルを構築できるようになります。Labelbox の Vertex AI とのネイティブな統合により、構造化されていない画像データ、テキストデータ、音声データ、動画データのラベル付けに要する時間を短縮し、画像分類、オブジェクト検出、エンティティ認識、その他さまざまなタスクのモデル開発にかかる時間を短縮できます。Google Cloud でのみ可能なこの統合により、Labelbox と Vertex AI は、モデル開発にかかる時間をさらに短縮できます。

ML モデルを管理、保守する

最後に、お客様は、ML モデルを簡単に維持管理するためのツールを求めています。データ サイエンティストは、常に変化する環境の中でモデルの精度、説明可能性、スケーラビリティ、耐災害性、安全性を維持するためにインフラストラクチャ エンジニアやオペレーション エンジニアである必要はありません。Google は、このニーズに対応するため、Vertex AI Example-based Explanations のプレビューを発表します。この新しい Explainable AI の手法は、データ サイエンティストがデータのトレーニング中に誤ってラベル付けされた例を特定したり、モデルの精度を向上させるために収集すべきデータを発見したりするのに役立ちます。データ サイエンティストは、例ベースの説明を使用して問題を迅速に診断し、対処することで、モデルの品質を高い水準で維持できるようになりました。

Ford と Vertex AI

前述のとおり、Google は、お客様が Google の AI / ML ソリューションを使用して素晴らしい成果を上げていることを認識しています。たとえば、Ford は、多くのユースケースとユーザータイプに対して Vertex AI を活用しています。

「当社は、Vertex AI Pipelines を使用して、汎用的で再利用可能なモジュール式の機械学習ワークフローを構築しています。これらは、他の人の成果を活用したり、自分の作業時間を短縮したりするのに役立ちます。ローコード ユーザーとノーコード ユーザーにとって、AutoML モデルは、会話の転記や基本的なオブジェクト検出に便利であり、トレーニングされたモデルを統合的にデプロイできる点が気に入っています。ユーザーがものごとを実用化するのに本当に役立ちますが、それが重要なのです。パワーユーザー向けには、社内モデル用の Vertex AI のカスタムモデルのデプロイを広く活用しています。データ サイエンティストとデータ エンジニアがインフラストラクチャとソフトウェアのスキルを習得する必要がないのは、理想的です。これは、Ford における AI 構築者のコミュニティを成長させるうえで重要であり、当社はとてもよい成功を収めています」と Goodman 氏は述べています。

お客様の声と熱意が、AI と ML をより身近で、持続可能で、強力なものにするためによりよいプロダクトを作り続けようという Google の取り組みを後押しします。Google は、これまで皆様と一緒に AI と ML の進化に取り組んでこれたことをうれしく思っており、新たに発表するサービスが皆様の新たな取り組みへの一助となれば幸いです。

詳細は、Applied ML Summit での専門家のコメントをご確認ください。また、Google Cloud がどのように本番環境への ML の迅速なデプロイを支援しているかについては、Data Science on Google Cloud のページをご覧ください。


Gartner は、Gartner, Inc. および / またはその関係会社の米国およびその他の国における登録商標およびサービスであり、同社の許可を得て使用されるものです。著作権はすべて同社に帰属します。


- Cloud AI、分野別ソリューション担当バイス プレジデント兼ゼネラル マネージャー Andrew Moore