コンテンツに移動
スタートアップ & SMB

Cloud Wisdom Weekly: AI / ML がイノベーションを促進し、費用を削減する 4 つの方法

2022年9月28日
Google Cloud Japan Team

※この投稿は米国時間 2022 年 9 月 17 日に、Google Cloud blog に投稿されたものの抄訳です。

「Cloud Wisdom Weekly: テクノロジー企業とスタートアップのために」は、今秋スタートした新たなブログシリーズで、アプリをこれまでよりも速く、安く、スマートに構築する方法に関して、テクノロジー企業やスタートアップのお客様からよく問われる質問に答えることを目的としています。今回は、イノベーションを加速させ、運用を効率的に成長させるための、人工知能(AI)と機械学習(ML)の活用方法について説明します。

データから分析情報を引き出す、インテリジェントな自動化を活用して、より高速で効率的なワークフローを作成する、または革新的なカスタマー エクスペリエンスを構築する場合でも、今日のテクノロジー企業やスタートアップのリーダーたちは、AI と ML の習熟度がこれまで以上に重要であることを認識しています。

AI テクノロジーと ML テクノロジーは、多くの場合、開発に費用と時間がかかります。また、AI と ML の専門家の需要は、依然として現存の人材プールを大幅に上回っています。このような要因により、テクノロジー企業やスタートアップは、AI / ML をビジネス戦略に取り入れることを検討する際に、リソースの慎重な割り振りを迫られます。この記事では、テクノロジー企業やスタートアップが AI と ML を使用してイノベーションを加速し、費用を削減するのに役立つ 4 つのヒントを探ります。

AI と ML でイノベーションを加速し、費用を削減するための 4 つのヒント

今日の特に革新的な企業の多くは、AI なしでは存在し得なかったサービスやプロダクトを作成していますが、AI と ML のインフラストラクチャとパイプラインをゼロから構築しているわけではありません。ビジネスが AI を中心に直接展開していないスタートアップであっても、運用のプロセスに AI を導入することは、企業の成長に伴う費用管理の手助けとなります。AI サービスのクラウド プロバイダを利用することで、組織は、開発の活性化、プロセスの自動化、費用の削減の機会を得ることができます。

1. 事前トレーニング済みの ML API を活用して、プロダクトの開発を迅速に開始する

テクノロジー企業やスタートアップは、ビジネスに違いをもたらす独自のプロジェクトに、技術系の人材が集中できるようにしたいと考えています。これには多くの場合、AI テクノロジーに対応した新しいアプリケーションの開発が含まれますが、必ずしも AI テクノロジー自体の開発ではありません。このようなシナリオでは、事前トレーニング済みの API を使用することで、組織はより価値が高く、より差別化された作業を重ねることができる基盤を迅速かつ費用対効果の高い方法で確立できます。

たとえば、会話型 AI をプロダクトやサービスに組み込む多くの企業は、Speech-to-TextNatural Language などの Google Cloud API を活用しています。このような API を使用すると、デベロッパーは、音声文字変換、感情分析、コンテンツ分類、不適切な表現のフィルタリング、話者ダイアライゼーションなどの機能を簡単に統合できます。パワフルなテクノロジーにより、組織はベースとなるテクノロジーの構築ではなく、プロダクトの開発に集中できます。

テクノロジー企業やスタートアップが、顧客分析情報を導き出すことからロボットに共感的な性格を与えることまで、さまざまなユースケースに Google Cloud の Speech API を選択した理由の例は、こちらの記事をご覧ください。さらに掘り下げた内容に関しては、以下をご覧ください。

2. マネージド サービスを使用して、ML 開発をスケールし、モデルの本番環境へのデプロイを加速する

事前トレーニング済みのモデルは非常に便利ですが、多くの場合、テクノロジー企業やスタートアップは、独自のデータから分析情報を引き出す、または新しいユースケースを一般公開データに適用するには、カスタムモデルを作成する必要があります。データドリブンのプロダクトを構築しているか、顧客データから予測モデルを生成しているかに関係なく、企業はモデルの構築と本番環境へのデプロイを加速する手段を必要としています。 

データ サイエンティストは通常、ノートブックで新しい ML プロジェクトを開始し、ローカルマシンに保存されたデータをテストします。この取り組みを本番環境に移行するには、より複雑なインフラストラクチャ管理を含む、追加のツールとリソースが必要です。これが、多くの組織がモデルを本番環境に導入するのに悪戦苦闘し、収益の目立った変化なしで、時間とリソースを消費してしまう理由の一つです。

マネージド クラウド プラットフォームは、組織がプロジェクトから自動化された大規模なテスト、または、本番環境モデルの日常的なデプロイと再トレーニングに移行する助けになります。優れたプラットフォームにより、柔軟なフレームワーク、モデル トレーニングに必要なコードの軽量化、ツールとデータセット間の統合環境、わかりやすいインフラストラクチャ管理とデプロイ パイプラインが提供されます。

Google Cloud では、このようなニーズのあるお客様が、ML 開発を加速するためのプラットフォームである Vertex AI を導入するのを、昨年のリリースからずっと見てきました。そしてその数は、増加し続けています。Vertex AI は、相反するアプローチと比較して本番環境に移行するまでの時間を最大 80% 速め、高度なエンドツーエンドの ML Ops 機能を提供して、データ サイエンティスト、ML エンジニア、デベロッパーが ML の加速に貢献できるようにします。AutoML などのローコード機能が含まれているため、ML の専門知識がなくてもパフォーマンスの高いモデルをトレーニングできます。

2022 年前半のパフォーマンス テストでは、AI Workbench を利用しているお客様の数が 25 倍に増加したことがわかりました。お客様に Vertex AI Workbench の効果と価値を実感していただくことは大変喜ばしいことです。企業は、大規模なモデルのトレーニング ジョブを 10 倍高速化できるようになり、データ サイエンス チームは、モデリングの精度を 70~80% の範囲から 98% に向上させています。

Vertex AI を初めて使用する場合、こちらの動画シリーズをチェックして、モデルをプロトタイプから本番環境に移行する方法を学べます。さらに掘り下げた内容に関しては、以下をご覧ください。

3. 費用と管理オーバーヘッドを最小限に抑えながら、クラウドを活用して、ハードウェアをユースケースにマッチさせる

一般的に、ML インフラストラクチャの構築には費用がかかります。また、ユースケースによっては、特定のハードウェア要件とソフトウェアの統合により、プロジェクトが大規模で、費用がかさみ、複雑になる可能性があります。これを解決するために、多くのテクノロジー企業やスタートアップは、コンピューティングとストレージのニーズに対応するクラウド サービスに期待しています。変化するビジネスニーズに応じて、スケールアップおよびスケールダウンしながら、使用するリソースに対してのみ料金を支払えることに魅力を感じているのです。

Google Cloud のお客様は、多様な ML ワークロードに対するさまざまなインフラストラクチャのアプローチを最適化できることが必要であると話しています。柔軟なプロトタイピングのために、中央処理装置(CPU)を使用する方もいます。また、画像指向のプロジェクトや大型のモデル向けの NVIDIA 画像処理装置(GPU)のサポートを利用される方もいます。特に CPU で部分的に実行する必要があるカスタム TensorFlow 演算を使用するプロジェクトやモデルが対象となります。Google アプリケーションである Tensor Processing Unit(TPU)にパワーを供給する同じカスタム ML プロセッサでの実行を選択する方もいます。また、多くの方が、前述のものすべてをいろいろ組み合わせて使用しています。

ユースケースを適切なハードウェアにマッチさせ、マネージド サービスのスケールと運用のシンプルさから利益を得るだけでなく、テクノロジー企業やスタートアップは、費用をさらに抑えるのに役立つ構成機能を探る必要があります。たとえば、GPU のタイムシェアリング機能やマルチインスタンス機能などの Google Cloud 機能や、Vertex AI Training Reduction Server などの機能は、GPU の費用と使用量を最適化するように構築されています。

Vertex AI Workbench は、NVIDIA NGC カタログとも統合して、フレームワーク、ソフトウェア開発キット、Jupyter Notebook をワンクリックでデプロイします。これは、Reduction Server のような別の機能であり、組織がマネージド サービスを介して AI をより効率的かつ低費用にする方法について示しています。

4. 運用に AI を実装

事前トレーニング済みの API と ML モデルの開発を使用してプロダクトを開発および提供する他に、スタートアップやテクノロジー企業は、契約処理やカスタマー サービスなど、特定のビジネスと運用上のニーズに合わせて構築された AI ソリューションを活用することで、特に規模が拡大するにつれて、運用の効率を上げることができます。

たとえば、Google Cloud の DocumentAI プロダクトは、ML をテキストに適用して、契約のライフサイクル管理から住宅ローンの処理におよぶユースケースに対応しています。カスタマー サポートのニーズが高まっている企業には、Contact Center AI があります。これは、組織がインテリジェントな仮想エージェントを構築して、仮想エージェントと人間のエージェントの間で必要に応じてハンドオフを促進し、コールセンターのやり取りから分析情報を生成できるようにします。AI を活用して運用プロセスの管理をサポートすることで、スタートアップやテクノロジー企業は、イノベーションと成長により多くのリソースを割り振れるようになります。

インテリジェントな未来に向けた次のステップ

この記事で紹介するヒントは、テクノロジー企業やスタートアップが AI と ML を使用して費用を節約し、効率を高める方法を見つける支援をするものです。このトピックの詳細については、10 月 11 日から始まる Google Cloud Next に登録することで、ご確認いただけます。Google Cloud の最新の AI ニュース、ディスカッション、展望を聞くことができます。それまでは、Vertex AI のクイックスタートBigQuery ML のチュートリアルをご利用ください。また、テクノロジー企業やスタートアップとの取り組みに関する最新情報は、スタートアップ ページにアクセスしてください。

- Google Cloud コンテンツおよび編集担当編集長

投稿先