Meta の Llama 3.2 が Google Cloud で利用可能に
Warren Barkley
Sr. Director of Product Management
※この投稿は米国時間 2024 年 9 月 26 日に、Google Cloud blog に投稿されたものの抄訳です。
7 月に、Meta の Llama 3.1 オープンモデルを Vertex AI Model Garden に追加したことを発表しました。それ以来、開発者や企業の皆様は Llama モデルを使用した構築に強い関心を示してきました。そしてこのたび、Meta の新世代のマルチモーダル モデルである Llama 3.2 が Vertex AI Model Garden で利用可能になったことを発表いたします。
Llama 3.2 は、新世代のビジョンモデルとエッジデバイスに搭載可能な軽量モデルを含み、よりプライベートでパーソナライズされた AI エクスペリエンスを必要とするユースケースにも対応できます。新しいモデルには以下の特徴があります。
-
Llama がマルチモーダルに: Llama 3.2 の新しいビジョン LLM(11B と 90B)により、チャート、グラフ、画像キャプションなどの高解像度画像をもとに推論できるようになります。これにより、画像ベースの検索やコンテンツ生成、インタラクティブな教育ツールなど、新たな可能性が開かれます。
-
Llama が小型に: Llama 3.2 の新しい軽量モデル(1B と 3B)は、モバイル デバイスやエッジデバイスにシームレスに統合できるよう設計されています。これらのモデルを使用すると、レイテンシやリソース オーバーヘッドを最小限に抑えながら、プライベートでパーソナライズされた AI エクスペリエンスを構築できます。つまり、デバイス上で多言語対応の要約、情報検索、ローカル AI エージェントを利用できるようになり、しかもユーザーのプライバシーは保護されます。
新しい Llama モデルは、責任あるイノベーションとシステムレベルの安全性を重視して、アクセシビリティ、効率性、プライバシーを優先しています。
Vertex AI は、Llama 3.2 のようなモデルの試験運用、カスタマイズ、デプロイを簡単に行うことができる統合 AI プラットフォームです。Vertex AI に Llama 3.2 が追加されたことで、Model Garden の 160 以上のエンタープライズ向け Google 製モデル、オープンソース モデル、サードパーティ製モデルの厳選されたコレクションがさらに拡大され、オープンで柔軟な AI エコシステムを通じてニーズに最適なモデルを選択できるようになりました。
-
新しい 90B モデル(プレビュー版)には、Model as a Service(MaaS)を通じてこちらから簡単にアクセスできます。MaaS により、モデルに即座にアクセスして、堅牢な開発ツールでカスタマイズし、フルマネージドのインフラストラクチャと従量課金制の料金でデプロイできます。90B モデルは、今後数週間以内に一般提供が開始される予定です。11B ビジョンモデルも、今後数週間以内に MaaS として利用可能になる予定です。
-
このたび、4 つの Llama 3.2 モデルはすべて、Vertex AI Model Garden を通じてセルフサービスでデプロイできるようになりました。
Google Cloud で Llama を利用して構築しているお客様
Shopify は、Vertex AI で Llama を使用してデータ生成プロセスを最適化し、データに基づく分析情報を提供して世界中の企業をサポートしています。
「Google Cloud Vertex AI で Llama 3.1 を使用することで、Shopify では高品質なデータの生成をより簡単かつ効率的に行えるようになりました。利便性の高い Vertex AI のインフラストラクチャにより、重要なアプリケーションに対して信頼性の高い出力を一貫して提供でき、チームのプロセスが合理化されました」と、Shopify の上級 ML エンジニアである Mike Tamir 氏は述べています。「Vertex AI を使用することで、当社は世界中の何百万もの企業にデータに基づいた正確な分析情報を提供し、商取引の未来を形作っています。」
TransCrypts は、Google Cloud で Llama を使用して、何千もの顧客に AI を活用した金融ガイド Castello を提供しています。
「Google Cloud での Llama 3.1 の使用は、TransCrypts に大きな変革をもたらしました。パフォーマンスと費用対効果に優れた TPU により、これらの高度なモデルを瞬時にデプロイして、他の方法では手に負えないような複雑なワークロードでも処理できるようになりました」と、TransCrypts の共同創業者 / CEO である Zain Zaidi 氏は述べています。「Google Cloud は簡単にスケールできるため、わずか数日で何万もの顧客に当社のソリューションである Castello を提供することができました。」
BMC は Llama 3.1 をそのフラグシップである BMC Helix プラットフォームに統合し、会話型 AI、レコメンデーション、分析を通じて IT サービスと運用管理を加速しています。
BMC の GM 兼デジタル サービスと運用管理ビジネス ユニット担当 SVP である Margaret Lee 氏は、次のように述べています。「当社は Google Cloud と提携して、BMC Helix プラットフォームで Vertex AI と Llama 3.1 を活用できるようになったことを大変嬉しく思います。このインテグレーションにより、会話型 AI と AIOps レコメンデーションの精度が大幅に向上し、当社のお客様は、それぞれのニーズに合わせてパーソナライズされた最先端の AI ソリューションを利用できるようになりました。」
Google Cloud で Llama 3.2 を使用するメリット
Vertex AI で Llama 3.2 を使用すると、以下のことが可能になります。
-
自信を持って試験運用: Vertex AI の直観的に使える環境で、シンプルな API 呼び出しや包括的な生成 AI 評価サービスを通じて Llama 3.2 機能を試せます。複雑なデプロイ プロセスを心配する必要はありません。
-
ニーズに合わせて Llama 3.2 をカスタマイズ: お客様のデータでモデルをファインチューニングし、固有のニーズに合った独自のソリューションを構築できます。
-
AI を正しい情報にグラウンディング: Vertex AI に用意されている複数のグラウンディングと RAG のオプションを使用して、AI の出力の確実性、関連性、信頼性を確保できます。たとえば、モデルを企業システムに接続して Vertex AI Search で企業情報を検索し、Llama を使用して生成を行うことなどが可能です。
-
インテリジェントなエージェントを作成: LangChain on Vertex AI を含む Vertex AI の包括的なツールセットを使用して、Llama 3.2 を活用したエージェントを作成、オーケストレートできます。Genkit の Vertex AI プラグインを使用すれば、Llama 3.2 を AI のエクスペリエンスに統合できます。
-
オーバーヘッドなしでデプロイ: 柔軟な自動スケーリングと従量課金制の料金、AI 向けに設計された世界水準のインフラストラクチャにより、Llama 3.2 アプリケーションのデプロイとスケーリングが簡素化されます。
-
企業のガードレール内での運用: モデルで Meta の Llama Guard がサポートされるだけでなく、Google Cloud に組み込まれたセキュリティ、プライバシー、コンプライアンス対策により、自信を持ってデプロイできます。さらに、Vertex AI Model Garden の新しい組織ポリシーなどの企業向け管理機能により、適切なアクセス制御を提供して、ユーザーによるアクセスを承認されたモデルのみに制限できます。
Google Cloud で Llama 3.2 を使ってみる
AI モデルの新たなイノベーションが起こるたびに、エンタープライズ向け AI エコシステムの多様化が進みます。Google Cloud と Meta のパートナーシップは、両社がオープンでアクセスしやすい AI エコシステムを基盤に世界最高水準のイノベーションを提供できるよう尽力していることを示しています。Google Cloud は今後も Meta や他のパートナーと緊密に連携し、お客様に最先端の AI 機能を提供していきます。
Llama 3.2 を使用した構築を開始するには、Model Garden にアクセスしてドキュメントをご覧ください。