コンテンツに移動
AI & 機械学習

Gemma が Google Cloud で利用可能に

2024年2月22日
https://storage.googleapis.com/gweb-cloudblog-publish/images/Blog_Gemma_1b.max-2500x2500.jpg
Google Cloud Japan Team

Gemini 1.5 モデル をお試しください。

Vertex AI からアクセスできる、Google のもっとも先進的なマルチモーダル モデルです。

試す

*この投稿は米国時間 2024 年 2 月 22 日に Google Cloud blog に投稿されたものの抄訳です。

Google は本日、Gemini モデルの作成に使用したのと同じ研究とテクノロジーから構築した軽量で最先端のオープンモデル ファミリー Gemma を発表しました。Google Cloud のお客様は本日から、Vertex AI で Gemma モデルを使用してカスタマイズおよび構築を開始し、Google Kubernetes Engine (GKE) 上で実行できるようになります。Gemma のリリースとプラットフォーム機能のアップデートは、Google Cloud を活用する開発者にとって AI をよりオープンで利用しやすくするGoogle の新たな取り組みの 1 つです。

Gemma が Google Cloud で利用可能に

Gemma モデルは、Google の Gemini モデルと同じ技術およびインフラストラクチャ コンポーネントを利用しています。これにより、Gemma モデルは他のオープン モデルと比較して、そのサイズで最高水準のパフォーマンスを達成することができます。Gemma は、Gemma 2B と Gemma 7B の 2 つのサイズのウェイトでご利用いただけます。両サイズとも、研究と開発の両方を可能にするために、事前トレーニングされ、インストラクション チューニングされたモデルの重みとともにリリースされます。

Gemma は、Colab や Kaggle Notebook のほか、JAX、PyTorch、Keras 3.0、Hugging Face Transformers のフレームワークなど、Google Cloud の開発者が使用しているツールをサポートしています。Gemma モデルは、ノートパソコン、ワークステーション、または Google Cloud 上で実行できます。この新しいオープン モデルにより、開発者は Vertex AI で構築およびカスタマイズし、GKE 上で実行できるようになりました。さらに、業界をリードするパフォーマンスを最大化するために、NVIDIA と協力して Gemma を NVIDIA GPU 向けに最適化しました。

Vertex AI で Gemma の力を解き放つ

先日 Gemini へのアクセス拡大を発表 しましたが、Gemma は Gemini 1.0 Pro、1.0 Ultra および 1.5 Pro モデルを含む Vertex AI Model Garden の 130 以上のモデルに追加されます。

Vertex AI で Gemma モデルを使用することで、開発者はモデルのチューニング、管理、モニタリングをシンプルかつ直感的に行うエンドツーエンドの ML プラットフォームを利用できるようになります。Vertex AI を使用することで、運用上のオーバーヘッドを削減し、ユースケースに最適化された Gemma のカスタム バージョンの作成に集中できます。たとえば、Vertex AI で Gemma モデルを使用すると、開発者は次のことが可能になります。

  • テキスト生成、要約、Q&A などといった軽量タスク向けの生成 AI アプリの構築
  • 軽量かつカスタマイズされたモデルを探索と実験に使用した研究開発
  • テキストのストリーミングなど、低遅延を必要とするリアルタイムの生成 AI ユースケースのサポート

Vertex AI を使用することで、開発者は独自にチューニングされたモデルを、あらゆる規模の AI アプリケーションを強化できるスケーラブルなエンドポイントに簡単に変換できます。

GKE 上の Gemma を使用してプロトタイプから本番環境までスケール

GKE は、単純なプロジェクトのプロトタイピングからエンタープライズ規模でのロールアウトまで、カスタム アプリを構築するためのツールを提供します。現在、開発者は Gemma を GKE に直接デプロイして、プロトタイプを構築したり、モデルの機能をテストしたりするための独自の生成 AI アプリを作成することもできます。

  • 微調整されたカスタム モデルをポータブル コンテナにデプロイし、使い慣れたツール チェーンを使用するアプリケーションと並行してデプロイ
  • ノードのプロビジョニングやメンテナンスの必要なく、モデルの提供とインフラストラクチャ構成をカスタマイズ
  • AI インフラストラクチャを迅速に統合し、最も要求の厳しいトレーニングと推論のシナリオに合わせて拡張

GKE は、効率的なリソース管理、一貫性のある運用環境、自動スケーリングを提供します。さらに、GPU や TPU などの Google Cloud AI アクセラレータを簡単にオーケストレーションすることで、これらの環境を強化し、生成 AI モデルを構築する際のトレーニングと推論を高速化します。

今すぐ Google Cloud で Gemma を始めましょう

Gemma モデルは、Google Cloud の Vertex AIGKE ですでにご利用いただけます。 Gemma の詳細については、ai.google.dev/gemma のクイックスタート ガイドをご覧ください。

-Cloud AI, VP & GM, Burak Gokturk

投稿先