すべての企業が AI を利用できるようにするための新たな進歩
Warren Barkley
Sr. Director, Product Management, Cloud AI
※この投稿は米国時間 2024 年 8 月 2 日に、Google Cloud blog に投稿されたものの抄訳です。
Google は、Gemini 1.5 Flash の最近の人気と導入増加を大変嬉しく思っています。Gemini 1.5 Flash は、大規模な大量かつ高頻度のタスクに最適化された Google 史上最速のモデルです。Google は日々、ユーザーが Gemini をどのように使って、音声を文字変換する、コードエラーを把握する、アプリを数分で構築するといった素晴らしいことを成し遂げているかを確認しています。Jasper.ai のような企業もまた、Gemini を利用して自社のユーザーに素晴らしい体験を提供しています。
Jasper.ai の最高戦略責任者である Suhail Nimji 氏は、次のように話しています。「AI ファーストの企業である当社は、企業のマーケティング チームがより迅速に仕事をこなせるようにすることに重点を置いています。お客様が迅速かつ簡単に素晴らしいコンテンツを作成し、既存のアセットを見直せるようにするには、費用対効果に優れていながら処理速度の速い、高品質なマルチモーダル モデルを使用することが不可欠です。Gemini 1.5 Pro と今回の Flash を利用して、当社はコンテンツ生成のレベルを上げ続け、ブランドボイスとマーケティング ガイドラインを確実に守りながら、プロセスの生産性を高めていきます。」
とはいえ、本当の価値は優れたモデルを提供するだけにとどまらないことも Google は認識しています。重要なのは、こうしたモデルにユーザーが簡単にアクセスして評価し、大規模にデプロイできる、総合的なエコシステムを提供することです。そのため Google は、ユーザーが本番環境に移行し、世界中のオーディエンスにリーチを拡大できるよう、アップデートを展開しています。
- より多くのモデルで可能性を広げる: Google は、Meta の Llama 3.1 や Mistral AI の最新モデルのようなオープンモデルを使って、Model Garden を拡張しました。また、フルマネージドな「Model as a Service」としてこれらのモデルを提供し、ユーザーが開発費用をかけることなく独自のニーズに適したものを見つけられるようにしました(ここではモデルを話題にしていますが、AI Studio で初期テストとフィードバックができる 新しい試験運用版の Gemini 1.5 Pro に対する反響を見るのはとても楽しいものでした。皆さんが発揮している創造性に感心しきりです)。
- 言語の壁の排除: Gemini 1.5 Flash と Gemini 1.5 Pro が 100 以上の言語を理解して回答できるようにし、グローバル コミュニティのメンバーが母語で簡単にプロンプトを入力して回答を受け取れるようにします。
- 予測可能なパフォーマンス: Google は、信頼性とパフォーマンスがいかに重要かを理解しています。Vertex AI でプロビジョニングされたスループットを、稼働時間 99.5% のサービスレベル契約(SLA)と組み合わせて一般提供を開始するのはそのためです。
- 費用ではなく AI をスケーリング: Google は Gemini 1.5 Flash を改良し、2024 年 8 月 12 日より入力費用を最大 85%、出力費用を最大 80% 削減します。コンテキスト キャッシュなどの機能と相まって、長いコンテキスト クエリの費用とレイテンシが大幅に減少します。標準的なリクエストの代わりに Batch API を使うことで、レイテンシを重視するタスクの費用をさらに最適化できます。こうした利点を組み合わせることにより、大量のワークロードを処理し、100 万トークンのコンテキスト ウィンドウを活用することができます。
これらの機能強化は、お客様からのご要望に直接お応えしたものです。こうした取り組みには、最高のモデルを構築するだけでなく、AI エコシステムを提供してエンタープライズ規模で AI を利用できるようにするという、Google の継続的なコミットメントが表れています。2024 年 8 月 12 日からさらに多くの言語に対応し、GA でプロビジョニングされたスループットを備え、新しいお手頃な料金になる Vertex AI の Gemini 1.5 Flash をぜひお試しください。
-Cloud AI、プロダクト管理シニア ディレクター Warren Barkley