コンテンツに移動
AI & 機械学習

Vertex AI で使用できる最新の生成 AI 機能の究極ガイド

2024年9月19日
https://storage.googleapis.com/gweb-cloudblog-publish/images/ultimate_guide_82924.max-2500x2500.jpg
Warren Barkley

Sr. Director, Product Management, Cloud AI

Stephanie Wong

Head of Technical Storytelling

※この投稿は米国時間 2024 年 8 月 30 日に、Google Cloud blog に投稿されたものの抄訳です。

生成 AI の世界は、驚くほどのペースで進化しています。AI が生成した画像に驚嘆していたのがつい昨日のことのように感じられますが、今では AI chatbot との本格的な会話により、コードの記述、詩の創作、カスタマー サービスの提供も行うことができるようになりました(世界の主要組織における実際の 101 件の生成 AI ユースケースの一覧をご覧ください)。

イノベーションのペースについていくのは難しい場合もあります。Google は、2023 年に Vertex AI 500 以上の新機能を導入しましたが、今年もその勢いは止まりません。今回のブログ記事の目的は、皆様が重要な最新情報を把握し、皆様のビジネスにおける意義や影響を理解できるようにすることです。新たに情報が発表されるたびに更新しますので、このページをブックマークするとともに、最新情報を紹介する以下の新しい動画シリーズもご確認ください。

最新のお知らせの概略

Google は先日、GeminiMetaMistral の各モデルを利用しやすくするための複数の新機能を発表し、その後まもなく AI21 Labs Jamba 1.5 モデル ファミリーを発表しました。

https://storage.googleapis.com/gweb-cloudblog-publish/images/maxresdefault_pBw7HU9.max-1300x1300.jpg

Gemini 1.5 Flash の料金引き下げ

  • 概要: Gemini 1.5 Flash の更新に伴い、2024 8 12 日より入力費用を最大 85%、出力費用を最大 80% 引き下げます。

  • 重要な理由: 100 万のコンテキスト ウィンドウとマルチモーダル入力に対応する世界水準の Gemini Flash モデルの大幅な料金引き下げとなります。さらに、コンテキスト キャッシュ保存などの機能と組み合わせることで、コンテキストの長いクエリの費用とレイテンシを大幅に削減できます。標準的なリクエストの代わりに Batch API を使うことで、レイテンシの要求が厳しくないタスクの費用をさらに最適化できます。

  • 開始方法: 料金の詳細をご確認のうえ、Gemini 1.5 Flash をお試しください。

Gemini の対応言語の拡大

  • 概要: Gemini 1.5 Flash Gemini 1.5 Pro 100 以上の言語に対応します。

  • 重要な理由: Google のグローバル コミュニティのメンバーが母語で簡単にプロンプトを入力してレスポンスを受け取れるようになります。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

Meta Llama 3.1

  • 概要: Llama 3.1 モデルが従量課金制 API として Vertex AI で利用できるようになりました。405B70B8B9 月上旬リリース予定)が利用可能です。

  • 重要な理由: 405B は、現時点で一般公開されている基盤モデルとして最大のものです。8B 70B は、言語のニュアンスの理解に優れた新しいバージョンで、コンテキストの把握、複雑なタスクの実行(翻訳や会話の生成など)に長けています。新しいモデルには、23 回クリックするだけでアクセスでき、また Model as a ServiceMaaS)なのでセットアップやインフラストラクチャ管理の手間はかかりません。

  • 開始方法: Llama 3.1 の利用を開始するには、Model Garden にアクセスしてください。

Mistral AI の最新モデル

  • 概要: Mistral Large 2NemoCodestral を追加しました(Google Cloud は、Codestral を導入する初のハイパースケーラーです)。

  • 重要な理由: Mistral Large 2 Mistral AI のフラッグシップ モデルで、現時点で最も優れたパフォーマンスと汎用性を提供します。Mistral Nemo は、低料金で優れたパフォーマンスを発揮する 12B モデルです。Codestral は、コード生成タスクに明確に照準を合わせて設計された Mistral AI 初のオープン ウェイト生成 AI モデルです。新しいモデルには、23 回クリックするだけでアクセスでき、また Model as a ServiceMaaS)なのでセットアップやインフラストラクチャ管理の手間はかかりません。

  • 開始方法: Mistral AI モデルの利用を開始するには、Model GardenCodestralLarge 2Nemo)にアクセスするか、こちらのドキュメントをご覧ください。

AI21 Labs Jamba 1.5 モデル ファミリー

  • 概要: Jamba 1.5 モデル ファミリー(AI21 Labs の新しいオープンモデル ファミリー)の公開プレビュー版が Vertex AI Model Garden で提供されています。以下のモデルを選択できます。

    • Jamba 1.5 Mini: AI21 の最も効率的な最軽量モデルで、カスタマー サポート、ドキュメントの要約、テキスト生成のようなタスクの処理速度と効率性を重視して設計されています。

    • Jamba 1.5 Large: AI21 の最も先進的な最大モデルで、財務分析などの高度な推論タスクを並外れた速度と効率で処理できます。

  • 重要な理由: Vertex AI Model Garden で利用可能なモデルはすでに 150 を超えており、今回そこに AI21 の新しいモデルが加わりました。選択肢と柔軟性の拡大により、ニーズと予算に合わせて最適なモデルを選択でき、急速なイノベーションにも継続的に対応できるようになります。

  • 開始方法: Vertex AI Model Garden Jamba 1.5 Mini または Jamba 1.5 Large のモデルタイルを選択してください。

これまでのお知らせ

Google と業界が提供する最適なモデル

Google は、企業にとって最適なモデルを提供するべく取り組んでいます。Vertex AI Model Garden では、Google、パートナー、オープン コミュニティが提供する 150 以上のモデルにアクセスできるため、お客様は料金、パフォーマンス、レイテンシを考慮して最適なモデルを選択できます。

どの基盤モデルを使用する場合でも、エンタープライズ対応のツールが付属しており、Google のエンドツーエンド プラットフォームへのインテグレーションが可能です。

Gemini 1.5 Flash の一般提供開始

  • 概要: Gemini 1.5 Flash は、競争力の高い価格設定で低レイテンシを実現し、100 万トークンのコンテキスト ウィンドウに対応しています。

  • 重要な理由: Gemini 1.5 Flash は、小売業界のチャット エージェント、ドキュメント処理、リポジトリ全体の情報を統合する調査エージェントなど、幅広い大規模なユースケースで使用できる優れたオプションです。

  • 開始方法: Vertex AI での Gemini 1.5 Flash の利用を開始するには、こちらをクリックしてください。

Gemini 1.5 Pro の一般提供開始、200 万トークンのコンテキスト ウィンドウに拡張

  • 概要: Gemini 1.5 Pro の一般提供開始に伴い、コンテキスト ウィンドウが業界トップクラスの最大 200 万トークンに拡張されたことで、他のモデルでは処理できない独特のマルチモーダル ユースケースに対応できるようになりました。

  • 重要な理由: わずか 6 分の動画を処理するだけでも 10 万以上のトークンが必要となり、大規模なコードベースでは 100 万トークンを超える場合もあります。そのため、膨大なコード行の中に含まれるバグの検出、調査用ライブラリからの正しい情報の特定、何時間分もの音声や動画の分析といったユースケースにおいて、Gemini 1.5 Pro のコンテキスト ウィンドウの拡張は、組織が新境地を切り拓くうえで役立っています。

  • 開始方法: 利用を開始するには、こちらをクリックしてください。

Imagen 3 の一般提供開始

  • 概要: Google の最新の画像生成モデルは、優れた画質、多言語対応、Google DeepMind SynthID 電子透かしなどの組み込みの安全機能、複数アスペクト比のサポートを提供します。

  • 重要な理由: Imagen 2 からの改善点として、生成速度 40% 以上の向上による迅速なプロトタイピングとイテレーション、プロンプトの理解と指示実行の精度向上、人々の集団を含む写真のようにリアルな画像の生成、画像内のテキスト レンダリングの制御性の向上などが挙げられます。

  • 開始方法: Vertex AI での Imagen 3 の利用をお申し込みください。

Gemma 2

  • 概要: この Google の次世代オープンモデル ファミリーは、Gemini の開発に使用された技術を使用して、開発者と研究者がイノベーションを共有、商用化できるようにすることを目的として構築されました。

  • 重要な理由: Gemma 2 は、90 億(9B)と 270 億(27B)の両方のパラメータ サイズで利用可能です。第 1 世代よりもはるかに高性能かつ効率的で、組み込みの安全機能が大幅に強化されています。

  • 開始方法: こちらから Vertex AI での Gemma 2 の利用を開始してください。

Anthropic Claude 3.5 Sonnet

  • 概要: Google は最近、Anthropic が新たにリリースした Claude 3.5 Sonnet モデルを Vertex AI に追加しました。これにより、Claude 3 OpusClaude 3 SonnetClaude 3 Haiku など、Google が提供する Anthropic モデルのセットが拡張されます。新しいモデルには、23 回クリックするだけでアクセスでき、また Model as a ServiceMaaS)なのでセットアップやインフラストラクチャ管理の手間はかかりません。

  • 重要な理由: Google は、Vertex AI で利用可能な自社モデル、オープンモデル、サードパーティ モデルの厳選されたコレクションにより、お客様の選択肢を増やし、イノベーションを推進できるよう取り組んでいます。

  • 開始方法: Claude 3.5 Sonnet on Vertex AI の試験運用または本番環境へのデプロイを開始してください。

あらゆるレベルでカスタマイズ可能なエンドツーエンド モデル構築プラットフォーム

Vertex AI Model Builder では、プロトタイプから本番環境までに必要なすべての機能を使用して、独自のモデルを構築またはカスタマイズできます。

Gemini 1.5 Pro Flash のコンテキスト キャッシュ保存によるコスト削減

  • 概要: コンテキスト キャッシュ保存とは、以前の会話またはやり取りの一部(「コンテキスト」)をメモリに保存し、モデルが新しい回答を生成する際に参照できるようにする技術です。

  • 重要な理由: コンテキストの長いアプリケーションでは、コンテキストが長くなるにつれてレスポンスを得るための費用と時間がかかるようになるため、本番環境へのデプロイが難しくなる場合があります。Vertex AI のコンテキスト キャッシュ保存を使用すると、頻繁に使用されるコンテキストのキャッシュに保存されたデータを活用することで、入力費用 75% の大幅なコスト削減を達成できます。現在、コンテキスト キャッシュ保存 API を提供しているプロバイダは Google のみです。

  • 開始方法: こちらのドキュメントで詳細をご確認ください

生成制御機能

  • 概要: 生成制御機能を使用すると、特定の形式やスキーマに応じて Gemini モデルの出力を定義できます。

  • 重要な理由: ほとんどのモデルでは、明示的に指示したとしても、その出力の形式や構文が指示に沿っているとは限りません。Vertex AI の生成制御機能により、お客様は事前構成済みのオプション(YAMLXML など)を選択するか、カスタム形式を定義することで、目的とする形式の出力を選択できるようになります。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。  

Batch API

  • 概要: Batch API は、レイテンシの影響を受けにくい大量のテキスト プロンプト リクエストを送信するのに極めて効率的な方法であり、分類と感情分析、データ抽出、説明の生成などのユースケースで利用できます。

  • 重要な理由: 単一のリクエストで複数のプロンプトをモデルに送信できるため、開発者のワークフローを加速するうえで役立つとともに、コストの削減にもつながります。

  • 開始方法: こちらのドキュメントをご覧になり、使用を開始してください。

新しいモデル モニタリング機能

  • 概要: 新しい Vertex AI Model Monitoring には、以下が含まれます。

    • Vertex AI の外部でホストされるモデルのサポート(例: GKECloud Run、さらにはマルチクラウドやハイブリッド クラウド)

    • モニタリング ジョブの統合管理(オンライン予測とバッチ予測の両方に対応)

    • 構成の簡素化と指標の可視化(エンドポイントではなく、モデルに接続)

  • 重要な理由: Vertex AI の新しいモデル モニタリング機能は、任意のサービング インフラストラクチャ(Vertex AI 以外も対象。例: Google Kubernetes EngineCloud RunGoogle Compute Engine など)にデプロイされたモデルをモニタリングできる柔軟性、拡張可能性、一貫性に優れたソリューションとなります。

  • 開始方法: こちらのブログ記事で詳細をご確認ください。

Ray on Vertex AI の一般提供開始

  • 概要: Ray は包括的で使いやすい Python 分散フレームワークを提供します。Ray を使用して、コンピューティング リソースのスケーラブルなクラスタを構成し、ドメイン固有のライブラリのコレクションを利用して、トレーニング、サービング、チューニングなどの一般的な AI / ML タスクを効率的に分散できます。

  • 重要な理由: このインテグレーションにより、AI 開発者は Vertex AI の汎用インフラストラクチャ上で AI ワークロードを簡単にスケールできるようになり、ML、データ処理、分散コンピューティングの可能性を最大限に引き出します。

  • 開始方法: こちらのブログ記事で詳細をご確認ください。

プロンプト管理

  • 概要: 現在プレビュー版で提供中の Vertex AI Prompt Management では、バージョニング、以前のプロンプトを復元するオプション、プロンプトのパフォーマンス向上に関する AI 生成の提案など、チーム間で使用できるプロンプトのライブラリを提供しています。

  • 重要な理由: この機能により、大規模な生成 AI モデルの最適なパフォーマンスを得ることが容易になり、試験運用から本番環境までのイテレーションを迅速化できます。ユーザーはプロンプトのイテレーションを並べて比較することで、小さな変更が出力に与える影響を評価できます。このサービスには、コラボレーションを促進するためのメモやタグ付けなどの機能も備わっています。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

Evaluation サービス

  • 概要: 最適なプロンプト設計を目指したイテレーションでモデルのパフォーマンスを評価できるよう、Rapid Evaluation のプレビュー版をサポートするようになりました。ユーザーは、さまざまな項目(例: 類似性、指示の実行、流暢さ)の指標や、特定のタスクのバンドル(例: テキスト生成の品質)にアクセスできます。また、RAG Grounded Generation の要約と質問応答のための評価指標(groundednessanswer_qualitycoherence など)もリリースしました。並べて比較し、評価できるように、AutoSxS の一般提供が開始されており、AutoSxS では、2 つのモデルのパフォーマンスを比較し、一方のモデルがもう一方のモデルよりも優れている理由の説明や、ユーザーが評価の精度を理解するための確実性スコアも確認できます。

  • 重要な理由: Vertex AI の評価ツールを使用すると、特定のタスクセットのモデルを比較し、最適なパフォーマンスを得ることができます。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

エージェントを迅速に開発、デプロイし、企業の実体にグラウンディング

Vertex AI Agent Builder を使用すると、スキルレベルに関係なく、AI Agents を簡単かつ迅速に構築、カスタマイズできます。Vertex AI Agent Builder のコア コンポーネントである Vertex AI Search により、自社データやウェブにモデルをグラウンディングすることが可能です。

Vertex のグラウンディング

Vertex には、グラウンディングと RAG のオプションが多数あります。これらの機能は、企業への生成 AI の導入を阻むいくつかの重要な課題に対応しています。その課題とは、モデルがトレーニング データ以外の情報を知らないということと、基盤モデルに「ハルシネーション」の傾向があること、つまり説得力はあるが事実性の面で問題がある情報が生成される可能性があることです。こうした課題を軽減するために開発された検索拡張生成(RAG)手法では、最初に質問に関する事実を「取得」してから、その事実をモデルに提供して、回答を「生成」します。この一連のプロセスのことを Google Cloud ではグラウンディングと呼んでいます。モデルの知識を拡張するために関連する事実を迅速に入手することは、結局は探索問題となります。  

詳細は、こちらのブログ投稿をご覧ください。

Google 検索によるグラウンディングの一般提供開始

  • 概要: お客様が Gemini モデルに Google 検索によるグラウンディングを選択すると、Gemini Google 検索を使用して、関連するインターネット検索結果にグラウンディングする出力を生成します。Google 検索によるグラウンディングでは、動的取得も提供されます。この新機能では、お客様が品質とコスト効率のバランスを取れるように、Google 検索の検索結果を使用する場合とモデルのトレーニング データを使用する場合をインテリジェントに判断します。

  • 重要な理由: Google 検索によるグラウンディングは使いやすく、Gemini に世界中の知識を活用させることができます。動的取得により、必要な場合にのみグラウンディングを行うことで、費用とユーザーの時間を節約できます。

  • 開始方法: こちらのドキュメントで利用開始方法の詳細をご確認ください。

サードパーティ データセットによるグラウンディング

  • 概要: Vertex AI では、専門的なサードパーティ データにモデルや AI エージェントをグラウンディングできる新しいサービスを提供します。Google Cloud は、Moody'sMSCIThomson ReutersZoomInfo などのプロバイダとともに、各社のデータセットへのアクセスを提供できるよう取り組んでいます。

  • 重要な理由: こうした機能により、お客様は、より精度と有用性に優れた回答を提供する AI エージェントや AI アプリケーションを構築できるようになります。

  • 開始方法: 近日リリースされます。営業担当者に詳細をお問い合わせください。

高忠実度モードによるグラウンディング

  • 概要: 高忠実度モードでは、お客様が提供したコンテンツのみを回答の生成に使用するようにファインチューニングされた Gemini 1.5 Flash のバージョンを活用し、レスポンスにおける高水準の事実性を確保します。

  • 重要な理由: 金融サービス、ヘルスケア、保険といった大量のデータを扱う業界では、生成 AI のユースケースにおいて、多くの場合、モデルが有する世界中の知識ではなく、提供されたコンテキストのみに基づきレスポンスを生成することが求められます。試験運用プレビュー版が発表された高忠実度モードによるグラウンディングは、こうしたグラウンディングのユースケース(複数のドキュメントにわたる要約、指定された金融データのコーパスに対するデータ抽出、事前定義された一連のドキュメントの処理など)に対応するという目的に特化して構築されています。

  • 開始方法: 営業担当者に詳細をお問い合わせください。

Vector Search の拡張によるハイブリッド検索のサポート

  • 概要: Vector Search は、Vertex AI SearchDIY RAG、その他のエンベディングのユースケースにグローバル規模で活用されている超高パフォーマンスのベクトル データベースで、今回ハイブリッド検索の公開プレビュー版の提供が開始されました。

  • 重要な理由: エンベディングとは、複雑なデータ(テキスト、画像など)間のセマンティックな関係を表す数値表現です。エンベディングは、レコメンデーション システム、広告配信、RAG のセマンティック検索など、複数のユースケースに活用されています。ハイブリッド検索は、ベクトルベースとキーワード ベースの検索手法を組み合わせ、関連性と精度が最も高いレスポンスをユーザーに提供するものです。

  • 開始方法: こちらのドキュメントでベクトル検索の詳細をご確認ください。

LangChain on Vertex

  • 概要: LangChain のエージェント開発 SDK およびコンテナ ランタイムです。LangChain on Vertex AI では、利用したいモデルを選択し、外部 API にアクセスするためのツールを定義して、ユーザーとオーケストレーション フレームワークのシステム コンポーネント間のインターフェースを構成したうえで、フレームワークをマネージド ランタイムにデプロイできます。

  • 重要な理由: LangChain on Vertex AI により、セキュリティ、プライバシー、スケーラビリティを維持しながら、デプロイを簡素化して加速できます。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

Vertex AI 拡張機能、関数呼び出し、データコネクタ

  • 概要:

    • Vertex AI 拡張機能は、基盤モデルを特定の API またはツールに接続するための、事前に構築された再利用可能なモジュールです。たとえば、新しいコード インタープリタ拡張機能を使用すると、データ分析、データの可視化、数学的演算など、Python コードの実行を必要とするタスクをモデルで実行できるようになります。

    • ユーザーは Vertex AI 関数呼び出しを使用して、関数または API のセットを記述し、特定のクエリに対して、適切な API または呼び出す関数を、適切な API パラメータとともに Gemini モデルにインテリジェントに選択させることができます。

    • Vertex AI データコネクタを使用すると、ServiceNowHadoopSalesforce などのエンタープライズ アプリケーションやサードパーティ アプリケーションからデータを取り込み、生成アプリケーションを一般的に使用されるエンタープライズ システムに接続できます。

  • 重要な理由: これらの機能により、Vertex AI Agent Builder では、出力のグラウンディングを強化し、ユーザーの代わりにアクションを実行することが容易になります。

  • 開始方法: Vertex AI 拡張機能関数呼び出しデータコネクタの各ドキュメントで詳細をご確認ください。

Firebase Genkit

  • 概要: Genkit は、プロダクション レディな AI アプリケーションの開発、デプロイ、モニタリングを簡素化するために設計された Firebase のオープンソースの TypeScript / JavaScript および Go フレームワークです。

  • 重要な理由: Genkit Vertex AI プラグインにより、開発者は Gemini Imagen 2 などの Google モデルやテキスト エンベディングを利用できるようになりました。さらに、Vertex Eval サービスは、OpenTelemetry トレースとともに Genkit のローカル開発エクスペリエンスに組み込まれています。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

LlamaIndex on Vertex AI

  • 概要: LlamaIndex on Vertex AI を使用すると、データの取り込みと変換から、エンベディング、インデックス作成、取得、生成まで、検索拡張生成(RAG)を実現する独自の検索エンジンの構築を簡素化できます。

  • 重要な理由: Vertex AI のお客様は、Google のモデル、AI に最適化されたインフラストラクチャ、LlamaIndex のシンプルで柔軟なオープンソース データ フレームワークを活用して、カスタム データソースを生成モデルに接続できます。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

エンタープライズ向けのスケーラブルな基盤をベースに構築

生成 AI は革新的な性質を持っていることから、企業が信頼できるプライバシー、セキュリティ、制御、コンプライアンスの機能を備えたプラットフォームが必要とされています。Google Cloud は、プライバシー、セキュリティ、コンプライアンスの機能を提供することで、お客様が生成 AI の可能性を最大限に引き出すことができるよう支援したいと考えています。Google Cloud の目標は、システムの保護、透明性の実現、柔軟で常時利用可能なインフラストラクチャの提供により信頼関係を築くとともに、そのすべての取り組みの基盤を AI に関する原則とすることです。

動的共有割り当て

  • 概要: 動的共有割り当てにより、モデル(オンライン サービング)の割り当て上限をリージョンごとの最大許容値まで引き上げます。この方法では、割り当てによってお客様が実行できる秒間クエリ数(QPS)を制限するのではなく、Servo ステーション(マルチリージョン)で実行されるすべてのクエリの共有容量によってお客様の QPS を制限します。動的共有割り当ては、従量課金制のオンライン サービングにのみ適用されます。一貫性や予測可能性の高いサービスレベル(SLA を含む)を必要とするお客様には、Provisioned Throughput をご用意しています。

  • 重要な理由: Google Cloud では、従量課金制のお客様の処理中のすべてのクエリ間でオンデマンド容量を動的に分配することで、割り当て増加リクエスト(QIR)を送信する必要がなくなりました。お客様は引き続き、コンシューマー割り当てオーバーライドという割り当てをご自身で設定することで、費用を管理し、予算超過を防止できます。

  • 開始方法: こちらのドキュメントで詳細をご確認ください。

Provisioned Throughput の一般提供開始

  • 概要: Provisioned Throughput では、1.5 Flash などの Google の自社モデルの使用量をお客様が責任を持ってスケールできるため、容量と料金の両方が保証されます。

  • 重要な理由: この Vertex AI の機能により、お客様の本番環境ワークロードの予測可能性と信頼性が確保され、生成 AI ワークロードを積極的にスケールするために必要な保証が与えられます。また、セルフサービスのフローにより、Provisioned Throughput の設定がこれまで以上に簡単になりました。コンソールから Google の自社基盤モデルを使用するニーズを試算して Provisioned Throughput を購入できるようになったことで、利用可能な容量に応じて事前承認された注文を行うのにかかる時間がエンドツーエンドで数週間から数分に短縮され、手動で注文フォームに入力する必要がなくなりました。

  • 開始方法: こちらの手順に沿って Provisioned Throughput サブスクリプションを購入してください。

保存データのデータ所在地保証の対象国の追加

  • 概要: Google は、23 か国(うち 13 か国は 2024 年に追加)で保存データのデータ所在地を保証しており、関連する ML 処理を米国と EU に限定する追加保証も行っています。また、ML 処理に関するコミットメントをさらに 8 か国に拡大するよう取り組んでおり、2024 年にはまず 4 か国を追加する予定です。

  • 重要な理由: 特に規制の厳しい業界において、お客様は、生成 AI 機能を使用する際に、データの保存と処理が行われる場所を管理できるようにすることを求めています。

  • 開始方法: こちらのページで詳細をご確認ください。

すべての最新リリースを把握するには、Vertex AI のリリースノートをご確認ください。

これらの機能強化はすべて、お客様からのご要望に直接お応えしたものです。Google は、エンタープライズ AI プラットフォームが本番環境における成功の鍵であると考えており、最適なプラットフォームの構築だけでなく、エンタープライズ規模の AI を利用しやすくする AI エコシステムの提供を目指しています。

Vertex AI の活用方法に関する詳細にご関心がある方は、Google までお問い合わせください。無料相談サービスをご利用いただけます。

ー Cloud AI、プロダクト管理シニア ディレクター Warren Barkley

ー 技術ストーリーテリング責任者 Stephanie Wong

投稿先