-
アノテーション セット
- アノテーション セットには、データセット内でアップロードされたソースファイルに関連付けられたラベルが含まれます。アノテーション セットは、データ型と目標(動画や分類など)の両方に関連付けられます。
-
API エンドポイント
- API エンドポイントは、ネットワーク アドレスを指定するサービス構成要素であり、サービス エンドポイントとも呼ばれます(例: aiplatform.googleapis.com)。
-
アプリケーションのデフォルト認証情報(ADC)
- アプリケーションのデフォルト認証情報(ADC)を使用すると、Google API の呼び出しに使われる認証情報を簡単に取得できます。これはユーザーに関係なく、アプリケーションで API を呼び出す際に同じ ID と認証レベルを使用する必要があるケースに最適です。これは Google Cloud APIs の呼び出しを認証する際の推奨アプローチで、Google App Engine(GAE)または Compute Engine の仮想マシンにデプロイされるアプリケーションをビルドしている場合には特に推奨されます。詳細については、アプリケーションのデフォルト認証情報の仕組みをご覧ください。
-
近似最近傍探索(ANN)
- 近似最近傍探索(ANN)サービスは、大規模なコーパスで類似したベクトル(より具体的には「エンべディング」)を見つけるための大規模で低レイテンシのソリューションです。詳細については、セマンティック マッチングにベクトル検索を使用する方法をご覧ください。
-
アーティファクト
- アーティファクトは、ML ワークフローによって生成、使用される個別のエンティティまたはデータです。アーティファクトの例としては、データセット、モデル、入力ファイル、トレーニング ログなどがあります。
-
Artifact Registry
- Artifact Registry は、汎用的なアーティファクト管理サービスです。これは、Google Cloud でコンテナやその他のアーティファクトを管理する場合に推奨されるサービスです。詳細については、Artifact Registry をご覧ください。
-
人工知能(AI)
- AI とは、「知的」な特徴が観察されるマシンの研究と設計です。つまり、機械的な動き、推論、問題解決など、人間や知的機能を模倣するマシンのことです。AI の最も一般的な分野の一つが ML です。ML では、統計的かつデータドリブンなアプローチを使用して AI を作成します。ただし、この 2 つの用語を同じ意味で使用する人もいます。
-
認証
- 保護されたシステムにアクセスするために、クライアント(ユーザーまたは別のプロセス)の ID を確認するプロセス。身元を証明したクライアントは、認証済みであるとみなされます。詳しくは、Google での認証方法をご覧ください。
-
Automatic side-by-side(AutoSxS)
- Automatic side-by-side(AutoSxS)は、2 つの大規模言語モデル(LLM)を並べて比較するモデル支援型評価ツールです。Vertex AI Model Registry 内の生成 AI モデルや事前生成された推論のパフォーマンスを評価できます。AutoSxS は自動評価を使用して、プロンプトに対して優れた回答をしたモデルを決定します。AutoSxS はオンデマンドでの利用が可能で、人間の評価者に匹敵するパフォーマンスで言語モデルを評価します。
-
AutoML
- ブラック ボックス最適化を通じて「学習方法を学習する」ML アルゴリズム。詳細については、ML 用語集をご覧ください。
-
自動ロギング
- 自動ロギングは、明示的なコードのインストルメンテーションを必要とせずに、モデル トレーニング プロセス中に主要な指標、パラメータ、アーティファクトを自動的にロギングする ML プラットフォームとライブラリの機能です。ハイパーパラメータ、評価指標(精度、損失など)、モデル チェックポイントなどの情報を自動的にキャプチャすることで、テスト追跡を効率化し、デベロッパーがテストを簡単に比較して再現できるようにします。
-
自動評価
- 自動評価は、元の推論プロンプトを踏まえてモデル レスポンスの品質を評価する言語モデルです。これは、AutoSxS パイプラインで 2 つのモデルの推論を比較し、どちらのモデルがより高いパフォーマンスを発揮するかを判定するのに使用されます。詳細については、自動評価をご覧ください。
-
自動スケーリング
- 自動スケーリングは、Ray クラスタのワーカープールなどのコンピューティング リソースが、ワークロードの需要に基づいてノード数を自動的に増減し、リソース使用率と費用を最適化する機能です。詳細については、Vertex AI で Ray クラスタをスケーリングする: 自動スケーリングをご覧ください。
-
ベースライン
- 別のモデル(通常はより複雑なモデル)のパフォーマンスを比較評価するための基準点として使用されるモデル。たとえば、ロジスティック回帰モデルは、ディープ ラーニング モデルの優れたベースラインとして機能します。特定の問題に関して、ベースラインは、新しいモデルが有用であるために新しいモデルが達成する必要があるパフォーマンスの最小期待値をモデル デベロッパーが定量化するのに役立ちます。詳細については、ベースライン データセットとターゲット データセットをご覧ください。
-
バッチ
- 1 回のトレーニング イテレーションで使用されるサンプルのセット。バッチサイズは、バッチ内のサンプル数を決定します。
-
バッチサイズ
- バッチ内のサンプルの数。たとえば、SGD のバッチサイズは 1 ですが、ミニバッチのバッチサイズは通常 10~1,000 です。トレーニングと推論中には、バッチサイズは通常固定されますが、TensorFlow ではバッチサイズを動的に設定できます。
-
バッチ推論
- バッチ推論は、推論リクエストのグループを受け取り、結果を 1 つのファイルに出力します。詳細については、Vertex AI での推論の取得の概要をご覧ください。
-
バイアス
- 1. 特定のこと、人、グループに対する固定観念、偏見、またはえこひいき。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーがシステムを操作する方法に影響する可能性があります。2. サンプリングや報告の手順で体系的に生じたエラー。
-
双方向
- 対象のテキスト セクションの前後にあるテキストの両方を評価するシステムを表す用語。一方、単方向のシステムは、対象のテキスト セクションの前にあるテキストのみを評価します。
-
Bidirectional Encoder Representations from Transformers(BERT)
- BERT は言語表現の事前トレーニングの方法です。つまり、大規模なテキスト コーパス(ウィキペディアなど)で汎用の「言語理解」モデルをトレーニングし、そのモデルを関心のあるダウンストリーム NLP タスク(質問応答など)に使用します。BERT は、NLP の事前トレーニング用の初の双方向型教師なし深層学習システムであることから、従来の方法よりも優れています。
-
BigQuery
- BigQuery は、Google Cloud が提供するフルマネージド型でサーバーレスの、スケーラビリティに優れた企業向けデータ ウェアハウスです。SQL クエリを使用して大規模なデータセットを非常に高速で分析できるように設計されています。BigQuery を使用すると、ユーザーはインフラストラクチャを管理することなく、強力なビジネス インテリジェンスと分析を実現できます。詳細については、データ ウェアハウスから自律型データと AI Platform へをご覧ください。
-
BigQuery ML
- BigQuery ML は、Google Cloud の BigQuery データ ウェアハウス内の機能です。データ アナリストやデータ サイエンティストは、標準 SQL クエリを使用して、BigQuery 内で直接 ML モデルを作成、トレーニング、デプロイできます。これにより、データを個別の ML プラットフォームに移動する必要がなくなり、ML ワークフローが簡素化され、SQL ユーザーが ML にアクセスしやすくなります。詳細については、BigQuery ML で ML モデルを作成するをご覧ください。
-
Bigtable
- フルマネージドの NoSQL データベース サービス。Vertex AI を使用する場合のトレーニング データのストレージ オプションとしても推奨されます。詳細については、Bigtable の概要をご覧ください。
-
Bilingual Evaluation Understudy(BLEU)
- 機械翻訳アルゴリズムの出力を 1 つ以上の人間による翻訳と比較して、その品質を評価するための一般的な指標です。
-
境界ボックス
- 動画フレーム内のオブジェクトの境界ボックスは 2 つの形式、つまり(i)長方形の対角線上の点の場合、x 座標と y 座標のセットで構成される 2 つの頂点を使用する形式(x_relative_min、y_relative_min、x_relative_max、y_relative_max など)か(ii)4 つの頂点すべてを使用する形式のいずれかで指定できます。詳細については、動画データを準備するをご覧ください。
-
バケット
- Cloud Storage の最上位フォルダ。バケット名は、Cloud Storage のすべてのユーザー間で一意である必要があります。バケットにはファイルが保存されます。詳細については、Cloud Storage のプロダクトの概要をご覧ください。
-
チャット
- ML システム(通常は大規模言語モデル)とのやり取りの内容。チャットでの以前のやり取り(入力した内容と大規模言語モデルの回答)が、チャットの後続部分のコンテキストになります。chatbot は大規模言語モデルのアプリケーションです。
-
checkpoint
- トレーニング中またはトレーニング完了後にモデルのパラメータの状態をキャプチャするデータ。たとえば、トレーニング中に、次のことが可能です。1. トレーニングを停止します。これは、意図的に行う場合もあれば、特定のエラーの結果としてそうなる場合もあります。2. チェックポイントをキャプチャします。3. 後で、別のハードウェアでチェックポイントを再読み込みします。4. トレーニングを再開します。Gemini では、チェックポイントは特定のデータセットでトレーニングされた Gemini モデルの特定のバージョンを指します。
-
分類モデル
- 推論がクラスであるモデル。たとえば、次のモデルはすべて分類モデルです。入力文の言語を予測するモデル(フランス語か、スペイン語か、イタリア語か、など)。樹木の種類を予測するモデル(メープルか、オークか、バオバブか、など)。特定の病状について、陽性クラスか陰性クラスかを予測するモデル。
-
分類指標
- Vertex AI SDK for Python でサポートされている分類指標は、混同行列と ROC 曲線です。
-
Cloud Logging
- Cloud Logging は、Google Cloud が提供するフルマネージド型のリアルタイム ロギング サービスです。このサービスを使用すると、すべての Google Cloud リソース、オンプレミス アプリケーション、カスタムソースからログを収集、保存、分析、モニタリングできます。Cloud Logging はログ管理を一元化するため、アプリケーションとインフラストラクチャの動作と健全性のトラブルシューティング、監査、把握が容易になります。詳細については、Cloud Logging の概要をご覧ください。
-
Cloud Monitoring
- Cloud Monitoring は、Google Cloud が提供する包括的なオブザーバビリティ プラットフォームです。Google Cloud サービス、オンプレミス インフラストラクチャ、アプリケーション コンポーネントから指標、ログ、イベントを収集して可視化します。これにより、ユーザーはシステムのパフォーマンス、可用性、全体的な健全性に関する分析情報を取得し、問題の事前検出、トラブルシューティング、アラートを行うことができます。詳細については、Vertex AI の Cloud Monitoring 指標をご覧ください。
-
Cloud NAT(Cloud Network Address Translation)
- Cloud NAT(ネットワーク アドレス変換)は、外部 IP アドレスを持たない仮想マシン インスタンスやその他のリソースをインターネットに接続できるようにする、フルマネージドの Google Cloud サービスです。詳細については、Cloud NAT のドキュメントをご覧ください。
-
Cloud Profiler
- Cloud Profiler は、Google Cloud が提供する継続的なプロファイリング サービスです。このサービスを使用すると、アプリケーションの CPU とメモリの消費量や、その他のリソース使用量(ヒープ、経過時間、競合など)を特定して分析できます。本番環境のアプリケーションからプロファイリング データを自動的に収集してオーバーヘッドを最小限に抑えることで、さまざまなサービスにわたるパフォーマンスのボトルネックを可視化して把握し、コードを最適化して効率を高め、コストを削減できます。詳細については、Cloud Profiler の概要をご覧ください。
-
Cloud Router
- Cloud Router は、Border Gateway Protocol(BGP)のスピーカー機能とレスポンダー機能を提供する、分散型のフルマネージド サービスです。Cloud Router は、Cloud Interconnect、Cloud VPN、Cloud NAT、Router アプライアンスと連携して、BGP で受信したルートやカスタム学習ルートに基づいて VPC ネットワークに動的ルートを作成します。詳細については、Cloud Router のコンセプトの概要をご覧ください。
-
Cloud Storage
- Google Cloud のスケーラブルで安全なオブジェクト ストレージ サービス。Vertex AI でトレーニングと検証に使用される大規模なデータセットを保存して、最適なパフォーマンスを実現する場合におすすめします。詳細については、Cloud Storage のドキュメントをご覧ください。
-
Cloud Storage Fuse
- オープンソースの FUSE アダプタ。これにより、Linux または macOS システムに Cloud Storage バケットをファイル システムとしてマウントできます。詳細については、Cloud Storage Fuse をご覧ください。
-
Cloud TPU
- Google Cloud での ML ワークロードの高速化を目的として設計された特殊なハードウェア アクセラレータ。
-
Colab Enterprise
- Colab Enterprise は、コラボレーション指向のマネージド Jupyter ノートブック環境です。Google Colab の広く利用されているユーザー エクスペリエンスを Google Cloud に提供し、エンタープライズ レベルのセキュリティ機能とコンプライアンス機能を提供します。Colab Enterprise は、ノートブック主導型で構成は不要です。コンピューティング リソースは Vertex AI によって管理され、BigQuery などの他の Google Cloud サービスと統合されています。詳細については、Colab Enterprise の概要をご覧ください。
-
コンシューマー VPC
- コンシューマーの Virtual Private Cloud(VPC)ネットワークは、VPC ネットワーク内からマネージド サービスへのプライベート アクセスに使用されます。詳細については、Private Service Connect をご覧ください。
-
コンテナ イメージ
- コンテナ イメージとは、コンポーネントの実行可能コードと、コードが実行される環境の定義が含まれるパッケージのことです。詳細については、カスタム トレーニングの概要をご覧ください。
-
コンテキスト
- コンテキストは、アーティファクトと実行を単一のクエリ可能なタイプ付きカテゴリにグループ化するために使用されます。コンテキストを使用してメタデータのセットを表すことができます。コンテキストの例としては、機械学習パイプラインの実行があります。
-
コンテキスト キャッシュ
- Vertex AI のコンテキスト キャッシュは、Gemini モデルへの複数のリクエストで使用できる大量のデータです。キャッシュに保存されたコンテンツは、キャッシュの作成をリクエストしたリージョンに保存されます。テキスト、音声、動画など、Gemini マルチモーダル モデルでサポートされている任意の MIME タイプを使用できます。詳細については、コンテキスト キャッシュ保存の概要をご覧ください。
-
コンテキスト ウィンドウ
- モデルが特定のプロンプトで処理できるトークン数。コンテキスト ウィンドウが大きいほど、モデルはより多くの情報を使用して、プロンプトに明解で一貫性のある回答を提供できます。
-
顧客管理の暗号鍵(CMEK)
- 顧客管理の暗号鍵(CMEK)は、お客様が Cloud KMS(別名 Storky)で管理する鍵を使用して既存の Google サービスのデータを暗号化できるようにするインテグレーションです。Cloud KMS の鍵は、データを保護する鍵暗号鍵です。詳細については、顧客管理の暗号鍵(CMEK)をご覧ください。
-
コンシューマー VPC ネットワーク
- コンシューマー VPC ネットワークは、別の VPC(プロデューサー VPC)でホストされているサービスにプライベートにアクセスする Google Cloud Virtual Private Cloud(VPC)です。詳細については、Private Service Connect をご覧ください。
-
CustomJob
- CustomJob は、Vertex AI でカスタムモデルをトレーニングするためにユーザーが作成できる 3 つの Vertex AI リソースの一つです。カスタム トレーニング ジョブは、Vertex AI でカスタム ML トレーニング コードを実行するための基本的な方法です。詳細については、カスタム トレーニング ジョブを作成するをご覧ください。
-
カスタム コンテナ イメージ
- カスタム コンテナ イメージは、ユーザーのアプリケーション コード、そのランタイム、ライブラリ、依存関係、環境構成を含む自己完結型の実行可能パッケージです。Google Cloud、特に Vertex AI のコンテキストでは、ユーザーは ML トレーニング コードまたはサービング アプリケーションを正確な依存関係とともにパッケージ化できます。これにより、再現性が確保され、ユーザーは標準環境で提供されていない特定のソフトウェア バージョンや独自の構成を使用して、マネージド サービスでワークロードを実行できます。詳細については、推論用のカスタム コンテナの要件をご覧ください。
-
カスタム トレーニング
- Vertex AI カスタム トレーニングは、Google Cloud インフラストラクチャで独自のカスタム トレーニング アプリケーション(スクリプトまたはコンテナ)を実行できる柔軟なサービスです。これにより、マシンタイプとスケーリングを制御できます。詳細については、カスタム トレーニングの概要をご覧ください。
-
Dask
- Dask は分散コンピューティング プラットフォームであり、TensorFlow、Pytorch、その他の ML フレームワークで分散トレーニング ジョブの管理によく使用されます。詳細については、Wikipedia をご覧ください。
-
データ分析
- サンプル、測定、可視化を考慮したデータの理解。データ分析は特に、最初のモデルを構築する前に、データセットを初めて受け取ったときに役立ちます。また、テストの理解やシステムの問題のデバッグにも不可欠です。
-
データの拡張
- 既存のサンプルを変換して追加のサンプルを作成することにより、トレーニング サンプルの範囲と数を人為的に増やすこと。たとえば、画像が特徴の 1 つであるのに、データセットにはモデルが有用な関連性を学習するのに十分な画像サンプルが含まれていないとします。理想的なのは、モデルを適切にトレーニングできるように、データセットにラベル付けされた画像を十分に追加することです。それが不可能な場合は、データ拡張によって各画像を回転、伸縮、反射して元の画像の多くのバリエーションを生成し、優れたトレーニングを可能にする十分なラベル付きデータを得ることができます。
-
データセンター GPU マネージャー(DCGM)
- データセンター環境で NVIDIA GPU を管理およびモニタリングするための NVIDIA のツールセット。詳細については、NVIDIA Data Center GPU Manager(DCGM)をご覧ください。
-
DataFrame
- メモリ内のデータセットを表す一般的な Pandas データ型。DataFrame は、テーブルやスプレッドシートに似ています。DataFrame の各列には名前(ヘッダー)があり、各行は一意の数値で識別されます。DataFrame の各列は 2 次元配列のように構造化されていますが、各列に独自のデータ型を割り当てられる点が特徴です。
-
データセット
- データセットは、おおまかに構造化データレコード群または非構造化データレコード群と定義されています。通常は(ただし限定されない)スプレッドシートまたは CSV(カンマ区切り値)形式のファイルのいずれかの形式で整理された、未加工データのコレクションです。詳細については、データセットの作成をご覧ください。
-
デコーダ
- 一般に、処理済み、密、内部の表現から、より未加工な、疎、外部の表現に変換する ML システム。デコーダは多くの場合、大規模なモデルのコンポーネントであり、エンコーダと対になっています。sequence-to-sequence(Seq2Seq)タスクでは、デコーダはエンコーダによって生成された内部状態から開始して、次のシーケンスを予測します。
-
ディープ ニューラル ネットワーク(DNN)
- 隠れ層が複数あるニューラル ネットワークで、通常はディープラーニング手法でプログラムされます。
-
depth
- ニューラル ネットワーク内の次の合計: 1. 隠れ層の数 2. 出力層の数(通常は 1)3. 埋め込み層の数。たとえば、隠れ層が 5 つ、出力層が 1 つのニューラル ネットワークの depth は 6 です。入力層は depth に影響しないことに注意してください。
-
DevOps
- DevOps は Artifact Registry、Cloud Deploy などの Google Cloud Platform プロダクトのスイートです。
-
早期停止
- トレーニングの損失が減少を終える前にトレーニングを終了する正則化の手法。早期停止では、検証データセットの損失が上昇し始めたとき、つまり汎化性能が低下したときに、モデルのトレーニングを意図的に停止します。
-
エンベディング
- 単語やテキストの断片の数値表現。これらの数値は、テキストの意味論的意味とコンテキストを表しています。類似または関連する単語やテキストは、エンベディングが類似する傾向があります。つまり、高次元ベクトル空間内で近接します。
-
エンベディング空間(潜在空間)
- 生成 AI では、エンベディング空間とは、入力間の関係性を捉えたテキスト、画像、動画の数値表現を指します。ML モデル(特に生成 AI モデル)は、大規模なデータセット内のパターンを識別してこうしたエンベディングを作成することに長けています。アプリケーションでは、エンベディングを使用して言語を処理および生成し、コンテンツに固有の複雑な意味とセマンティックな関係を認識できます。
-
エンベディング ベクトル
- アイテムの密ベクトル表現(多くの場合、低次元)。2 つのアイテムが意味的に類似している場合、それらのエンベディングはエンベディング ベクトル空間内で互いに近接した場所に配置されます。
-
エンコーダ
- 一般に、未加工な、疎、外部の表現から、より加工された、密、内部の表現に変換する ML システム。エンコーダは、多くの場合、大規模なモデルのコンポーネントであり、デコーダと対になっています。変換ツールにはエンコーダとデコーダを対で使用するものと、エンコーダまたはデコーダのみを単独で使用するものがあります。一部のシステムでは、エンコーダの出力を分類ネットワークや回帰ネットワークへの入力として使用します。sequence-to-sequence(Seq2Seq)タスクでは、エンコーダは入力シーケンスを受け取り、内部状態(ベクトル)を返します。デコーダは、その内部状態を使用して次のシーケンスを予測します。
-
エンドポイント
- 推論を行うためにトレーニング済みモデルをデプロイできるリソース。詳細については、エンドポイント タイプを選択するをご覧ください。
-
アンサンブル
- 個別にトレーニングされたモデルのコレクション。ここでの推論は平均化または集約されています。多くの場合、アンサンブルは単一モデルよりも優れた推論結果をもたらします。たとえば、ランダム フォレストは、複数のディシジョン ツリーから構築されたアンサンブルです。複数のディシジョン ツリーで構成されるモデルがすべてアンサンブルだとは限らないことに注意してください。
-
environment
- 強化学習では、エージェントを含む世界であり、エージェントがその世界の状態を観察できるようになっているものです。たとえば、表現された世界は、チェスのようなゲームや、迷路のような物理的な世界などです。エージェントが環境にアクションを適用すると、環境は状態間を遷移します。
-
評価
- 評価は、ログに記録されたクエリまたは合成クエリを 2 つの検索スタック(変更を含む実験的スタックと変更を含まないベーススタック)に送信するテストの一種です。差分と指標が生成され、これにより、検索結果や Google のユーザー エクスペリエンスの他の部分に対する変更の影響や品質、さまざまな効果などを評価できます。評価は、変更のチューニング(反復処理)中に使用されます。また、ライブ ユーザー トラフィックへの変更をリリースする際にも使用されます。
-
イベント
- イベントは、アーティファクトと実行の関係を記述します。各アーティファクトは 1 つの実行によって生成され、他の実行で使用されることもあります。イベントは、アーティファクトと実行を連結することで、ML ワークフローでアーティファクトの出所を特定するのに役立ちます。
-
実行
- 実行とは、個々の ML ワークフロー ステップのレコードで、通常はランタイムのパラメータでアノテーションが付けられています。実行の例としては、データの取り込み、データの検証、モデルのトレーニング、モデルの評価、モデルのデプロイなどがあります。
-
テスト
- テストは、ユーザーが入力アーティファクトやハイパーパラメータなどのさまざまな構成をグループとして調査できるパイプライン実行に加えて、一連の n 個のテスト実行を格納できるコンテキストです。
-
テスト実行
- Vertex AI Experiments 内の特定の追跡可能な実行。入力(アルゴリズム、パラメータ、データセットなど)と出力(モデル、チェックポイント、指標など)をロギングし、ML 開発のイテレーションをモニタリングして比較します。詳細については、テスト実行を作成して管理するをご覧ください。
-
Explainable AI
- ML モデルによって行われた推論を理解して解釈するためのツールと機能を提供する Vertex AI の機能。特徴の重要度とモデルの動作に関する分析情報を提供します。詳細については、Vertex Explainable AI の概要をご覧ください。
-
探索的データ分析
- 統計における探索的データ分析(EDA)とは、データセットを分析して主な特性を要約するためのアプローチであり、多くの場合視覚的な方法を使います。統計モデルは使用しても、しなくても問題ありませんが、EDA は主に、正式なモデリングまたは仮説テストタスク以外にデータで何がわかるかを確認するためのものです。
-
F1 スコア
- F1 スコアは、モデルの出力の精度を評価するために使用される指標です。これは、情報抽出など、適合率と再現率の両方が重要なタスクでのモデルのパフォーマンスを評価する場合に特に役立ちます。生成 AI モデルの場合、モデルの推論と実際のデータを比較し、モデルの精度を判断することに F1 スコアを使用できます。ただし、要約やテキスト生成などの生成タスクの場合は、Rough-L スコアなどの他の指標が適している場合があります。
-
特徴
- ML において、特徴とは、ML モデルのトレーニングや推論の入力として使用されるインスタンスまたはエンティティの特性(属性)のことです。
-
特徴量エンジニアリング
- 特徴量エンジニアリングとは、ML の元データを ML モデルのトレーニングや推論に使用できる特徴量に変換するプロセスです。
-
特徴グループ
- 特徴グループは、BigQuery のソーステーブルまたは特徴データを含むビューに対応する特徴レジストリ リソースです。特徴ビューには特徴が含まれることがあり、データソース内の特徴列の論理グループと考えることができます。
-
特徴レコード
- 特徴レコードは、特定の時点での一意のエンティティの属性を表すすべての特徴値を集約したものです。
-
特徴レジストリ
- 特徴レジストリは、オンライン推論に使用する特徴データソースを記録するための中心的なインターフェースです。詳細については、特徴レジストリの設定をご覧ください。
-
特徴のサービング
- 特徴のサービングは、トレーニングまたは推論のために保存されている特徴値をエクスポートまたは取得するプロセスです。Vertex AI には、オンライン サービングとオフライン サービングの 2 種類の特徴のサービングがあります。オンライン サービングでは、オンライン推論用に特徴データソースのサブセットの最新の特徴値を取得します。オフラインまたはバッチ サービングでは、ML モデルのトレーニングなどのオフライン処理用に大量の特徴データ(履歴データを含む)をエクスポートします。
-
特徴のタイムスタンプ
- 特徴のタイムスタンプは、エンティティの特定の特徴レコードから特徴値のセットが生成された時刻を示します。
-
特徴値
- 特徴値は、インスタンスまたはエンティティの特徴(属性)の実際の測定可能な値に対応します。一意のエンティティの特徴値のコレクションが、エンティティに対応する特徴レコードを表します。
-
特徴ビュー
- 特徴ビューは、BigQuery データソースからオンライン ストア インスタンスに具体化された特徴の論理的なコレクションです。特徴ビューは、顧客の特徴データを保存し、定期的に更新します。この特徴データは、BigQuery ソースから定期的に更新されます。特徴ビューは、直接、または特徴レジストリ リソースとの関連付けを通じて特徴データ ストレージに関連付けられます。
-
Filestore
- Google Cloud のフルマネージド型の高性能ファイル ストレージ サービス。共有ファイル システムを必要とするアプリケーションでよく使用されます。詳細については、Filestore の概要をご覧ください。
-
基盤モデル(FM)
- 幅広いデータでトレーニングされ、幅広い下流タスクに(ファイン チューニングなどによって)適応可能なモデル。
-
基盤モデル運用(FMOps)
- FMOps は MLOps の機能を拡張し、事前トレーニング済み(ゼロからトレーニング)またはカスタマイズ済み(ファインチューニング済み)の FM を効率的に本番環境に導入することに重点を置いています。
-
Google Cloud パイプライン コンポーネント SDK
- Google Cloud パイプライン コンポーネント(GCPC)SDK には、本番環境の品質、パフォーマンス、使いやすさを備えた一連のビルド済み Kubeflow パイプライン コンポーネントが備わっています。Google Cloud パイプライン コンポーネントを使用して、Kubeflow Pipelines を遵守する Vertex AI Pipelines やその他の ML パイプライン実行バックエンドで ML パイプラインを定義して実行できます。詳細については、Google Cloud Pipeline コンポーネントの概要をご覧ください。
-
Compute Engine
- Compute Engine は Google Cloud Platform のコンポーネントであり、ユーザーが Google のインフラストラクチャで仮想マシンを実行できる Infrastructure as a Service(IaaS)サービスです。詳細については、Compute Engine の概要をご覧ください。
-
Compute Engine インスタンス
- Compute Engine インスタンスは、Google のインフラストラクチャで実行される仮想マシン(VM)です。仕様を選択し、アプリケーションを実行して、インターネット経由で接続できますが、物理ハードウェアを管理する必要はありません。詳細については、あらゆるワークロードに対応する仮想マシンをご覧ください。
-
Google Embedded Modem System(GEMS)
- GEMS は、モデムを対象とした組み込みソフトウェア フレームワークと、それに付随する一連の開発ワークフローおよびインフラストラクチャです。GEMS のコア ビジョンは、モデムを内蔵する多くの Google デバイス間での高い再利用性を備えた高品質なモデム システム コードを提供することです。この幅広いビジョンを実現するため、GEMS は、以下に示す主要な構成要素から成る包括的な環境をデベロッパーに提供します。
-
勾配
- すべての独立変数に対する偏微分の導関数のベクトル。ML では、勾配はモデル関数の偏導関数のベクトルです。勾配は最も急な上昇方向を指し示しています。
-
グラフ
- Vertex AI のコンテキストでは、グラフとはエンティティとその属性間の関係を表すデータ構造を指します。ナレッジグラフ、ソーシャル ネットワーク、ビジネス プロセスなどの複雑なデータをモデル化して分析するために使用されます。続きは、Vertex ML Metadata の概要をご覧ください。
-
正解(グラウンド トゥルース: GT)
- グラウンド トゥルースは、システムの推定値とは対照的に、なんらかの決定や測定の問題における絶対的な真実を指すものとしてさまざまな分野で使用される用語です。ML では、「グラウンド トゥルース」という用語は、教師あり学習手法のトレーニング セットを指します。
-
ヒューリスティック
- 問題に対してシンプルかつ迅速に実行できる解決策。例:「ヒューリスティクスでは 86% の精度を達成しました。ディープ ニューラル ネットワークに切り替えると、精度は 98% に向上しました」
-
隠れ層
- 入力層(特徴)と出力層(推論)の間にあるニューラル ネットワークの層。各隠れ層は 1 つ以上のニューロンで構成されます。ディープ ニューラル ネットワークには複数の隠れ層が含まれています。
-
ヒストグラム
- 一連のデータの変化を棒グラフで表したものです。ヒストグラムでは、単純な数値表では検出が困難なパターンを可視化できます。
-
ハイパーパラメータ
- ハイパーパラメータとは、ML モデルのトレーニング プロセスを管理する変数を指します。これらの変数には、学習率、最適化ツールのモーメンタム値、モデルの最終隠れ層のユニット数などがあります。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
-
ハイパーパラメータ チューニング
- Vertex AI のハイパーパラメータ チューニングでは、選択した各ハイパーパラメータの値を指定された制限内で変更し、トレーニング アプリケーションのトライアルを複数回実行します。ハイパーパラメータ設定を最適化して、モデルの予測精度を最大化することが目標です。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
-
Identity and Access Management(IAM)権限
- Identity and Access Management(IAM)権限は、どの Google Cloud リソースに対して、どのユーザーがどのような操作を実行できるかを定義する、特定のきめ細かい機能です。権限はロールを通じてプリンシパル(ユーザー、グループ、サービス アカウントなど)に割り当てられ、Google Cloud プロジェクトまたは組織内のサービスとデータへのアクセスを正確に制御できます。詳しくは、IAM によるアクセス制御をご覧ください。
-
画像認識
- 画像認識とは、画像内のオブジェクト、パターン、コンセプトを分類するプロセスです。これは画像分類とも呼ばれます。画像認識は、ML およびコンピュータ ビジョンのサブフィールドです。
-
インデックス
- 類似度検索でまとめてデプロイされるベクトルの集合。ベクトルはインデックスに追加することも、インデックスから削除することもできます。類似性検索クエリは特定のインデックスに対して発行され、そのインデックス内のベクトルが検索されます。
-
推論
- Vertex AI プラットフォームの文脈では、推論とは、データポイントを ML モデルに入力して、単一の数値スコアなどの出力を計算するプロセスを指します。このプロセスは、「ML モデルの運用」または「本番環境への ML モデルのデプロイ」とも呼ばれます。モデルを使用して新しいデータの推論を行うことができるという点で、推論は、ML ワークフローの重要なステップです。Vertex AI では、バッチ推論やオンライン推論など、さまざまな方法で推論を実行できます。バッチ推論では、推論リクエストのグループを実行して、結果を 1 つのファイルに出力します。一方、オンライン推論では、個々のデータポイントに対してリアルタイムの推論を行えます。
-
情報検索(IR)
- 情報検索(IR)は Vertex AI Search の重要なコンポーネントです。大量のデータから関連情報を検索して取得するプロセスです。Vertex AI の文脈では、IR はユーザーのクエリに基づいてコーパスからドキュメントを取得することに使われます。Vertex AI には、独自の検索拡張生成(RAG)アプリケーションや独自の検索エンジンの構築に役立つ API スイートが用意されています。詳細については、RAG Engine を使用して Vertex AI Search を検索バックエンドとして使用するをご覧ください。
-
Infrastructure as Code(IaC)
- Infrastructure as Code。チームがコードを通じてサービスを管理およびプロビジョニングできる IT インフラストラクチャを管理するアプローチ。IaC では、インフラストラクチャの仕様を含む構成ファイルが作成されるため、大規模なインフラストラクチャの作成と編集が容易になります。
-
Infrastructure as Code(IaC)
- Infrastructure as Code。チームがコードを通じてサービスを管理およびプロビジョニングできる IT インフラストラクチャを管理するアプローチ。IaC では、インフラストラクチャの仕様を含む構成ファイルが作成されるため、大規模なインフラストラクチャの作成と編集が容易になります。
-
IP アドレスの枯渇
- IP アドレスの枯渇は、指定された範囲内の使用可能な IP アドレスが枯渇したときに発生します。詳細については、Cloud Run ネットワーキングのベスト プラクティスをご覧ください。
-
場所
- ロケーションは、クラウド リソースがホストされている世界の物理的な場所です。このコンセプトは、リージョンとゾーンの 2 つの主要部分に分類されます。詳細については、リージョンとゾーンをご覧ください。
-
損失(コスト)
- 教師ありモデルのトレーニングで、モデルの推論がラベルからどのくらい離れているかを表す指標。損失関数では損失が計算されます。
-
ML Metadata
- ML Metadata(MLMD)は、ML デベロッパーとデータ サイエンティストのワークフローに関連するメタデータを記録および取得するためのライブラリです。MLMD は TensorFlow Extended(TFX)の核心部ですが、個別に使用できるように設計されています。ほとんどのユーザーは、より広範な TFX プラットフォームの一部として、ノートブックや TensorBoard などでパイプライン コンポーネントの結果を調べる場合にのみ MLMD を操作します。
-
マネージド データセット
- Vertex AI で作成、ホストされるデータセット オブジェクト。
-
手動ロギング
- Vertex AI Experiments の実行に対するカスタム パラメータ、指標、アーティファクトを追跡してロギングするために、トレーニング スクリプトにコードを明示的に追加するプロセス(Vertex AI SDK for Python を使用するなど)。詳細については、モニタリングとロギングの概要をご覧ください。
-
Managed Lustre
- ハイ パフォーマンス コンピューティング用に設計された並列分散ファイル システム。Google Cloud の Managed Lustre は、要求の厳しいワークロード向けに高スループットのファイル システムを提供します。詳細については、Managed Lustre の概要をご覧ください。
-
手動スケーリング
- 手動スケーリングとは、アプリケーションまたはサービスに割り当てられたコンピューティング リソース(仮想マシン、コンテナ、サーバーなど)の数をユーザーまたは管理者が明示的かつ意図的に調整するプロセスを指します。自動スケーリングでは需要に基づいてリソースが自動的に調整されますが、手動スケーリングでは、リソースのプロビジョニングまたはプロビジョニング解除に直接介入する必要があります。これにより、正確な制御が可能になりますが、自動化されたソリューションの動的な応答性は失われます。詳細については、Vertex AI で Ray クラスタをスケーリングする: 手動スケーリングをご覧ください。
-
手動スケーリング
- 手動スケーリングとは、アプリケーションまたはサービスに割り当てられたコンピューティング リソース(仮想マシン、コンテナ、サーバーなど)の数をユーザーまたは管理者が明示的かつ意図的に調整するプロセスを指します。自動スケーリングでは需要に基づいてリソースが自動的に調整されますが、手動スケーリングでは、リソースのプロビジョニングまたはプロビジョニング解除に直接介入する必要があります。これにより、正確な制御が可能になりますが、自動化されたソリューションの動的な応答性は失われます。詳細については、Vertex AI で Ray クラスタをスケーリングする: 手動スケーリングをご覧ください。
-
最大伝送単位(MTU)
- ネットワーク接続デバイスが送信できるデータ パケットの最大サイズ。MTU サイズ(ジャンボ フレーム)を大きくすると、特定のワークロードのネットワーク パフォーマンスを向上させることができます。詳細については、最大伝送単位をご覧ください。
-
MetadataSchema
- MetadataSchema は、特定のタイプのアーティファクト、実行、コンテキストのスキーマを記述します。MetadataSchemas は、対応するメタデータ リソースの作成時に Key-Value ペアを検証するために使用されます。スキーマの検証は、リソースと MetadataSchema の間で一致するフィールドに対してのみ実行されます。型スキーマは、OpenAPI Schema Objects として表現します。これは、YAML を使用して記述する必要があります。
-
MetadataStore
- MetadataStore は、メタデータ リソースの最上位コンテナです。MetadataStore はリージョン化されており、特定の Google Cloud プロジェクトに関連付けられています。通常、組織では各プロジェクト内のメタデータ リソースに対して 1 つの共有 MetadataStore を使用します。
-
ML パイプライン
- ML パイプラインは移植可能でスケーラブルなコンテナベースの ML ワークフローです。
-
モデル
- 事前トレーニング済みか否かを問わない、あらゆるモデル。一般に、入力データを処理して出力を返す数学的構造を指します。別の言い方をすれば、モデルとは、システムが推論を行うために必要なパラメータと構造のセットです。
-
モデル蒸留(知識蒸留、教師 / 生徒モデル)
- モデル蒸留は、小規模な生徒モデルが大規模な教師モデルから学習できるようにする手法です。教師モデルの出力を模倣するようにトレーニングされた生徒モデルは、新しいデータの生成や推論に使用できます。モデル蒸留は、大規模モデルの効率化や、リソースが限られたデバイスでのアクセスを容易にするためによく使用されます。また、過学習を減らしてモデルの汎化性能を向上させるためにも利用できます。
-
モデルの評価
- Vertex AI Model Evaluation は、Google Cloud の Vertex AI Platform 内のマネージド サービスで、ユーザーによる ML モデルのパフォーマンスと品質の評価に役立ちます。さまざまな評価指標と可視化を生成するツールが用意されているため、モデルのパフォーマンスを把握し、潜在的なバイアスを特定して、モデルのデプロイと改善について十分な情報に基づいた意思決定を行うことができます。詳細については、Vertex AI でのモデル評価をご覧ください。
-
モデルのモニタリング
- Vertex AI Model Monitoring は、予測リクエストの特徴のスキューとドリフトを検出して、デプロイされたモデルのパフォーマンスを継続的に評価するサービスです。これにより、モデルの品質を長期にわたって維持できます。詳細については、Vertex AI Model Monitoring の概要をご覧ください。
-
モデルリソース名
model
のリソース名はprojects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
です。モデルの ID は、Cloud コンソールの [Model Registry] ページで確認できます。
-
ネットワーク ファイル システム(NFS)
- ユーザーがネットワーク経由でファイルにアクセスし、ファイルをローカル ファイル ディレクトリにあるかのように扱えるクライアント / サーバー システム。詳細については、カスタム トレーニング用の NFS 共有をマウントするをご覧ください。
-
NVIDIA Collective Communications Library(NCCL)
- ディープ ラーニング フレームワーク用に最適化された GPU 間通信プリミティブを提供するライブラリ。高性能なマルチ GPU トレーニングを実現します。詳細については、NVIDIA Collective Communications Library(NCCL)をご覧ください。
-
オフライン ストア
- オフライン ストアは、最近と過去の特徴データを保存するストレージ設備で、通常は ML モデルのトレーニングに使用されます。オフライン ストアには最新の特徴値も含まれており、オンライン推論にも使用できます。
-
オンライン推論
- 個々のインスタンスの推論を同期的に取得します。詳細については、オンライン推論をご覧ください。
-
オンライン予測
- 個々のインスタンスの予測を同期的に取得します。詳細については、オンライン予測をご覧ください。
-
オンライン ストア
- 特徴管理において、オンライン ストアはオンライン推論のために提供される最新の特徴値を保存するストレージ設備です。
-
パラメータ
- パラメータは、実行を構成し、実行の動作を調整して、実行の結果に影響を与えるキー付きの入力値です。例としては、学習率、ドロップアウト率、トレーニングの手順の数などがあります。
-
永続リソース
- 明示的に削除されるまで割り当てられて使用可能な状態が維持される Vertex AI コンピューティング リソースのタイプ(Ray クラスタなど)。反復型の開発に役立ち、ジョブ間の起動オーバーヘッドを削減します。詳細については、永続リソース情報を取得するをご覧ください。
-
パイプライン
- ML パイプラインは移植可能でスケーラブルなコンテナベースの ML ワークフローです。 詳細については、Vertex AI Pipelines の概要をご覧ください。
-
パイプライン コンポーネント
- パイプラインのワークフローの 1 つのステップ(データの前処理、データの変換、モデルのトレーニングなど)を実行する自己完結型の一連のコード。
-
パイプライン ジョブ
- パイプライン ジョブやパイプライン実行は、Vertex AI API の PipelineJob リソースに対応しています。これは、ML パイプライン定義の実行インスタンスです。ML パイプライン定義は、入出力の依存関係で相互接続された一連の ML タスクとして定義されます。
-
パイプライン実行
- 1 つのテストに 1 つ以上の Vertex PipelineJob を関連付けることができ、各 PipelineJob は単一の実行として表されます。このコンテキストで、実行のパラメータは PipelineJob のパラメータによって推定されます。指標は、その PipelineJob によって生成された system.Metric アーティファクトから推定されます。実行のアーティファクトは、その PipelineJob によって生成されたアーティファクトから推定されます。
-
パイプライン テンプレート
- 1 人のユーザーまたは複数のユーザーが複数のパイプライン実行を作成するために再利用できる ML ワークフロー定義。
-
陽性クラス
- 「陽性クラス」とは、モデルが予測するようにトレーニングされた結果またはカテゴリを指します。たとえば、モデルが顧客がジャケットを購入するかどうかを予測する場合、陽性クラスは「顧客がジャケットを購入する」です。同様に、定期預金の申し込みを予測するモデルでは、ポジティブ クラスは「顧客が申し込んだ」になります。反対のクラスが「陰性クラス」です。
-
ビルド済みコンテナ
- 一般的な ML フレームワークと依存関係がプリインストールされた Vertex AI 提供のコンテナ イメージ。トレーニング ジョブと推論ジョブの設定が簡素化されます。詳細については、カスタム トレーニング用の事前にビルドされたコンテナをご覧ください。
-
プライベート Google アクセス(PGA)
- 限定公開の Google アクセスを使用すると、内部(プライベート)IP アドレスしか持たない(外部 IP アドレスを持たない)VM インスタンスが、Google API とサービスのパブリック IP アドレスにアクセスできます。 詳細については、プライベート Google アクセスを構成するをご覧ください。
-
プライベート サービス アクセス
- プライベート サービス アクセスは、Virtual Private Cloud(VPC)ネットワークと Google またはサードパーティ サービス プロバイダが所有するネットワークとのプライベート接続です。これにより、VPC ネットワーク内の仮想マシン(VM)インスタンスは、内部 IP アドレスを使用してこれらのサービスと通信できるため、公共のインターネットに公開する必要がなくなります。詳しくは、プライベート サービス アクセスをご覧ください。
-
Private Service Connect(PSC)
- Private Service Connect は、Compute Engine のお客様がネットワーク内のプライベート IP を別の VPC ネットワークまたは Google API にマッピングできるテクノロジーです。詳細については、Private Service Connect をご覧ください。
-
Private Service Connect インターフェース(PSC-I)
- Private Service Connect インターフェースを使用すると、プロデューサーはコンシューマ VPC 内の任意のネットワーク リソースへの接続をプライベートに開始できます。
-
プロデューサー VPC
- プロデューサー VPC は、マネージド サービスをホストし、他の VPC ネットワークで利用できるようにする Virtual Private Cloud(VPC)ネットワークです。
-
量子化
- 量子化は、モデルのパラメータを表すのに使用される数値の精度を落とすために使用されるモデル最適化手法です。これにより、モデルのサイズが小さくなり、消費電力が低下し、推論レイテンシが短縮されます。
-
ランダム フォレスト
- ランダム フォレストは、分類と回帰の両方に使用される ML アルゴリズムです。これは、生成 AI モデル自体ではありませんが、大規模な生成 AI システム内で使用できるコンポーネントです。ランダム フォレストは複数のディシジョン ツリーで構成され、その推論は個々のディシジョン ツリーの推論を集約したものです。たとえば、分類タスクでは、各ツリーがクラスに「投票」し、投票数が最も多いクラスが最終的な推論になります。詳細については、デシジョン フォレストをご覧ください。
-
Ray クライアント API(Ray クライアント)
- Ray クライアントは、ローカルの Python スクリプトまたはインタラクティブ シェル(Jupyter ノートブックなど)がリモートの Ray クラスタに接続して操作できるようにする API です。基本的には、Ray クライアントを使用すると、ユーザーはコードがローカルで実行されているかのように Ray コードを開発して実行できますが、実際にはリモート クラスタの分散コンピューティング能力を活用しています。詳細については、Ray on Vertex AI の概要をご覧ください。
-
Vertex AI の Ray クラスタ
- Vertex AI の Ray クラスタは、分散 ML と Python アプリケーションの実行に使用できるコンピューティング ノードのマネージド クラスタです。ML ワークフローの分散コンピューティングと並列処理を実行するためのインフラストラクチャを提供します。Ray クラスタは、重要な ML ワークロードやピークシーズンに十分な容量を確保するために Vertex AI に組み込まれています。ジョブが完了するとトレーニング サービスからリソースが解放されるカスタムジョブとは異なり、Ray クラスタは削除されるまで使用できます。詳細については、Ray on Vertex AI の概要をご覧ください。
-
Ray on Vertex AI(RoV)
- Ray on Vertex AI は、同じオープンソースの Ray コードを使用して、最小限の変更でプログラムを作成し、Vertex AI でアプリケーションを開発できるように設計されています。詳細については、Ray on Vertex AI の概要をご覧ください。
-
Ray on Vertex AI SDK for Python
- Ray on Vertex AI SDK for Python は、Ray Client、Ray BigQuery コネクタ、Vertex AI での Ray クラスタ管理、Vertex AI での推論の機能が含まれているバージョンの Vertex AI SDK for Python です。詳細については、Vertex AI SDK for Python の概要をご覧ください。
-
再現率
- インデックスによって返された正しい最近傍の割合。たとえば、20 個の最近傍に対する最近傍のクエリで、グラウンド トゥルースの最近傍が 19 個返された場合、再現率は 19÷20×100 = 95% となります。
-
Reduction Server
- Reduction Server は、Vertex AI 内で利用可能な機能またはコンポーネントであり、分散 GPU トレーニングを最適化するように特別に設計されています。Reduction Server は、大規模な ML モデル トレーニングのスループットの向上と、レイテンシの短縮に役立つ all-reduce アルゴリズムとして機能します。詳細については、Reduction Server を使用してトレーニング時間を短縮するをご覧ください。
-
正則化
- 正則化は、ML モデルの過学習を防ぐために使用される手法です。過学習は、モデルがトレーニング データを学習しすぎたために、未知のデータに対するパフォーマンスが低下するときに発生します。前述した、正則化の 1 つのタイプが早期停止です。早期停止では、汎化性能の低下を示す、検証データセットの損失が増加し始める前にトレーニングを停止します。詳細については、過学習: L2 正則化をご覧ください。
-
強化学習(RL)
- エージェントが環境内で行動して累積報酬を最大化することで、意思決定を学習する ML の一種。詳細については、Vertex AI を使用した RLHF のチューニングをご覧ください。
-
制限
- ブール値ルールを使用して、インデックスのサブセットに対する検索を「制限」する機能。制限は「フィルタリング」とも呼ばれます。ベクトル検索では、数値フィルタリングとテキスト属性フィルタリングを使用できます。
-
サービス アカウント
- サービス アカウントは、アプリケーションや仮想マシンが Google Cloud サービスに対して承認済みの API 呼び出しを行うために使用する特別な Google Cloud アカウントです。ユーザー アカウントとは異なり、個々のユーザーに関連付けられていませんが、コードの ID として機能し、ユーザーの認証情報を必要とせずにリソースへの安全なプログラムによるアクセスを可能にします。詳しくは、サービス アカウントの概要をご覧ください。
-
サービス エージェント
- サービス エージェントは、Google が管理するサービス アカウントを指します。これは、サービスが別のサービスによって作成されたリソースにアクセスする必要がある場合に使用されます。たとえば、Dataflow サービスや Dataproc サービスが実行中にインスタンスを作成する必要がある場合や、Cloud Functions が Key Management Service(KMS)を使用して Cloud Functions の保護を行う場合などです。サービス エージェントは、サービスで必要になると Google Cloud によって自動的に作成されます。通常、リソースへのアクセス管理や、サービスに代わってさまざまなタスクを実行するために使用されます。詳細については、サービス エージェントをご覧ください。
-
リソース管理用のシンプルな Linux ユーティリティ(SLURM)
- Slurm は、特にハイ パフォーマンス コンピューティング(HPC)環境で、Linux および Unix 系のカーネル向けに広く使用されている強力なオープンソースのワークロード マネージャーとジョブ スケジューラです。詳細については、Slurm ワークロード マネージャーをご覧ください。
-
サマリー指標
- サマリー指標はテスト実行の各指標キーの単一の値です。たとえば、テストのテスト精度は、トレーニング終了時にテスト データセットに対して計算された精度であり、単一の値のサマリー指標としてキャプチャできます。
-
教師ありファインチューニング(SFT)
- 事前トレーニング済みモデルを小規模なラベル付きデータセットでさらにトレーニングし、特定のタスクに適応させる ML 手法。
-
TensorBoard
- TensorBoard は、TensorFlow の実行とモデルを可視化して理解するための一連のウェブ アプリケーションです。詳細については、TensorBoard をご覧ください。
-
TensorBoard インスタンス
- TensorBoard インスタンスは、プロジェクトに関連付けられた Vertex AI TensorBoard テストを保存するリージョン リソースです。たとえば、CMEK 対応インスタンスを複数希望する場合は、プロジェクトに複数の TensorBoard インスタンスを作成できます。これは、API の TensorBoard リソースと同じです。
-
TensorBoard リソース名
- TensorBoard リソース名は、Vertex AI TensorBoard インスタンスを完全に識別するために使用されます。形式は projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID です。
-
TensorFlow Extended(TFX)
- TensorFlow Extended(TFX)は、TensorFlow プラットフォームに基づいて本番環境 ML パイプラインをデプロイするためのエンドツーエンド プラットフォームです。
-
TensorFlow Serving コンテナ
- 推論用に TensorFlow モデルを効率的に提供するように設計された専用のコンテナ イメージ。Vertex AI Model Monitoring を使用してカスタムの表形式モデルをデプロイするときに使用されます。
-
時間オフセット
- 時間オフセットは、動画の先頭を基準とします。
-
時間セグメント
- 時間セグメントは、開始時間と終了時間のオフセットで識別されます。
-
時系列指標
- 時系列指標は長期的な指標値であり、各値は実行のトレーニング ルーチンの部分の手順を表します。時系列指標は Vertex AI TensorBoard に保存されます。Vertex AI Experiments には、Vertex TensorBoard リソースへの参照が保存されます。
-
トークン
- 言語モデルのトークンは、モデルがトレーニングと推論を行う場合の原子単位、つまり単語、形態素、文字です。言語モデル以外のドメインでは、トークンは他の種類の原子単位を表すことができます。たとえば、コンピュータ ビジョンでは、トークンは画像のサブセットとなる場合があります。 詳細については、トークンの一覧表示とカウントをご覧ください。
-
トレーニング クラスタ
- トレーニング クラスタは、相互接続されたコンピューティング リソース(仮想マシン、GPU、関連するストレージなど)のグループで、ML モデルのトレーニング ワークロードの分散方式での実行専用に特別に構成されています。これらのクラスタは、複雑なモデルを効率的にトレーニングするために必要なコンピューティング能力とスケーラビリティを提供するように設計されており、多くの場合、複数のノードでの並列処理を活用します。詳細については、トレーニング クラスタの構造をご覧ください。
-
トレーニング セット
- Vertex AI では、トレーニング セットは ML モデルのトレーニングに使用されるデータの最大部分(通常は 80%)を占めます。モデルは、このデータ内のパターンと関係を学習して推論を行います。トレーニング セットは、トレーニング中とトレーニング後にモデルのパフォーマンスを評価するために使用される検証セットとテストセットとは異なります。
-
軌跡
- 「軌跡」とは、エージェントまたはモデルがたどった一連のステップまたはアクションを指します。生成モデルの評価でよく使用され、テキスト、コード、その他のコンテンツを生成するモデルの能力が評価されます。生成モデルの評価に使用できる軌跡評価指標には、軌跡の完全一致、軌跡の順序一致、軌跡の順序を問わない一致、軌跡の適合率など、いくつかのタイプがあります。これらの指標では、モデルの出力と人間が生成した参照出力のセットとの類似性が測定されます。
-
Transformer
- 「Transformer」は、ほとんどの最先端の生成モデルの基盤となるニューラル ネットワーク アーキテクチャです。翻訳など、さまざまな言語モデル アプリケーションで使用されています。Transformer はエンコーダとデコーダで構成されています。エンコーダは入力テキストを中間表現に変換し、デコーダはこれを有用な出力に変換します。セルフアテンション機構を使用して、処理対象の単語の周囲の単語からコンテキストを収集します。Transformer のトレーニングには多大なリソースが必要ですが、特定のアプリケーション用に事前トレーニング済みの Transformer をファインチューニングする方が効率的です。
-
真陽性
- 「真陽性」とは、モデルが陽性のクラスを正しく識別した推論を指します。たとえば、ジャケットを購入する顧客を特定するようにモデルをトレーニングした場合、真陽性は、顧客がそのような購入を行うことを正しく予測することです。
-
管理対象外のアーティファクト
- Vertex AI コンテキスト外に存在するアーティファクト。
-
ベクトル
- ベクトルとは、テキスト、画像、動画の数値表現であり、入力間の関係を表します。ML モデルは、大規模なデータセット内のパターンを識別してエンベディングを作成することに適しています。アプリケーションでは、言語の処理と生成にエンベディングを使用して、コンテンツに固有の複雑な意味とセマンティックな関係を認識します。詳細については、エンベディング API の概要をご覧ください。
-
Vertex AI Agent Engine
- Vertex AI Platform の一部である Vertex AI Agent Engine は、開発者が本番環境で AI エージェントをデプロイ、管理、スケーリングできるようにする一連のサービスです。本番環境でエージェントをスケールするためにインフラストラクチャを処理する役目は Agent Engine が担います。そのため、開発者はアプリケーションの作成に集中できます。詳細については、Vertex AI Agent Engine の概要をご覧ください。
-
Vertex AI のデータ型
- Vertex AI のデータ型は、「画像」、「テキスト」、「表形式」、「動画」です。
-
Vertex AI Experiments
- Vertex AI Experiments では、次のものを追跡できます。1. テスト実行の手順(前処理、トレーニングなど)。2. 入力(アルゴリズム、パラメータ、データセットなど)。3. それらの手順の出力(モデル、チェックポイント、指標など)。
-
Vertex AI Feature Store
- ML 特徴の保存、サービング、管理を行うためのマネージド サービス。詳細については、Vertex AI Feature Store についてをご覧ください。
-
Vertex AI Inference
- トレーニング済みの機械学習(ML)モデルを使用して、新しい未知のデータから推論を行うことができる Vertex AI サービス。Vertex AI は、推論用のモデルをデプロイするサービスを提供します。詳細については、カスタム トレーニング済みモデルから推論を取得するをご覧ください。
-
Vertex ML Metadata
- ML ワークフローのメタデータを追跡して分析するシステム。続きは、Vertex ML Metadata の概要をご覧ください。
-
Vertex AI Model Registry
- Vertex AI Model Registry は、ML モデルのライフサイクルを管理できる中央リポジトリです。Vertex AI Model Registry ではモデルの概要を確認できるため、新しいバージョンの整理、追跡、トレーニングの向上が実現します。デプロイするモデル バージョンがある場合は、レジストリから直接エンドポイントに割り当てるか、エイリアスを使用してモデルをエンドポイントにデプロイできます。詳細については、Vertex AI Model Registry の概要をご覧ください。
-
Vertex AI SDK for Python
- Vertex AI SDK for Python は、Vertex AI Python クライアント ライブラリと同様の機能を提供しますが、SDK のレベルはより高くなり、粒度はより低くなります。
-
Vertex AI TensorBoard
- Vertex AI TensorBoard は、Google Cloud 上のスケーラブルなマネージド サービスです。データ サイエンティストと ML エンジニアは、使い慣れたオープンソースの TensorBoard インターフェースを使用して、ML テストの可視化、モデル トレーニングのデバッグ、パフォーマンス指標の追跡を行うことができます。Vertex AI Training などのサービスとシームレスに統合され、テストデータの永続ストレージを提供し、モデル開発の共同での分析を可能にします。詳細については、Vertex AI TensorBoard の概要をご覧ください。
-
Vertex AI Vizier
- ハイパーパラメータなどのパラメータをチューニングするためのブラック ボックス最適化サービス。詳細については、Vertex AI Vizier の概要をご覧ください。
-
Vertex AI Workbench
- Vertex AI Workbench は、データ探索と分析からモデルの開発、トレーニング、デプロイまで、データ サイエンス ワークフロー全体をサポートする、Jupyter ノートブック ベースの統合開発環境です。Vertex AI Workbench は、BigQuery や Cloud Storage などの他の Google Cloud サービスとの統合が組み込まれた、マネージドでスケーラブルなインフラストラクチャを提供します。これにより、データ サイエンティストは基盤となるインフラストラクチャを管理することなく、ML タスクを効率的に実行できます。詳細については、Vertex AI Workbench の概要をご覧ください。
-
動画セグメント
- 動画セグメントは、動画の開始時間と終了時間のオフセットで識別されます。
-
仮想マシン(VM)
- 仮想マシン(VM)は、ソフトウェアで完全にエミュレートされる完全なコンピュータ システムです。物理的な「ホスト」マシン上で自己完結型の「ゲスト」として実行されます。詳細については、Compute Engine インスタンスをご覧ください。
-
Virtual Private Cloud(VPC)
- パブリック クラウド内でホストされる安全で隔離されたプライベート クラウド。Google Cloud の他の仮想ネットワークから論理的に隔離された仮想ネットワークを定義できます。詳細については、Virtual Private Cloud をご覧ください。
-
VPC Service Controls
- VPC Service Controls は、Google Cloud 内のセキュリティ機能です。組織は、機密データとリソースの周囲に安全な境界を作成して、データの引き出しのリスクを軽減できます。VPC Service Controls はセキュリティの実現のため、指定された Google Cloud サービスとデータへの不正なネットワークからのアクセスを制限し、定義された境界外へのデータの移動を防ぎます。これにより、インサイダー脅威や偶発的なデータ漏洩に対する強力な防御を提供します。詳細については、VPC Service Controls をご覧ください。
-
ワーカーノード
- ワーカーノードは、タスクや作業の実行を担当する、クラスタ内の個々のマシンまたはコンピューティング インスタンスを指します。Kubernetes クラスタや Ray クラスタなどのシステムでは、ノードがコンピューティングの基本単位です。
-
ワーカープール
- 分散タスクを実行する Ray クラスタのコンポーネント。ワーカープールは特定のマシンタイプで構成でき、自動スケーリングと手動スケーリングの両方をサポートします。詳細については、トレーニング クラスタの構造をご覧ください。