生成 AI の用語集

  • エージェント
    • AI エージェントは、人工知能(AI)を利用してユーザーの目標を達成し、タスクを完了させるソフトウェア システムです。推論、計画、記憶の能力を示し、意思決定、学習、適応を行うレベルの自律性を備えています。
  • API エンドポイント
    • API エンドポイントは、ネットワーク アドレスを指定するサービス構成要素であり、サービス エンドポイントとも呼ばれます(例: aiplatform.googleapis.com)。
  • アプリケーションのデフォルト認証情報(ADC)
    • アプリケーションのデフォルト認証情報(ADC)を使用すると、Google API の呼び出しに使用する認可認証情報を簡単に取得できます。ユーザーに関係なく、アプリケーションで API を呼び出す際に同じ ID と認証のレベルを使用する必要があるケースに最適です。特に Google App Engine(GAE)または Compute Engine の仮想マシンにデプロイされるアプリケーションをビルドしている場合、これは Google Cloud APIs への呼び出しを承認する際の推奨アプローチです。詳細については、アプリケーションのデフォルト認証情報の仕組みをご覧ください。
  • 近似最近傍探索(ANN)
  • アーティファクト
    • アーティファクトは、機械学習ワークフローによって生成、使用される個別のエンティティまたはデータです。アーティファクトの例としては、データセット、モデル、入力ファイル、トレーニング ログなどがあります。
  • Artifact Registry
    • Artifact Registry は、汎用的なアーティファクト管理サービスです。これは、Google Cloud でコンテナやその他のアーティファクトを管理する場合に推奨されるサービスです。詳細については、Artifact Registry をご覧ください。
  • 人工知能(AI)
    • 人工知能(AI)とは、「知的」に見える機械の研究と設計です。つまり、機械的な動き、推論、問題解決など、人間や知的機能を模倣する機械のことです。AI の最も一般的なサブフィールドの一つが機械学習です。機械学習では、統計的かつデータドリブンなアプローチを使用して AI を作成します。ただし、この 2 つの用語を同じ意味で使用する人もいます。
  • 拡張現実(AR)
    • レンダリングされたデジタル コンテンツを現実世界のコンテンツとブレンドします。スマートフォンなどのディスプレイを介して、または眼鏡などの光学機器を通して見ている世界にオーバーレイとして表示します。デジタル コンテンツは、現実世界に存在しているかのように見えるように、(シーンのレンダリング方法に応じて)カメラまたはメガネの動きに合わせてトラッキングする必要があります。
  • 認証
    • 保護されたシステムにアクセスするために、クライアント(ユーザーまたは別のプロセス)の ID を確認するプロセス。身元を証明したクライアントは、認証済みであるとみなされます。詳しくは、Google での認証方法をご覧ください。
  • Automatic side-by-side(AutoSxS)
    • Automatic side-by-side(AutoSxS)は、2 つの大規模言語モデル(LLM)を並べて比較するモデル支援型評価ツールです。Vertex AI Model Registry 内の生成 AI モデルまたは事前生成された予測のパフォーマンスを評価できます。AutoSxS は自動評価を使用して、プロンプトへのレスポンスに優れたモデルを決定します。AutoSxS はオンデマンドで利用可能で、人間の評価者に匹敵するパフォーマンスで言語モデルを評価します。
  • 自動音声認識(ASR、音声入力)
    • 音声(スピーチ)をテキストに自動的に文字変換します。
  • AutoML
    • ブラック ボックス最適化を通じて「学習する」機械学習アルゴリズム。詳細については、ML 用語集をご覧ください。
  • autorater
    • 自動評価は、元の推論プロンプトでモデル レスポンスの品質を評価する言語モデルです。これは、AutoSxS パイプラインで 2 つのモデルの予測を比較し、パフォーマンスが最も高いモデルを決定するために使用されます。詳細については、自動評価をご覧ください。
  • ベースライン
    • 別のモデル(通常はより複雑なモデル)のパフォーマンスを比較するための参照点として使用されるモデル。たとえば、ロジスティック回帰モデルは、ディープラーニング モデルの優れたベースラインとして機能します。特定の問題の場合、ベースラインは、新しいモデルが有用であるために新しいモデルが達成する必要がある最小の期待パフォーマンスをモデル デベロッパーが定量化するために役立ちます。詳細については、ベースライン データセットとターゲット データセットをご覧ください。
  • バッチ
    • 1 回のトレーニング イテレーションで使用されるサンプルのセット。バッチサイズは、バッチ内のサンプル数を決定します。
  • バッチサイズ
    • バッチ内の例の数。たとえば、SGD のバッチサイズは 1 ですが、ミニバッチのバッチサイズは通常 10 ~ 1,000 です。バッチサイズは通常、トレーニングと推論中に固定されますが、TensorFlow ではバッチサイズを動的に設定できます。
  • バッチ予測
    • バッチ予測は、予測リクエストのグループを受け取り、結果を 1 つのファイルに出力します。詳細については、バッチ予測の取得をご覧ください。
  • バイアス
    • 1. 特定のこと、人、グループに対する固定観念、偏見、またはえこひいき。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーがシステムを操作する方法に影響する可能性があります。2. サンプリングや報告の手順で体系的に生じたエラー。
  • bidrectional
    • ターゲット テキストの前のテキストと後のテキストの両方を評価するシステムを表す用語です。一方、単方向のシステムは、対象のテキスト セクションの前に続くテキストのみを評価します。
  • Bidirectional Encoder Representations from Transformers(BERT)
    • BERT は言語表現の事前トレーニングの方法です。つまり、大規模なテキスト コーパス(ウィキペディアなど)で汎用的な「言語理解」モデルをトレーニングし、そのモデルを重要なダウンストリーム NLP タスク(質問応答など)に使用します。BERT は、NLP の事前トレーニング用の最初の教師なしの深い双方向システムであるため、以前の方法よりも優れています。
  • Bilingual Evaluation Understudy(BLEU)
    • 機械翻訳アルゴリズムの出力を 1 つ以上の人間による翻訳と比較して、その品質を評価するための一般的な指標です。
  • ブースティング
    • モデル トレーニング: ブーストは、トレーニング データセットのサイズと多様性を増やすために使用されるデータ拡張手法を指す場合があります。これは、既存の例を変換して、さまざまな追加の例を作成することによって行われます。これにより、特に元のデータセットが限られている場合に、モデルのパフォーマンスを向上させることができます。
  • 境界ボックス
    • 動画フレーム内のオブジェクトの境界ボックスは、次の 2 つの方法のいずれかで指定できます。(i)長方形の対角線上の点の場合、x,y 座標のセットで構成される 2 つの頂点を使用します。(x_relative_min、y_relative_min、x_relative_max、y_relative_max など)か(ii)4 つの頂点すべてを使用する形式のいずれかで指定できます。詳細については、動画データを準備するをご覧ください。
  • バケット
    • Cloud Storage の最上位フォルダ。バケット名は、Cloud Storage のすべてのユーザー間で一意である必要があります。バケットにはファイルが格納されます。詳細については、Cloud Storage のプロダクトの概要をご覧ください。
  • Chain-of-Thought
    • 生成 AI における Chain-of-Thought(CoT)は、大規模言語モデル(LLM)が結論に至る前に推論プロセスを明示的に詳細に説明するように促すプロンプト手法です。これには、最終的な回答を提供するだけでなく、問題を解決するために必要な中間ステップを示すようにモデルにプロンプトを出すことが含まれます。この方法により、複雑な推論タスクでの LLM のパフォーマンスを大幅に改善できます。
  • チャット
    • ML システム(通常は大規模言語モデル)とのやり取りの内容。チャットでの以前のやり取り(入力した内容と大規模言語モデルの回答)が、チャットの後続部分のコンテキストになります。chatbot は大規模言語モデルのアプリケーションです。
  • チェックポイント
    • トレーニング中またはトレーニング完了後にモデルのパラメータの状態をキャプチャするデータ。たとえば、トレーニング中に、次のことができます。1. トレーニングを停止します。これは、意図的に行う場合もあれば、特定のエラーの結果として行う場合もあります。2. チェックポイントをキャプチャします。3. 後で、別のハードウェアでチェックポイントを再読み込みします。4. トレーニングを再開します。Gemini では、チェックポイントは特定のデータセットでトレーニングされた Gemini モデルの特定のバージョンを指します。
  • 分類モデル
    • 予測がクラスであるモデル。たとえば、次のモデルはすべて分類モデルです。入力文の言語(フランス語?スペイン語イタリア語)木の種類(メープル?オークですか?バオバブ?)。特定の病状の陽性クラスまたは陰性クラスを予測するモデル。
  • 分類指標
    • Vertex AI SDK for Python でサポートされている分類指標は、混同行列と ROC 曲線です。
  • Cloud TPU
    • Google Cloud での ML ワークロードの高速化を目的として設計された特殊なハードウェア アクセラレータ。
  • クラスタリング
    • 生成 AI のコンテキストでは、クラスタリングは、類似したデータポイントを特性に基づいてグループ化するために使用される教師なし ML 手法です。これは、データポイントを比較する類似性測定(または指標)を定義し、類似性の高いものを同じクラスタにグループ化することで実現します。生成 AI アプリケーションでは、エンベディング(テキスト、画像、その他のデータの数値表現)をクラスタリングして、検索、分類、外れ値検出などのタスクを実行する場合があります。たとえば、顧客データのクラスタリングによって、行動や特性が類似するグループを特定し、顧客セグメンテーションを実現できます。詳細については、クラスタリングとはをご覧ください。
  • コンテナ イメージ
    • コンテナ イメージは、コンポーネントの実行可能コードと、コードが実行される環境の定義が含まれるパッケージです。詳細については、カスタム トレーニングの概要をご覧ください。
  • context
    • コンテキストは、アーティファクトと実行を単一のクエリ可能なタイプ付きカテゴリにグループ化するために使用されます。コンテキストを使用してメタデータのセットを表すことができます。コンテキストの例としては、機械学習パイプラインの実行があります。
  • コンテキスト キャッシュ
    • Vertex AI のコンテキスト キャッシュは、Gemini モデルへの複数のリクエストで使用できる大量のデータです。キャッシュに保存されたコンテンツは、キャッシュの作成をリクエストしたリージョンに保存されます。テキスト、音声、動画など、Gemini マルチモーダル モデルでサポートされている任意の MIME タイプを使用できます。詳細については、コンテキスト キャッシュの概要をご覧ください。
  • コンテキスト ウィンドウ
    • モデルが特定のプロンプトで処理できるトークン数。コンテキスト ウィンドウが大きいほど、モデルはより多くの情報を使用できるため、プロンプトに一貫性のある回答を提供できます。
  • 顧客管理の暗号鍵(CMEK)
    • 顧客管理の暗号鍵(CMEK)は、お客様が Cloud KMS(別名 Storky)で管理する鍵を使用して既存の Google サービスのデータを暗号化できるようにするインテグレーションです。Cloud KMS の鍵は、データを保護する鍵暗号鍵です。詳細については、顧客管理の暗号鍵(CMEK)をご覧ください。
  • データ分析
    • サンプル、測定、可視化を考慮してデータを理解する。データ分析は、データセットが初めて受信されたとき、最初のモデルを構築する前に特に役立ちます。また、テストの理解やシステムの問題のデバッグにも不可欠です。
  • データ拡張
    • 既存のサンプルを変換して追加のサンプルを作成し、トレーニング サンプルの範囲と数を人為的に増やす。たとえば、画像が特徴の 1 つであるが、データセットにモデルが有用な関連性を学習するのに十分な画像サンプルが含まれていないとします。モデルを適切にトレーニングできるように、十分な数のラベル付き画像をデータセットに追加するのが理想的です。それが不可能な場合は、データ拡張によって各画像を回転、伸縮、反射して、元の画像の多くのバリエーションを生成できます。これにより、優れたトレーニングを可能にする十分なラベル付きデータが得られる可能性があります。
  • DataFrame
    • メモリ内のデータセットを表す一般的な Pandas データ型。DataFrame は、テーブルやスプレッドシートに似ています。DataFrame の各列には名前(ヘッダー)があり、各行は一意の数値で識別されます。DataFrame 内の各列は 2 次元配列のように構成されていますが、各列に独自のデータ型を割り当てることができます。
  • データ インデックス
    • 生成 AI のコンテキストでは、データ インデックスとは、検索と取得を最適化するためにナレッジベースを構造化して整理するプロセスです。これには、データを効率的に検索できるようにするインデックス(コーパスと呼ばれることもあります)の作成が含まれます。このプロセスはコーパスの作成とは別であり、インデックス化されたデータを使用して大規模言語モデル(LLM)のコンテキストを拡充し、ハルシネーションを減らし、レスポンスの精度を高めることができます。たとえば、ウェブサイトのコンテキストでは、データのインデックス作成に、検索機能の向上を目的とした datePublished や dateModified などのメタデータの追加が含まれる場合があります。データのインデックス作成にはさまざまな方法があります。たとえば、クエリ時に LLM の関連情報を取得するアプリケーションでベクトル検索を使用して類似検索を行う方法などです。詳細については、RAG Engine の概要 をご覧ください。
  • データの取り込み
    • データの取り込みは、さまざまなソースからデータを抽出し、一元的な場所に統合して、さらに処理と分析を行うプロセスです。生成 AI の文脈において、データの取り込みとは、臨床フォーム、患者記録、非構造化テキストなどのさまざまなデータソースから情報を抽出して、生成 AI モデルをトレーニングしてファインチューニングすることを指します。通常、取り込まれたデータは、生成 AI モデルのトレーニングに使用される前に、品質と整合性を確保するために処理と変換が行われます。このプロセスでは、モデルのパフォーマンスと一般化能力を向上させるために、データ クリーニング、特徴量エンジニアリング、データ拡張手法が使用される場合があります。詳細については、利用管理に生成 AI を活用するをご覧ください。
  • データ並列処理
    • トレーニングまたは推論をスケーリングする方法の 1 つで、モデル全体を複数のデバイスに複製し、入力データのサブセットを各デバイスに渡します。データ並列処理では、非常に大きなバッチサイズでのトレーニングと推論が可能になります。ただし、データ並列処理では、モデルがすべてのデバイスに収まるほど小さくする必要があります。通常、データ並列処理によりトレーニングと推論の速度が向上します。
  • データセット
    • データセットは、おおまかに構造化データレコード群または非構造化データレコード群と定義されています。通常は(ただし必ずしも)スプレッドシートまたは CSV(カンマ区切り値)形式のファイルのいずれかの形式で整理された未加工データのコレクション。詳細については、データセットの作成をご覧ください。
  • データ変換
    • 検索拡張生成(RAG)のコンテキストでは、データ変換とは、LLM によるインデックス登録と処理に適した形式に変換することを指します。多くの場合、エンベディングとインデックス登録のために、データを小さなチャンクに分割して管理しやすくします。その他の変換には、データ品質を確保するためのクリーニングと検証のステップが含まれる場合があります。詳細については、RAG Engine の概要をご覧ください。
  • デコーダ
    • 一般に、処理済み、高密度、内部表現から、より未加工、疎、外部表現に変換する ML システム。デコーダは、多くの場合、より大きなモデルのコンポーネントであり、エンコーダとペアになっていることがよくあります。シーケンス間タスクでは、デコーダはエンコーダによって生成された内部状態から開始して、次のシーケンスを予測します。
  • ディープ ニューラル ネットワーク(DNN)
    • 隠れ層が複数あるニューラル ネットワーク。通常はディープラーニング手法でプログラムされます。
  • depth
    • ニューラル ネットワーク内の次の合計: 1. 隠れ層の数 2. 出力層の数(通常は 1)3. エンベディング レイヤの数。たとえば、隠れ層が 5 つ、出力層が 1 つのニューラル ネットワークの深さは 6 です。入力レイヤは深さに影響しません。
  • DevOps
    • DevOps は、Artifact Registry、Cloud Deploy などの Google Cloud Platform プロダクトのスイートです。
  • 早期停止
    • トレーニングの損失が減少しきる前にトレーニングを終了する正則化の方法。早期停止では、検証データセットの損失が上昇し始め、つまり汎化性能が低下したときに、モデルのトレーニングを意図的に停止します。
  • エンベディング
    • 単語やテキストの断片の数値表現。これらの数値は、テキストの意味論的意味とコンテキストを捉えています。類似または関連する単語やテキストは、エンベディングが類似する傾向があります。つまり、高次元ベクトル空間内で近接します。
  • エンベディング空間(潜在空間)
    • 生成 AI では、エンベディング空間とは、入力間の関係を捉えるテキスト、画像、動画の数値表現を指します。ML モデル(特に生成 AI モデル)は、大規模なデータセット内のパターンを識別してこうしたエンベディングを作成することに長けています。アプリケーションでは、エンベディングを使用して言語を処理および生成し、コンテンツに固有の複雑な意味とセマンティックな関係を認識できます。
  • エンベディング ベクトル
    • アイテムの密ベクトル表現(多くの場合低次元)。2 つのアイテムが意味的に類似している場合、それらのエンベディングはエンベディング ベクトル空間内で互いに近接した場所に配置されます。
  • エンコーダ
    • 一般に、未加工、スパース、または外部表現から、より処理された、より密度の高い、またはより内部的な表現に変換する ML システム。エンコーダは、多くの場合、より大きなモデルのコンポーネントであり、デコーダとペアで使用されます。一部の変換ツールはエンコーダとデコーダをペアで使用しますが、エンコーダまたはデコーダのみを使用する変換ツールもあります。一部のシステムでは、エンコーダの出力を分類ネットワークまたは回帰ネットワークへの入力として使用します。シーケンス間タスクでは、エンコーダは入力シーケンスを受け取り、内部状態(ベクトル)を返します。デコーダは、その内部状態を使用して次のシーケンスを予測します。
  • アンサンブル
    • 個別にトレーニングされたモデルのコレクションで、予測が平均化または集約されます。多くの場合、アンサンブルは単一モデルよりも優れた予測を行います。たとえば、ランダム フォレストは、複数のディシジョン ツリーから構築されたアンサンブルです。すべての決定木がアンサンブルであるとは限りません。
  • 環境
    • 強化学習では、エージェントが含まれ、エージェントがその世界の状態を観察できる世界。たとえば、表現される世界は、チェスのようなゲームや、迷路のような物理的な世界などです。エージェントが環境にアクションを適用すると、環境は状態間を遷移します。
  • 評価(eval)
    • 評価(eval)は、ログに記録されたクエリまたは合成クエリを 2 つの検索スタック(変更を含む試験運用版スタックと変更を含まないベーススタック)に送信するテストの一種です。評価では、検索結果や Google のユーザー エクスペリエンスの他の部分に対する変更の影響や品質などを評価できる差分と指標が生成されます。評価は、変更のチューニング(反復処理)中に使用されます。また、ライブ ユーザー トラフィックへの変更をリリースする際にも使用されます。
  • 実行
    • 実行とは、個々の機械学習ワークフロー ステップのレコードで、通常はランタイムのパラメータでアノテーションが付けられています。実行の例としては、データの取り込み、データの検証、モデルのトレーニング、モデルの評価、モデルのデプロイなどがあります。
  • F1 スコア
    • F1 スコアは、モデルの出力の精度を評価するために使用される指標です。これは、情報抽出など、精度と再現率の両方が重要なタスクでのモデルのパフォーマンスを評価する場合に特に役立ちます。生成 AI モデルの場合、F1 スコアを使用してモデルの予測と正解データを比較し、モデルの精度を判断できます。ただし、要約やテキスト生成などの生成タスクの場合は、Rough-L スコアなどの他の指標が適している場合があります。
  • 特徴
    • 機械学習(ML)において、特徴とは、ML モデルのトレーニングや予測の入力として使用されるインスタンスまたはエンティティの特性(属性)のことです。
  • 特徴抽出
    • 生成 AI の文脈において、特徴量抽出とは、モデル トレーニングで使用される入力データから関連する特徴量を特定して選択するプロセスを指します。これらの特徴量を使用して、元の入力に似た新しいデータを生成します。たとえば、画像生成では、特徴抽出にエッジ、テクスチャ、色の識別が含まれる場合があります。自然言語処理では、キーワード、フレーズ、文法構造の抽出が含まれます。抽出された特徴は、生成モデルによって新しいコンテンツの作成に使用されます。
  • 特徴のサービング
    • 特徴のサービングは、トレーニングまたは推論のために保存されている特徴値をエクスポートまたは取得するプロセスです。Vertex AI には、オンライン サービングとオフライン サービングの 2 種類の特徴のサービングがあります。オンライン サービングでは、オンライン予測用に特徴データソースのサブセットの最新の特徴値を取得します。オフラインまたはバッチ サービングでは、ML モデルのトレーニングなどのオフライン処理用に大量の特徴データ(履歴データを含む)をエクスポートします。
  • 特徴ビュー
    • 特徴ビューは、BigQuery データソースからオンライン ストア インスタンスに具体化された特徴の論理的なコレクションです。特徴ビューは、顧客の特徴データを保存し、定期的に更新します。この特徴データは、BigQuery ソースから定期的に更新されます。特徴ビューは、直接、または特徴レジストリ リソースとの関連付けを通じて特徴データ ストレージに関連付けられます。
  • 少数ショット プロンプト(少数ショット)
    • 生成 AI では、「少数ショット」とは、モデルの回答をガイドする少数の例を含むプロンプトのタイプを指します。これらの例は、望ましい出力形式、表現、範囲、回答の一般的なパターンをモデルが理解するのに役立ちます。少数ショット プロンプトは、言語モデルの出力を制御するためによく使用され、正確で高品質で、ユーザーの期待に沿った回答が生成されるようにします。関連性の高い例をいくつかモデルに提供することで、モデルの動作に影響を与え、より満足のいく結果を得ることができます。詳細については、少数ショットの例を含めるをご覧ください。
  • 基盤モデル(FM)
    • 幅広いデータでトレーニングされ、幅広い下流タスクに適応(微調整など)できるモデル。
  • 基盤モデル オペレーション(FMOP)
    • FMOps は MLOps の機能を拡張し、事前トレーニング済み(ゼロからトレーニング)またはカスタマイズ済み(ファインチューニング済み)の FM を効率的に本番環境に導入することに重点を置いています。
  • Gemini
    • Gemini は、Google の大規模なシーケンスベースのマルチモーダル モデルのセットです。つまり、テキスト、音声、映像メディアなど、複数のメディアで入力を受け取り、出力を生成できます。さまざまなタスクを実行できるエージェントと統合するように設計されています。詳細については、Google モデルをご覧ください。
  • 一般化
    • これまでにない新しいデータに対して正しい予測を行うモデルの能力。一般化できるモデルは、過学習しているモデルとは正反対です。
  • generation
    • 生成 AI の文脈において、「生成」とは、既存のデータや情報から新しいデータやコンテンツを作成するプロセスを指します。生成 AI モデルは、大規模なデータセットでトレーニングされ、データ内のパターンと関係を学習できます。この知識を使用して、トレーニング データに似ているが正確なレプリカではない、新しい独自のコンテンツを生成できます。詳細については、https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai をご覧ください。
  • 生成モデル
    • トレーニング データに基づいて新しい出力を生成できる機械学習モデルの一種。最も単純なモデルでは、トレーニングに使用した特定のカテゴリセットに似た新しいデータを生成します。通常は大規模言語モデルに関連付けられますが、他のタイプのモデルも生成モデルにすることができます。
  • Google Embedded Modem System(GEMS)
    • GEMS は、モデムを対象とした組み込みソフトウェア フレームワークと、それに付随する一連の開発ワークフローおよびインフラストラクチャです。GEMS のコア ビジョンは、モデムを含む多くの Google デバイスで再利用性の高い高品質なモデム システム コードを提供することです。この幅広いビジョンを実現するため、GEMS は、以下に示す主要な構成要素で構成される包括的な環境をデベロッパーに提供します。
  • グラデーション
    • すべての独立変数に対する偏微分ベクトル。機械学習では、勾配はモデル関数の偏微分ベクトルです。勾配は最も急な上昇方向を向いています。
  • グラフ
    • 生成 AI の文脈において、グラフとは、データをノードとエッジのネットワークとして整理して接続する、情報の構造化表現を指します。これらのグラフは、エンティティ間の知識と関係を表すためによく使用され、データ内のコンテキストと関係を深く理解する必要がある生成 AI システムに特に役立ちます。ナレッジグラフを活用する GenAI システムは、ナレッジグラフを使用して検索モデルのパフォーマンスを向上させることができます。ナレッジグラフをシステムに組み込むことで、生成 AI はコンテキスト豊富なデータにアクセスし、グラフを走査してユーザーのクエリに基づいて関連するサブグラフを取得できます。これにより、コンテキストに応じたコンテンツを生成することで、より正確で有益な回答を提供できるようになります。
  • グラウンド トゥルース(GT)
    • グラウンド トゥルースとは、システムの推定値とは対照的に、ある決定や測定の問題の絶対的な真実を指すためにさまざまな分野で使用される用語です。機械学習では、「グラウンド トゥルース」という用語は、教師あり学習手法のトレーニング セットを指します。
  • hallucination
    • 生成 AI におけるハルシネーションとは、トレーニング データでは裏付けられない AI による自信に満ちた回答です。事実と異なる可能性があります。テキスト生成のコンテキストでは、生成されたテキスト コンテンツ内に、信憑性があるように聞こえるランダムな虚偽が含まれています。
  • ヒューリスティクス
    • 問題に対するシンプルで迅速に実装できるソリューション。たとえば、「ヒューリスティクスでは 86% の精度を達成しました。ディープ ニューラル ネットワークに切り替えると、精度は 98% に向上しました」
  • 隠れ層
    • 入力層(特徴)と出力層(予測)の間にあるニューラル ネットワークの層。各隠れ層は 1 つ以上のニューロンで構成されます。ディープ ニューラル ネットワークには複数の隠れ層が含まれています。
  • histogram
    • 一連のデータの変化を棒グラフで表したものです。ヒストグラムでは、単純な数値表では検出が困難なパターンを可視化できます。
  • ハイパーパラメータ
    • ハイパーパラメータとは、機械学習モデルのトレーニング プロセスを管理する変数を指します。これらの変数には、学習率、オプティマイザーのモメンタム値、モデルの最終隠れ層のユニット数などがあります。Vertex AI のハイパーパラメータ チューニングでは、選択したハイパーパラメータの値を指定された制限内で変更し、トレーニング アプリケーションのトライアルを複数回実行します。ハイパーパラメータ設定を最適化して、モデルの予測精度を最大化することが目標です。詳細については、ハイパーパラメータ調整の概要をご覧ください。
  • Imagen
    • Imagen は、Vertex AI プラットフォームで利用可能なテキストから画像を生成する生成 AI サービスです。ユーザーは、新しい画像の生成、画像の編集、スタイルや被写体モデルのファインチューニング、画像のキャプションの作成、画像コンテンツに関する質問への回答の取得を行うことができます。詳細については、Vertex AI の Imagen の概要をご覧ください。
  • 画像認識
    • 画像認識とは、画像内のオブジェクト、パターン、コンセプトを分類するプロセスです。これは画像分類とも呼ばれます。画像認識は、機械学習とコンピュータ ビジョンのサブフィールドです。
  • index
    • 類似度検索でまとめてデプロイされるベクトルの集合。ベクトルはインデックスに追加することも、インデックスから削除することもできます。類似性検索クエリは特定のインデックスに対して発行され、そのインデックス内のベクトルが検索されます。
  • 推論
    • Vertex AI プラットフォームのコンテキストでは、推論とは、データポイントを ML モデルに入力して、単一の数値スコアなどの出力を計算するプロセスを指します。このプロセスは、「ML モデルの運用」または「本番環境への ML モデルのデプロイ」とも呼ばれます。推論は、モデルを使用して新しいデータの予測を行うことができるため、ML ワークフローの重要なステップです。Vertex AI では、バッチ予測やオンライン予測など、さまざまな方法で推論を実行できます。バッチ予測では、予測リクエストのグループを実行し、結果を 1 つのファイルに出力します。一方、オンライン予測では、個々のデータポイントに対してリアルタイムで予測できます。
  • 情報検索(IR)
    • 情報検索(IR)は Vertex AI Search の重要なコンポーネントです。大量のデータから関連情報を検索して取得するプロセスです。Vertex AI のコンテキストでは、IR を使用してユーザーのクエリに基づいてコーパスからドキュメントを取得します。Vertex AI には、独自の検索拡張生成(RAG)アプリケーションを構築したり、独自の検索エンジンを構築したりするための API スイートが用意されています。詳細については、RAG Engine を使用して Vertex AI Search を検索バックエンドとして使用するをご覧ください。
  • 学習率(ステップサイズ)
    • 学習率は、機械学習モデルの最適化プロセスを調整するために使用されるハイパーパラメータです。トレーニング中にモデルが重みを更新するステップサイズを決定します。学習率が高いほど収束が早くなりますが、不安定化や過剰適合につながる可能性があります。逆に、学習率を下げると収束が遅くなる可能性がありますが、過剰適合を防ぐことができます。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
  • 損失(費用)
    • 教師ありモデルのトレーニング中に、モデルの予測がラベルからどのくらい離れているかを表す指標。損失関数は損失を計算します。
  • マネージド データセット
    • Vertex AI で作成、ホストされるデータセット オブジェクト。
  • model
    • 事前トレーニング済みか否かを問わない、あらゆるモデル。一般に、入力データを処理して出力を返す数学的な構造。別の言い方をすれば、モデルとは、システムが予測を行うために必要な一連のパラメータと構造です。
  • モデル蒸留(知識蒸留、教師生徒モデル)
    • モデルの抽出は、小規模な生徒モデルが大規模な教師モデルから学習できるようにする手法です。教師モデルの出力を模倣するようにトレーニングされた生徒モデルは、新しいデータの生成や予測に使用できます。モデル蒸留は、大規模なモデルを効率化したり、リソースが限られたデバイスでよりアクセスしやすくしたりする場合によく使用されます。また、過剰適合を減らしてモデルの一般化を改善するためにも使用できます。
  • モデルのリソース名
    • model のリソース名は、プロジェクト/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>です。モデルの ID は、Cloud Console の [モデル レジストリ] ページで確認できます。
  • ネットワーク ファイル システム(NFS)
    • ユーザーがネットワーク経由でファイルにアクセスし、ローカル ファイル ディレクトリにあるかのように扱えるクライアント/サーバー システム。
  • ワンホット エンコーディング
  • ワンショット プロンプト
    • 大規模言語モデルがどのように回答すべきかを示す例が 1 つ含まれるプロンプト。詳細については、ワンショット プロンプトをご覧ください。
  • パラメータ
    • パラメータは、実行を構成し、実行の動作を調整して、実行の結果に影響を与えるキー付きの入力値です。例としては、学習率、ドロップアウト率、トレーニングの手順の数などがあります。
  • perplexity
    • 混乱度は、言語モデルのパフォーマンスを評価するために使用される指標です。これは、トレーニングに使用したテキストの分布に基づいて、モデルが特定のテキスト シーケンスを生成する可能性を測定します。混乱度は、言語モデルの評価によく使用される指標であり、さまざまなモデルのパフォーマンスを比較したり、トレーニング中のモデルの進捗状況を追跡したりするためによく使用されます。
  • pipeline
    • ML パイプラインは、移植可能でスケーラブルなコンテナベースの ML ワークフローです。詳細については、Vertex AI Pipelines の概要をご覧ください。
  • パイプライン ジョブ
    • パイプライン ジョブまたはパイプラインの実行は、Vertex AI API の PipelineJob リソースに対応しています。これは、ML パイプライン定義の実行インスタンスです。ML パイプライン定義は、入出力の依存関係で相互接続された一連の ML タスクとして定義されます。
  • パイプライン実行
    • 1 つ以上の Vertex PipelineJob を 1 つのテストに関連付けることができ、ここで、各 PipelineJob は単一の実行として表されます。このコンテキストで、実行のパラメータは PipelineJob のパラメータによって推定されます。指標は、その PipelineJob によって生成された system.Metric アーティファクトから推定されます。実行のアーティファクトは、その PipelineJob によって生成されたアーティファクトから推定されます。
  • Private Service Connect(PSC)
    • Private Service Connect は、Compute Engine のお客様がネットワーク内のプライベート IP を別の VPC ネットワークまたは Google API にマッピングできるテクノロジーです。
  • プロンプト
    • プロンプトとは、レスポンスを受け取るために言語モデルに送信される自然言語リクエストです。プロンプトには、質問、指示、コンテキスト情報、少数ショットの例、さらにはモデルが完了または続行する部分入力を含めることができます。モデルはプロンプトを受け取った後、そのモデルのタイプに応じて、テキスト、エンベディング、コード、画像、動画、音楽などを生成できます。詳細については、プロンプト戦略の概要をご覧ください。
  • プロンプト エンジニアリング(プロンプト設計)
    • 生成 AI のプロンプト エンジニアリングは、大規模言語モデル(LLM)から望ましい出力を誘導するために効果的なプロンプトを作成するプロセスです。これは、特定の結果を達成するために入力を調整することに重点を置いた、反復的なテスト主導型のプロセスです。これには、プロンプトのコンテンツと構造の両方を検討し、正確で質の高い回答を確保することが含まれます。単純なタスクでは必要ない場合もありますが、複雑なタスクでは効果的なプロンプト エンジニアリングが重要です。LLM ベースのアプリケーションを迅速にプロトタイプ化することを目的としています。詳細については、プロンプト エンジニアリングの概要をご覧ください。
  • プロンプトのチューニング
    • プロンプト チューニングは、特定のタスクにおける生成 AI モデルのパフォーマンスを改善するために使用される、パラメータ効率の高いファインチューニング方法です。実際のプロンプトの先頭に追加される「接頭辞」を学習します。場合によっては、すべてのレイヤで学習します。この方法は、他のチューニング方法よりも低コストで迅速に実施でき、多くの場合、良好な結果が得られます。プロンプト チューニングは、特定のタスクがあり、モデルに特定の方法でタスクを実行させる場合に特に効果的です。プロンプト学習やパラメータ効率的な(ファイン)チューニングとも呼ばれます。詳細については、プロンプト エンジニアリングの概要をご覧ください。
  • プロビジョニングされたスループット(PT)
    • プロビジョニングされたスループット(PT)は、Vertex AI の生成 AI モデル向けのプレミアム サービスです。容量保証と予測可能な料金により、保証付きのエクスペリエンスを提供します。従量課金制(オンデマンド)オプションとは異なり、PT では専用の割り当てを購入できるため、リクエストが他のリクエストとモデル容量を競合することはありません。PT は、指定したモデルとロケーションのスループットを予約する、固定料金の月額または週単位のサブスクリプションです。詳細については、プロビジョニングされたスループットの概要をご覧ください。
  • 量子化
    • 量子化は、モデルのパラメータを表すために使用される数値の精度を下げるために使用されるモデル最適化手法です。これにより、モデルのサイズが小さくなり、消費電力が低下し、推論レイテンシが短縮されます。
  • ランダム フォレスト
    • ランダム フォレストは、分類と回帰の両方に使用される ML アルゴリズムです。生成 AI モデル自体ではありませんが、大規模な生成 AI システム内で使用できるコンポーネントです。ランダム フォレストは複数のディシジョン ツリーで構成され、その予測はこれらの個々のツリーからの予測の集計です。たとえば、分類タスクでは、各ツリーがクラスに「投票」し、投票数が最も多いクラスが最終的な予測になります。詳細については、決定木をご覧ください。
  • Vertex AI 上の Ray クラスタ
    • Vertex AI の Ray クラスタは、重要な ML ワークロードやピークシーズンに十分な容量を確保するために組み込まれています。ジョブの完了後にトレーニング サービスがリソースを解放するカスタムジョブとは異なり、Ray クラスタは削除されるまで使用できます。詳細については、Ray on Vertex AI の概要をご覧ください。
  • Ray on Vertex AI(RoV)
    • Ray on Vertex AI は、同じオープンソースの Ray コードを使用して、最小限の変更でプログラムを作成し、Vertex AI でアプリケーションを開発できるように設計されています。詳細については、Ray on Vertex AI の概要をご覧ください。
  • Ray on Vertex AI SDK for Python
    • Ray on Vertex AI SDK for Python は、Ray Client、Ray BigQuery コネクタ、Vertex AI での Ray クラスタ管理、Vertex AI での予測の機能が含まれているバージョンの Vertex AI SDK for Python です。詳細については、Vertex AI SDK for Python の概要をご覧ください。
  • recall
    • インデックスによって返された正しい最近傍の割合。たとえば、20 個の最近傍に対する最近傍のクエリで、グラウンド トゥルースの最近傍が 19 個返された場合、再現率は 19÷20×100 = 95% となります。
  • レコメンデーション システム
    • レコメンデーション システムは、ユーザーが大量のコーパスの中から魅力的なコンテンツを見つけるのをサポートする機械学習ベースのシステムです。膨大なコーパスから候補のより小さなサブセットを生成し、候補にスコアとランクを付け、追加の制約を考慮して最終的なランキングを再ランク付けします。詳細については、レコメンデーション システムの概要をご覧ください。
  • 正則化
    • 正則化は、機械学習モデルの過学習を防ぐために使用される手法です。過学習は、モデルがトレーニング データを学習しすぎたために、未知のデータでパフォーマンスが低下するときに発生します。言及されている特定のタイプの正則化の 1 つは早期停止です。これは、汎化性能の低下を示す検証データセットの損失が増加し始める前にトレーニングを停止します。詳細については、過剰適合: L2 正則化をご覧ください。
  • サービス アカウント
    • Google Cloud では、サービス アカウントはユーザーではなく、アプリケーションや仮想マシン(VM)インスタンスによって使用される特別なアカウントです。アプリケーションは、サービス アカウントを使用して、承認された API 呼び出しを行います。
  • サマリー指標
    • サマリー指標はテスト実行の各指標キーの単一の値です。たとえば、テストのテスト精度は、トレーニング終了時にテスト データセットに対して計算された精度であり、単一の値のサマリー指標として捕捉できます。
  • TensorBoard
    • TensorBoard は、TensorFlow の実行とモデルを可視化して理解するための一連のウェブ アプリケーションです。詳細については、TensorBoard をご覧ください。
  • TensorBoard インスタンス
    • TensorBoard インスタンスは、プロジェクトに関連付けられた Vertex AI TensorBoard テストを保存するリージョン リソースです。たとえば、CMEK 対応インスタンスを複数希望する場合は、プロジェクトに複数の TensorBoard インスタンスを作成できます。これは、API の TensorBoard リソースと同じです。
  • TensorBoard リソース名
    • TensorBoard リソース名は、Vertex AI TensorBoard インスタンスを完全に識別するために使用されます。形式は projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID です。
  • 時間オフセット
    • 時間オフセットは、動画の先頭を基準とします。
  • 時系列指標
    • 時系列指標は長期的な指標値であり、ここで、各値は実行のトレーニング ルーチンの部分の手順を表します。時系列指標は Vertex AI TensorBoard に保存されます。Vertex AI Experiments には、Vertex TensorBoard リソースへの参照が保存されます。
  • token
    • 言語モデルのトークンは、モデルがトレーニングと予測を行う場合の原子単位、つまり単語、形態素、文字です。言語モデル以外のドメインでは、トークンは他の種類のアトミックな単位を表すことができます。たとえば、コンピュータ ビジョンでは、トークンは画像のサブセットとなる場合があります。詳細については、トークンの一覧表示とカウントをご覧ください。
  • 軌道
    • 「軌跡」とは、エージェントまたはモデルが行う一連のステップまたはアクションを指します。生成モデルの評価でよく使用され、テキスト、コード、その他のコンテンツを生成するモデルの能力が評価されます。生成モデルの評価に使用できるトラジェクト指標には、トラジェクト完全一致、トラジェクト順序一致、トラジェクト任意の順序一致、トラジェクトの精度など、いくつかのタイプがあります。これらの指標は、モデルの出力と人間が生成した参照出力のセットの類似性を測定します。
  • Transformer
    • 「Transformer」は、ほとんどの最先端の生成モデルの基盤となるニューラル ネットワーク アーキテクチャです。翻訳など、さまざまな言語モデル アプリケーションで使用されます。Transformer はエンコーダとデコーダで構成されています。エンコーダは入力テキストを中間表現に変換し、デコーダはこれを有用な出力に変換します。セルフ アテンション メカニズムを使用して、処理対象の単語の周囲の単語からコンテキストを収集します。Transformer のトレーニングには多大なリソースが必要ですが、特定のアプリケーション用に事前トレーニング済みの Transformer をファインチューニングする方が効率的です。
  • Transformer 強化学習
    • Transformer 強化学習(TRL)とは、生成タスク用の Transformer ベースのモデルをトレーニングするために強化学習(RL)手法を適用することを指します。このアプローチは、従来の生成モデルの限界に対処します。従来の生成モデルは、連続性、安全性、感性などの望ましい品質を明示的に最適化せずに、次のトークンの予測でトレーニングされることがよくあります。TRL は、RL を使用して複雑な目標に基づいて言語モデルを直接最適化します。多くの場合、学習プロセスをガイドするために人間のフィードバック(RLHF)を組み込みます。たとえば、報酬モデルを使用して有害なコンテンツを減らすようにモデルをファインチューニングしたり、TRL を使用して生成モデルである Gemma をファインチューニングしたりします。詳細については、Hugging Face DLC: Vertex AI で Transformer 強化学習(TRL)を使用して Gemma をファインチューニングするをご覧ください。
  • 真陽性
    • 「真陽性」とは、モデルが陽性のクラスを正しく識別した予測を指します。たとえば、ジャケットを購入する顧客を特定するようにモデルをトレーニングした場合、真陽性は、顧客がそのような購入を行うことを正しく予測することです。
  • 検証
    • 検証では、検証セットと比較してモデルの予測の品質を確認します。これには、生成されたコンテンツの品質、速度、指示への準拠、安全性を測定する指標を定義することが含まれます。検証では、ラベル付きデータ(入力プロンプトと期待される出力)を使用して、モデルの予測とグラウンド トゥルースを比較することがよくあります。F1 スコア(分類用)や ROUGE-L スコア(要約用)などの指標が使用される場合があります。このプロセスには、堅牢性を確保するために、エッジケースと異常なシナリオをテストすることも含まれます。デプロイされたモデルでは、一般的なデータポイントとエッジケースを継続的にモニタリングしてキャプチャすることで、将来の検証作業を改善できます。
  • ベクトル
    • ベクトルとは、テキスト、画像、動画の数値表現であり、入力間の関係をとらえます。ML モデルは、大規模なデータセット内のパターンを識別してエンベディングを作成することに適しています。アプリケーションでは、言語を処理および生成するためにエンベディングを使用して、コンテンツに固有の複雑な意味とセマンティックな関係を認識できます。詳細については、エンベディング API の概要をご覧ください。
  • Vertex AI Experiments
    • Vertex AI Experiments では、次のものを追跡できます。テスト実行の手順(前処理、トレーニングなど)。2. 入力(アルゴリズム、パラメータ、データセットなど)。3. それらの手順の出力(モデル、チェックポイント、指標など)。
  • Vertex AI Model Registry
    • Vertex AI Model Registry は、ML モデルのライフサイクルを管理できる中央リポジトリです。Vertex AI Model Registry ではモデルの概要を確認できるため、新しいバージョンの整理、追跡、トレーニングの向上が実現します。デプロイするモデル バージョンがある場合は、レジストリから直接エンドポイントに割り当てるか、エイリアスを使用してモデルをエンドポイントにデプロイできます。詳細については、Vertex AI Model Registry の概要をご覧ください。
  • 動画セグメント
    • 動画セグメントは、動画の開始時間と終了時間のオフセットで識別されます。
  • Virtual Private Cloud(VPC)
    • Virtual Private Cloud は、パブリック クラウド環境に割り当てられた共有コンピューティング リソースのオンデマンドで構成可能なプールであり、リソースを使用してさまざまな組織を分離できます。
  • 単語エンベディング
    • 単語エンベディングは、単語を浮動小数点値の密なベクトルとして表現する方法です。これにより、類似する単語に類似したエンコードを適用できます。単語エンベディングは、生成 AI でよく使用され、単語間の関係をキャプチャして、ソースのない新しいテキストやコードを生成します。生成 AI では、単語エンベディングを使用して、新しいテキストやコードを生成できるモデルをトレーニングできます。生成 AI モデルは、単語間の関連性を理解することで、一貫性と関連性のある新しいコンテンツを生成できます。
  • ゼロショット プロンプト(直接プロンプト)
    • 生成 AI におけるゼロショット プロンプトは、追加のトレーニングや例なしで大規模言語モデル(LLM)がタスクを実行できるようにするプロンプトです。これは、モデルに入力と出力の例を提供する少数ショット プロンプトなどの方法とは対照的です。ゼロショット プロンプトは、モデルの既存の知識のみを使用してレスポンスを生成します。詳細については、ゼロショット プロンプトをご覧ください。