Hugging Face TGI を使用して Cloud Run GPU で LLM 推論を実行する
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
次の例は、Llama 3 を使用して大規模言語モデル(LLM)をデプロイして提供するツールキットである Hugging Face Text Generation Inference(TGI)ツールキットを実行するバックエンド サービスを実行する方法を示しています。
サンプル全体については、Cloud Run で TGI DLC を使用して Llama 3.1 8B をデプロイするをご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-02-14 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-02-14 UTC。"],[],[]]