さらに、LLM には驚くべき汎用性があるため、生成される可能性がある意図しない出力や予期しない出力の種類を正確に予測することも難しくなっています。こうしたリスクと複雑さを考慮して、Vertex AI の生成 AI API は Google の AI に関する原則を念頭に置いて設計されています。ただし、安全かつ責任を持ってデプロイするには、デベロッパーがモデルを理解してテストすることが重要です。デベロッパーを支援するため、Vertex AI Studio にはコンテンツ フィルタリングが組み込まれており、また生成 AI API には、お客様が Google の安全性フィルタをテストして、ユースケースやビジネスに適した信頼度のしきい値を定義できる安全性属性のスコアリングが用意されています。詳細については、安全フィルタと属性のセクションをご覧ください。
生成 API を固有のユースケースやコンテキストに統合する場合は、責任ある AI に関する別の考慮事項や制限事項を検討しなければならない場合があります。お客様には、公平性、解釈可能性、プライバシー、セキュリティの推奨プラクティスを促進することをおすすめします。
モデルのハルシネーション、根拠づけ、真正性: 生成 AI モデルには、実世界の知識、物理的特性、正確な理解に関する真正性が欠落している場合があります。この制限により、モデルのハルシネーションにつながる可能性があります。これにより、もっともらしい内容であるかのように聞こえるものの、事実とは異なる、無関係、不適切、または意味のない出力が生成される可能性があります。この可能性を減らすには、モデルが特定のデータに根拠づけされるようにします。Vertex AI での根拠づけの詳細については、根拠づけの概要をご覧ください。
バイアス増幅: 生成 AI モデルによってトレーニング データに存在する既存のバイアスが意図せず増幅されて、社会的偏見や特定のグループに対する不平等な扱いをさらに強める結果につながる可能性があります。
言語の品質: モデルは評価対象のベンチマークについて優れた多言語機能を備えていますが、ベンチマークの大部分(すべての公平性評価を含む)は英語で記述されています。詳細については、Google Research ブログをご覧ください。
生成 AI モデルでは、ユーザーごとに提供されるサービスの品質が異なる場合があります。たとえば、一部の言語や言語の種類では、トレーニング データの表現が少なくなるため、テキスト生成が効果的でない場合があります。英語以外の言語や、表現の少ない英語のバリエーションでは、パフォーマンスが低下する可能性があります。
公平性ベンチマークとサブグループ: Google Research の生成 AI モデルの公平性分析は、さまざまな潜在的なリスクを網羅的に説明するものではありません。たとえば、性別、人種、民族、宗教の軸に沿ったバイアスに注目していますが、分析は英語のデータとモデルの出力に対してのみ行います。詳細については、Google Research ブログをご覧ください。
限定的な分野の専門知識: 生成 AI モデルは、高度に特化したトピックや技術的なトピックについて、正確で詳細な回答を提供するのに必要な深い知識が欠落しているために、表面的な情報や誤った情報を出力する可能性があります。特殊で複雑なユースケースでは、モデルをその分野固有のデータでチューニングする必要があります。また、個人の権利に実質的な影響を与える可能性がある状況では、人間による有意な管理が必要になります。
入力と出力の長さと構造: 生成 AI モデルには、入力と出力のトークンの上限があります。入力または出力がこの上限を超えると、安全性分類器が適用されず、最終的にモデルのパフォーマンスが低下する可能性があります。モデルはさまざまなテキスト形式を処理するように設計されていますが、入力データが通常とは異なる構造や複雑な構造を持つ場合は、パフォーマンスに影響する可能性があります。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-09-04 UTC。"],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]