대규모 언어 모델(LLM)은 언어 번역, 텍스트 요약, 창작 작성, 코드 생성, 챗봇 및 가상 어시스턴트 구동, 검색엔진 및 추천 시스템 보완을 수행할 수 있습니다. 그와 동시에 초기 단계 기술로서 발전하는 기능과 이를 활용하면 악용, 오용, 의도치 않거나 예측하지 못한 결과가 발생할 수 있습니다. 대형 언어 모델은 불쾌감을 주거나 민감하지 않거나 사실에 맞지 않는 텍스트를 포함하여 예상치 못한 출력을 생성할 수 있습니다.
또한 LLM의 놀라운 다양성으로 인해 발생할 수 있는 의도치 않거나 예측하지 못한 출력의 유형을 정확히 예측하기가 어렵습니다. 이러한 위험과 복잡성을 고려하여 Vertex AI 생성형 AI API는 Google AI 원칙을 염두에 두고 설계되었습니다. 그러나 개발자가 이를 이해하고 안전하고 책임감 있는 배포를 위해 모델을 테스트하는 것이 중요합니다. Vertex AI Studio에서는 개발자를 지원하기 위해 콘텐츠 필터링이 기본 제공되며 Google의 생성형 AI API는 고객이 Google의 안전 필터를 테스트하고 사용 사례와 비즈니스에 적합한 신뢰도 기준을 정의하는 데 도움이 되는 안전 속성 점수를 제공합니다.
자세한 내용은 안전 필터 및 속성 섹션을 참조하세요.
생성형 API가 고유한 사용 사례 및 컨텍스트에 통합된 경우 추가적인 책임감 있는 AI 고려사항과 제한사항을 고려해야 합니다. 공정성, 해석 가능성, 개인 정보 보호 및 보안 권장 지침을 승격하는 것이 좋습니다.
생성형 AI 모델을 사용할 때 발생할 수 있는 제한사항은 다음과 같습니다(이에 국한되지 않음).
특이한 케이스: 특이한 케이스는 학습 데이터에 잘 표현되지 않는 일반적이지 않거나 드물거나 예외적인 상황을 나타냅니다. 이러한 케이스로 인해 모델 과신, 잘못된 컨텍스트 해석, 부적절한 출력 등 모델 성능이 제한될 수 있습니다.
모델 할루시네이션, 그라운딩, 사실성: 생성형 AI 모델은 실제 지식, 물리적 속성 또는 정확한 이해에 대한 사실성이 부족할 수 있습니다. 이러한 제한사항으로 인해 모델 할루시네이션이 발생할 수 있습니다. 모델 할루시네이션이란 그럴싸하게 들리지만 사실 관계가 틀렸거나, 관련성이 없거나, 부적절하거나, 모순적인 출력이 생성될 수 있는 경우를 의미합니다. 이러한 오류 가능성을 줄이기 위해 모델을 특정 데이터 기반으로 학습시킬 수 있습니다. Vertex AI의 그라운딩에 대한 자세한 내용은 그라운딩 개요를 참조하세요.
데이터 품질 및 미세 조정: 모델에 표시되는 프롬프트 또는 데이터 입력의 품질, 정확성, 편향은 성능에 큰 영향을 미칠 수 있습니다. 사용자가 부정확하거나 잘못된 데이터 또는 프롬프트를 입력하면 모델에 최적화되지 않은 성능이나 거짓 모델 출력이 있을 수 있습니다.
편향 증폭: 생성형 AI 모델은 학습 데이터의 기존 편향을 의도치 않게 증폭시켜 사회적 편견과 특정 그룹의 불공평한 대우를 더욱 강화하는 결과가 발생할 수 있습니다.
언어 품질: 모델은 평가 대상 벤치마크에 매우 뛰어난 다국어 기능을 제공하지만 대부분의 벤치마크(모든 공정성 평가 포함)는 영어로 제공됩니다. 자세한 내용은 Google 연구팀 블로그를 참조하세요.
생성형 AI 모델은 사용자마다 일관성 없는 서비스 품질을 제공할 수 있습니다. 예를 들어 학습 데이터의 과소 표현으로 인해 텍스트 생성이 일부 언어나 언어 다양성에 효과적이지 않을 수 있습니다. 영어가 아닌 언어나 표현이 적은 영어와 유사한 언어의 경우 성능이 저하될 수 있습니다.
공정성 벤치마크 및 하위 그룹: 생성형 AI 모델에 대한 Google 연구팀의 공정성 분석은 다양한 잠재적 위험을 포괄적으로 다루지 않습니다. 예를 들어 성별, 인종, 민족성, 종교 축에 따른 편향에 초점을 맞추지만 영어 데이터와 데이터 출력에 대한 분석만 수행합니다. 자세한 내용은 Google 연구팀 블로그를 참조하세요.
제한된 도메인 전문 지식: 생성형 AI 모델은 고도로 전문화되거나 기술적인 주제에 대한 정확하고 자세한 응답을 제공하는 데 필요한 깊이 있는 지식이 부족하여 피상적이거나 잘못된 정보를 전달할 수 있습니다. 전문화되고 복잡한 사용 사례의 경우 모델은 도메인 특정 데이터에 맞게 조정되어야 하며 개별 권리에 중대한 영향을 미칠 가능성이 있는 컨텍스트에 인간이 의미 있게 감독해야 합니다.
입력 및 출력의 길이와 구조: 생성형 AI 모델은 최대 입력 및 출력 토큰 한도가 있습니다. 입력이나 출력이 이 한도를 초과하면 안전 분류자가 적용되지 않으므로 결국 모델 성능이 저하될 수 있습니다. 모델은 광범위한 텍스트 형식을 처리하도록 설계되었지만 입력 데이터가 비정상적이거나 복잡한 구조인 경우 성능에 영향을 줄 수 있습니다.
권장사항
이 기술을 안전하고 책임감 있게 사용하려면 또한 내장된 기술적 보호 장치 외에도 사용 사례, 사용자, 비즈니스 컨텍스트에 따라 기타 위험 요소를 고려하는 것이 중요합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]