Vertex AI 기반 Veo는 Google의 AI 원칙을 염두에 두고 설계되었습니다. 그러나 개발자가 Google 모델을 안전하고 책임감 있게 테스트하고 배포하는 방법을 이해하는 것이 중요합니다. 개발자 지원을 위해 Vertex AI 기반 Veo에는 사용 사례 내에서 고객이 잠재적으로 유해한 출력을 차단할 수 있도록 안전 기능이 내장되어 있습니다. 자세한 내용은 안전 필터를 참고하세요.
AI 애플리케이션을 개발할 때는 공정성, 해석 가능성, 개인 정보 보호, 보안 권장사항을 사용하는 것이 좋습니다. 자세한 내용은 People + AI Guidebook을 참고하세요.
안전 필터
Vertex AI 기반 Veo는 텍스트, 동영상, 이미지 등 동영상을 생성하기 위한 프롬프트를 입력하는 여러 방법을 제공합니다. Veo에 제공되는 프롬프트는 유해한 카테고리(예: violence, sexual, derogatory, toxic)를 포함한 안전 필터 목록에 따라 평가됩니다. 이러한 안전 필터는 Google Cloud플랫폼 허용 사용 정책, 생성형 AI 금지 사용 정책 또는 Google AI 원칙을 위반하는 입력 이미지와 동영상을 필터링하는 것을 목표로 합니다.
모델이 The
prompt couldn't be submitted 또는 it might violate our
policies과 같은 오류 메시지로 요청에 응답하는 경우 입력으로 인해 안전 필터가 트리거된 것입니다. 요청한 것보다 적은 수의 동영상이 반환되면 안전 요구사항을 충족하지 않아 생성된 일부 출력이 차단됩니다.
안전 필터 코드 카테고리
구성하는 안전 필터에 따라 출력에 다음과 비슷한 안전 코드가 포함될 수 있습니다. '입력 이미지가 Vertex AI의 사용 가이드라인을 위반하므로 Veo가 동영상을 생성할 수 없습니다. 오류라고 생각되면 의견을 보내주세요. 지원 코드: 15236754'
출력에 표시된 코드는 특정 유해한 카테고리에 해당합니다.
다음 표에는 지원 코드와 안전 카테고리 매핑이 표시되어 있습니다.
지원 코드
안전 카테고리
설명
58061214 17301594
하위
personGeneration이 "allow_all"로 설정되지 않았거나 프로젝트가 이 기능의 허용 목록에 없는 경우 아동을 묘사하는 콘텐츠를 생성하라는 요청을 거부합니다.
29310472 15236754
유명인
유명인의 사실적인 표현을 생성하라는 요청을 거부하거나 프로젝트가 이 기능의 허용 목록에 없는 경우 요청을 거부합니다.
64151117 42237218
동영상 안전 위반
안전 위반 콘텐츠를 감지합니다.
62263041
위험한 콘텐츠
잠재적으로 위험할 수 있는 콘텐츠를 감지합니다.
57734940 22137204
혐오
혐오 관련 주제 또는 콘텐츠를 감지합니다.
74803281 29578790 42876398
기타
요청에서 기타 안전 문제를 감지합니다.
92201652
개인 정보
신용카드 번호, 집 주소, 기타 관련 정보의 언급과 같이 텍스트에 포함된 개인 식별 정보 (PII)를 감지합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-10(UTC)"],[],[],null,["# Responsible AI and usage guidelines for Veo\n\nVeo on Vertex AI is designed with Google's [AI\nprinciples](https://ai.google/responsibility/principles/) in mind. However, it\nis important for developers to understand how to test and deploy Google's models\nsafely and responsibly. To aid developers, Veo on Vertex AI has built-in safety\nfeatures to help customers block potentially harmful outputs within their use\ncases. For more information, see [safety filters](#safety-filters).\n\nWe encourage customers to use fairness, interpretability, privacy, and security\nbest practices when developing AI applications. For more information, see [The\nPeople + AI Guidebook](https://pair.withgoogle.com/guidebook/).\n\nSafety filters\n--------------\n\nVeo on Vertex AI offers several ways to input prompts to generate videos, including\ntext, video, and images. Prompts that are provided to Veo are\nassessed against a list of safety filters, which include *harmful categories*\n(for example, `violence`, `sexual`, `derogatory`, and `toxic`). These safety\nfilters aim to filter out input images and videos that violate the [Google Cloud\nPlatform Acceptable Use Policy](https://cloud.google.com/terms/aup?e=48754805),\n[Generative AI Prohibited Use\nPolicy](https://policies.google.com/terms/generative-ai/use-policy), or [Our AI\nPrinciples](https://ai.google/responsibility/principles/).\n\nIf the model responds to a request with an error message, such as `The\nprompt couldn't be submitted` or `it might violate our\npolicies`, then the input is triggering a safety filter. If fewer videos\nthan requested are returned, then some generated output is being blocked for not\nmeeting safety requirements.\n\nSafety filter code categories\n-----------------------------\n\nDepending on the safety filters that you configure, your output may contain a\nsafety code similar to: \"Veo could not generate videos because the input image\nviolates Vertex AI's usage guidelines. If you think this was an error, send\nfeedback. Support codes: **15236754**\"\n\nThe code listed in the output corresponds to a specific harmful category.\n\nThe following table displays the support code to safety category mappings:\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI for Large Language Models\n (LLMs)](/vertex-ai/generative-ai/docs/learn/responsible-ai)\n\n- Learn more about Google's recommendations for [Responsible AI\n practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general)\n\n- Read our blog, [A shared agenda for responsible AI\n progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]