不適切なコンテンツの検出
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
不適切なコンテンツの検出は、動画内のアダルト コンテンツを検出します。通常、アダルト コンテンツは 18 歳未満には不適切なもので、ヌード、性的描写、ポルノなどを指します(ただし、これらに限定されません)。このようなコンテンツは、漫画やアニメでも検出されます。
不適切なコンテンツの検出は、指定された動画または動画セグメントで検出されたエンティティに対応する不適切なコンテンツのアノテーション(タグ)を付けます。レスポンスでは、不適切なコンテンツが検出された動画フレームのタイムスタンプが返されます。
動画内の不適切なコンテンツを検出するには、annotate
メソッドを呼び出し、features
フィールドに EXPLICIT_CONTENT_DETECTION
を指定します。
Video Intelligence API ビジュアライザをご覧いただき、この機能の動作をご確認ください。
例については、動画の不適切なコンテンツの分析をご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-01-30 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-01-30 UTC。"],[],[]]