不適切なコンテンツを検出する(セーフサーチ)

セーフサーチ検出は、アダルト コンテンツや暴力的なコンテンツなど、露骨な表現を含むコンテンツを画像から検出します。この機能は 5 つのカテゴリ(adultspoofmedicalviolenceracy)を使用し、それぞれのカテゴリが特定の画像に存在する可能性を返します。フィールドの詳細については、SafeSearchAnnotation ページをご覧ください。

セーフサーチ検出リクエスト

Google Cloud プロジェクトと認証を設定する