Azure AI Content Safety とは
アプリケーション内の「不快なコンテンツ」を検出する AI サービス。
検出対象のコンテンツはテキスト、画像。
色々機能はありますが、今回はテキストの検出機能を利用。
Content
(text or image)
カテゴリ レベル
Hate and Fairness 0
Sexual 2
Violence 0
Self-Harm 0
Azure AI Content Safety
Slide 9
Slide 9 text
評価結果
評価は以下の4カテゴリから行われる。
各カテゴリで 0~7 の Severity Level(以降、レベルと記載)が付けられる。
カテゴリ 内容
Hate and Fairness 特定の人種・地域への差別
いやがらせやイジメ
Sexual ヌードやポルノなど性的な内容
Violence 脅迫、テロなど暴力的な内容
Self-Harm 自傷行為に関する内容
Slide 10
Slide 10 text
掲示板アプリでの活用
投稿を Content Safety に渡して評価する。
評価結果のレベルが4以上だったら、掲示板に投稿させない。
投稿
カテゴリ レベル
Hate and Fairness 0
Sexual 2
Violence 0
Self-Harm 0
Azure AI Content Safety
レベルが高い場合は
掲示板に投稿させない