マイクロソフトは先日、Azure AI Content Safetyという新しいクラウドサービスを発表しました。これは、顧客が自社のプラットフォーム上で有害なAI生成コンテンツを検出してフィルタリングするのに役立つサービスです。
このサービスは、テキストや画像など、さまざまな形式のコンテンツを分析し、マイクロソフトが定義する「攻撃的」「危険」「好ましくない」部分(冒涜、暴力的な描写、アダルトコンテンツなど)を識別します。コンテンツの危険度を深刻度スコアで評価し、多言語に対応しています。また、メタデータ埋め込みによってコンテンツの生成ツールを特定することも可能です。料金体系は従量課金制です。
業界アナリストは、この動きはマイクロソフトが自社のAIサービスの規制を強化し、悪用や倫理的なリスクを回避しようとしていることを示していると分析しています。