巨量エンジンがAI広告審査モデルを開発。AI生成コンテンツの虚偽広告リスクに対応し、審査効率を大幅向上。素材の90%を10分以内に自動審査可能。....
GoogleはGemini CLIの拡張機能をリリースし、FigmaやStripeなどの企業が直接そのコマンドラインAIツールを統合できるようにしました。これは2日前にOpenAIがChatGPTのサードパーティ統合を開放したことに対抗するものです。両社の戦略は明確に異なっています。一方は協業を開放している一方、他方はアプリケーション権限の審査を厳格に行っています。
OpenAIは有害コンテンツ検出のためChatGPTの会話をスキャンすると発表。脅威がある場合、審査チームへ報告しアカウント停止措置も検討。プライバシー懸念が浮上。....
マスク氏のAIチャットボットGrokがXプラットフォームで一時利用停止に。中東紛争に関するコメントが憎悪表現規定に違反したため。マスク氏は「愚かなミス」と自嘲。AIのコンテンツ審査と表現の自由の課題が浮き彫りに。....
朱雀大模型による検出で、AI生成画像を正確に識別し、コンテンツの真偽判定を支援します。
新広告法違反単語検出ツール
AIと人的審査を組み合わせたコンテンツ審査プラットフォーム
リアルタイム多モーダルコンテンツ審査プラットフォーム
anthropic
$5.76
入力トークン/百万
$28.8
出力トークン/百万
200k
コンテキスト長
reka-ai
-
128k
GeneralAnalysis
GA Guard ThinkingはGeneral Analysisが開発した40億パラメータのオープンソース審査モデルで、言語モデルが生成する不安全、不適合なコンテンツを検出し防止するために特別に設計されています。このモデルは7つのセキュリティカテゴリで訓練され、違法活動、憎悪発言、個人情報漏洩などのリスクコンテンツを効果的に識別できます。
GA Guard LiteはGeneral Analysisが開発した軽量級のオープンソース審査モデルで、言語モデルの出力に含まれる違反コンテンツを検出するために特別に設計されています。このモデルは、違法活動、憎悪発言、個人情報漏洩など7種類のセキュリティリスクを識別でき、AIアプリケーションに効率的なコンテンツセキュリティ保護を提供します。
GA Guard CoreはGeneral Analysisが開発したオープンソースの審査モデルで、違法活動、憎悪発言、個人情報漏洩など7種類の違反コンテンツを検出して分類するために専用に設計されており、AIアプリケーションの安全性とコンプライアンスを保障します。
Roblox
Roblox Guard 1.0は、Llama - 3.1 - 8B - Instructをベースに微調整された最先端の命令微調整大規模言語モデルで、テキスト生成APIのセキュリティ保護を目的として特別に設計されています。このモデルは、プロンプトと応答のレベルで二段階のセキュリティ分類を行うことができ、ユーザーのクエリとモデルの出力を効果的に審査し、コンテンツがセキュリティポリシーに準拠していることを保証します。
tomg-group-umd
DynaGuard-8Bはメリーランド大学とカピタルワンによって開発された80億パラメータのガーディアンモデルで、ユーザーが定義した自然言語ポリシーに基づいてテキストのコンプライアンスを評価し、柔軟なコンテンツ審査ソリューションを提供し、セキュリティとコンプライアンスのベンチマークテストで先進水準に達しています。
Ateeqq
本モデルはNSFW画像分類に特化してファインチューニングされており、コンテンツを3つの安全重要カテゴリに分類可能。コンテンツ審査、セキュリティフィルタリング、コンプライアンスコンテンツ処理システムに適しています。
distill
このモデルは、ベースモデルDeepSeek-R1-蒸留-Qwen-32Bとapproval_bureau_model_loraアダプターを統合したもので、文書審査、テキスト生成、コンテンツ承認関連のシナリオに適しています。
oxyapi
DistilBERTベースの高速軽量テキスト審査モデル、11種類の違反コンテンツタイプを効率的に分類可能
unsloth
これはネットワークコンテンツの審査に使用されるAIモデルで、法令や社会主義の核心価値観に適合しないコンテンツを識別して処理し、健全で秩序あるネットワーク環境を維持することを目的としています。
ToxicityPrompts
PolyGuardはLLM生成コンテンツを保護する多言語セキュリティモデルで、17言語のセキュリティ審査をサポートし、現在最先端の性能を達成しています。
quentintaranpino
FocalNetをファインチューニングしたNSFW画像分類モデルで、コンテンツ審査タスクに使用され、画像を安全、審査必要、不安全の3つに分類します。
DuoGuard
DuoGuard-0.5Bは、12の異なるサブカテゴリーにわたるセキュリティコンテンツ審査のために特別に設計された多言語、デコーダのみの大規模言語モデルベースの分類器です。
Vrandan
DistilBERTアーキテクチャに基づくマルチラベルコンテンツ審査システムで、ユーザーコメント内の潜在的に有害なコンテンツを検出・分類する。高精度かつ軽量な特徴を持つ。
OverseerAI
VISION-1はLlama 3.1 8B Instructをファインチューニングしたバージョンで、コンテンツセキュリティ分析と審査に特化しています。
PolyGuardは17言語に対応した多言語セキュリティ審査モデルで、大規模言語モデルが生成するコンテンツのセキュリティ審査用に特別に設計されています。人間とLLMの間のインタラクションを分析し、リクエストとレスポンスの有害性を判断し、違反したセキュリティポリシーの種類を識別し、多言語セキュリティ審査の空白を埋めます。
andriadze
ModernBERT-baseをファインチューニングしたチャットコンテンツ審査モデル。違法/未成年/排泄物関連コンテンツをブロックするために特別設計
erax-ai
効率的なNSFWコンテンツ検出モデル、画像/動画審査や未成年者の有害コンテンツ接触制限に適応
meta-llama
Llama Guard 3はLlama-3.1-8B事前学習モデルを微調整したコンテンツセキュリティ分類器で、LLMの入力と応答のコンテンツ審査に使用されます。
Llama-3.1-8Bをベースにファインチューニングされたコンテンツセキュリティ分類モデルで、8種類の言語の入力/応答コンテンツ審査をサポートします。
google
ShieldGemmaはGemma 2をベースに構築された一連の安全コンテンツ審査モデルで、4つの危害カテゴリ(性的露出コンテンツ、危険コンテンツ、ヘイトスピーチ、ハラスメント)に対するコンテンツ審査を行います。
Twitch MCPサーバーは、Twitchの配信者向けのAIツールセットです。Model Context Protocol(MCP)を通じて、Gemini CLIやQwen Coder、Claude CodeなどのチャットアシスタントをTwitchチャットに接続し、チャット管理、コンテンツ審査、視聴者とのインタラクション機能を実現します。