OpenAI发布开源安全模型gpt-oss-safeguard,提供灵活透明的AI安全分类方案。该套件含120位/20位双版本,采用Apache2.0开源协议,支持自由修改集成。创新性实现"实时策略解读"功能,可在安全规则变更时无需重新训练即完成适配,显著降低系统维护成本与响应延迟。
OpenAI发布两款开源安全推理模型gpt-oss-safeguard-120b与20b,标志着其在AI安全领域迈出重要步伐。面对日益严峻的AI安全挑战,此举旨在提升人工智能技术的可靠性与安全性,为行业发展提供关键保障。
OpenAI发布两款开源AI安全模型gpt-oss-safeguard-120b/20b,基于Apache2.0许可允许自由使用。新模型突破传统安全框架,支持开发者根据自定义安全策略进行推理分类,实现灵活可控的AI安全部署。
Mungert
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
openai
gpt-oss-safeguard-20b是基于gpt-oss构建的安全推理模型,拥有210亿参数(其中36亿为活跃参数),专门针对安全用例设计。该模型可根据提供的安全策略对文本内容进行分类,并执行基础安全任务,适用于大语言模型输入输出过滤、在线内容标注等场景。
gpt-oss-safeguard-120b是基于gpt-oss构建的安全推理模型,专门为安全用例设计。该模型能够根据提供的安全策略对文本内容进行分类,并执行一系列基础安全任务,适用于大语言模型输入输出过滤、在线内容标注等场景。