AWS推出Amazon Bedrock Custom Model Import功能,支持用户部署20亿和120亿参数的GPT-OSS开源模型。该功能允许企业将现有应用迁移至AWS平台,同时保持API兼容性。用户只需上传模型文件至Amazon S3,通过控制台启动导入,AWS将自动处理GPU配置和推理服务器搭建,简化部署流程。
OpenAI发布开源安全模型gpt-oss-safeguard,提供灵活透明的AI安全分类方案。该套件含120位/20位双版本,采用Apache2.0开源协议,支持自由修改集成。创新性实现"实时策略解读"功能,可在安全规则变更时无需重新训练即完成适配,显著降低系统维护成本与响应延迟。
OpenAI发布两款开源安全推理模型gpt-oss-safeguard-120b与20b,标志着其在AI安全领域迈出重要步伐。面对日益严峻的AI安全挑战,此举旨在提升人工智能技术的可靠性与安全性,为行业发展提供关键保障。
OpenAI发布两款开源AI安全模型gpt-oss-safeguard-120b/20b,基于Apache2.0许可允许自由使用。新模型突破传统安全框架,支持开发者根据自定义安全策略进行推理分类,实现灵活可控的AI安全部署。
开放AI的GPT-OSS-120B和GPT-OSS-20B提供强大的推理能力,开发人员友好的功能,并采用Apache 2.0许可证,实现人工智能的民主化访问。
bartowski
这是kldzj/gpt-oss-120b-heretic模型的量化版本,使用llamacpp进行量化处理,提供了多种量化类型选择,包括BF16、Q8_0和MXFP4_MOE等特殊格式,显著提升了模型运行效率。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
Mungert
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
noctrex
这是慧慧GPT-OSS-120B-BF16-abliterated-v2模型的MXFP4_MOE量化版本,专门针对文本生成任务进行优化,提供高效的文本生成能力。该模型通过量化技术降低了计算和存储需求,同时保持了良好的性能。
SiddhJagani
这是OpenAI GPT-OSS-20B模型的MLX格式8位量化版本,使用mlx-lm 0.28.2转换,专为Apple Silicon优化,提供高效的文本生成能力
textcleanlm
这是一个基于 unsloth/gpt-oss-20b-BF16 基础模型的内容保真模型,专门用于将原始文本转换为简洁、清晰的Markdown格式。模型采用Apache 2.0许可证,主要支持英语文本处理。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基于OpenAI gpt-oss-120b模型的优化版本,采用混合专家(MoE)架构,具备1200亿总参数和50亿激活参数。该模型支持商业和非商业使用,适用于文本生成任务,特别适合AI Agent系统、聊天机器人等应用开发。
MikeKuykendall
这是基于WeOpenML的GPT-OSS 20B模型的GGUF格式版本,首次实现了创新的MoE CPU专家卸载技术。该技术在保持完整生成质量的同时,实现了99.9%的显存缩减,仅需2MB显存即可运行200亿参数的混合专家模型。
Jackrong
本项目通过创新的两阶段训练流程,将GPT的推理能力蒸馏到Llama-3.1-8B模型中。首先通过监督微调进行知识蒸馏和格式对齐,然后利用强化学习激励模型自主探索和优化推理策略,专注于数学推理领域的能力突破。
Tesslate
WEBGEN DEVSTRAL IMAGES 是一个专注于网页生成的人工智能模型,能够利用 HTML、CSS、JS 和 Tailwind 技术生成单页式网页。该项目基于自定义模板进行训练,采用监督微调方法,使用 GPT-OSS-120B 生成的数据集进行训练。
EpistemeAI
本模型基于GPT-OSS-20B,借助Unsloth强化学习框架进行微调,旨在优化推理效率,同时减少在从人类反馈中进行强化学习(RLHF)式训练期间出现的漏洞。微调过程着重于对齐的鲁棒性和效率,确保模型在不产生过多计算开销的情况下保持推理深度。
基于microsoft/phi-4(14B)基础模型的三阶段训练GRPO推理测试模型,通过SFT→RLHF→SFT流程微调,具备优秀的多步推理能力
openai
gpt-oss-safeguard-20b是基于gpt-oss构建的安全推理模型,拥有210亿参数(其中36亿为活跃参数),专门针对安全用例设计。该模型可根据提供的安全策略对文本内容进行分类,并执行基础安全任务,适用于大语言模型输入输出过滤、在线内容标注等场景。
gpt-oss-safeguard-120b是基于gpt-oss构建的安全推理模型,专门为安全用例设计。该模型能够根据提供的安全策略对文本内容进行分类,并执行一系列基础安全任务,适用于大语言模型输入输出过滤、在线内容标注等场景。
mradermacher
这是一个基于AmanPriyanshu/gpt-oss-6.0b-specialized-all-pruned-moe-only-7-experts的量化版本模型,采用混合专家架构和剪枝技术,提供多种量化类型以满足不同场景需求。模型支持英语文本生成任务。
Sci-fi-vy
GPT-OSS-20B是OpenAI推出的开放权重模型,专为强大推理、智能体任务和多样化开发者用例设计。该模型具有210亿参数(其中36亿为活跃参数),采用混合专家架构,支持低延迟本地部署和特定场景应用。
leeminwaan
这是一个基于GPT架构的42亿参数专家混合模型,经过剪枝优化并仅保留4个专家。提供多种量化版本,专为消费级硬件设计,支持高效推理和便捷部署。
2imi9
GPT-OSS-20B-NVFP4 是 OpenAI GPT-OSS-20B 模型的量化版本,采用 NVIDIA 先进的 NVFP4 量化格式。该模型在保持显著内存效率提升的同时,相比 MXFP4 量化能提供更出色的准确率保留率,专为高性能推理场景设计。