Meta 下一代旗舰大模型代号 Avocado,定位为 Llama 系列继任者,计划于 2026 年第一季度发布。该模型将采用闭源商业化路线,性能对标 GPT-5 与 Gemini,旨在与 OpenAI、Google 等公司的封闭模型生态正面竞争。
英伟达小模型NVARC在ARC-AGI2评测中以27.64%的成绩超越GPT-5Pro,且单任务成本仅20美分,远低于对手的7美元,性价比突出。其成功源于独特的零预训练深度学习方法,无需依赖大规模通用数据集。
Perplexity推出BrowseSafe系统,旨在实时防护AI浏览器代理免受网络内容操控。该系统声称检测Prompt注入攻击的成功率达91%,优于GPT-5的85%和PromptGuard-2的35%,且运行速度快,可实时监测。随着AI浏览器代理普及,此类安全方案愈发重要。
OpenAI CEO山姆·奥特曼紧急调整GPT-5.2发布时间,由年底提前至12月9日,以应对谷歌Gemini3的竞争压力。新模型在推理速度、多模态效率和上下文长度上全面领先,分别提升18%、23%并扩展至32,768 tokens,均优于Gemini3当前公开数据。
GPTunneL提供多模型AI服务,可生成文本、图像等,支持多方式支付。
GPT Image 2是AI图像生成与编辑器,可秒速生成高分辨率图像。
强大的AI图像编辑平台,用GPT - Image - 2技术生成、编辑和增强专业图像。
Dechecker可检测GPT5、Claude、Gemini等生成的文本,提升写作质量。
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
-
Bytedance
$0.8
$2
128
Alibaba
$0.4
$8.75
$70
400
$1.75
$14
$0.35
64
$0.63
$3.15
131
$1.8
$5.4
16
Tencent
32
$17.5
$56
$0.7
$2.4
$9.6
Google
$0.14
$0.28
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
bartowski
这是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型通过量化技术显著减少了存储和计算资源需求,同时保持了较好的模型性能,便于在各种设备上部署运行。
这是kldzj/gpt-oss-120b-heretic模型的量化版本,使用llamacpp进行量化处理,提供了多种量化类型选择,包括BF16、Q8_0和MXFP4_MOE等特殊格式,显著提升了模型运行效率。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
TeichAI
本模型基于Qwen3-4B-Thinking-2507,在GPT-5-Codex的1000个示例上进行了微调,专注于文本生成任务,使用Unsloth技术实现了2倍训练速度提升。
Mungert
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
noctrex
这是慧慧GPT-OSS-120B-BF16-abliterated-v2模型的MXFP4_MOE量化版本,专门针对文本生成任务进行优化,提供高效的文本生成能力。该模型通过量化技术降低了计算和存储需求,同时保持了良好的性能。
SiddhJagani
这是OpenAI GPT-OSS-20B模型的MLX格式8位量化版本,使用mlx-lm 0.28.2转换,专为Apple Silicon优化,提供高效的文本生成能力
textcleanlm
这是一个基于 unsloth/gpt-oss-20b-BF16 基础模型的内容保真模型,专门用于将原始文本转换为简洁、清晰的Markdown格式。模型采用Apache 2.0许可证,主要支持英语文本处理。
limeso
这是一个发布在Hugging Face模型中心的Transformer模型,模型卡片文档为自动生成,目前缺少具体的模型详细信息。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基于OpenAI gpt-oss-120b模型的优化版本,采用混合专家(MoE)架构,具备1200亿总参数和50亿激活参数。该模型支持商业和非商业使用,适用于文本生成任务,特别适合AI Agent系统、聊天机器人等应用开发。
MikeKuykendall
这是基于WeOpenML的GPT-OSS 20B模型的GGUF格式版本,首次实现了创新的MoE CPU专家卸载技术。该技术在保持完整生成质量的同时,实现了99.9%的显存缩减,仅需2MB显存即可运行200亿参数的混合专家模型。
Jackrong
本项目通过创新的两阶段训练流程,将GPT的推理能力蒸馏到Llama-3.1-8B模型中。首先通过监督微调进行知识蒸馏和格式对齐,然后利用强化学习激励模型自主探索和优化推理策略,专注于数学推理领域的能力突破。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mix是基于zai-org/GLM-4.6基础模型的量化版本,在文本生成任务上表现出色。该模型通过GPTQ量化技术实现了模型大小的优化,同时保持了良好的性能表现。
Tesslate
WEBGEN DEVSTRAL IMAGES 是一个专注于网页生成的人工智能模型,能够利用 HTML、CSS、JS 和 Tailwind 技术生成单页式网页。该项目基于自定义模板进行训练,采用监督微调方法,使用 GPT-OSS-120B 生成的数据集进行训练。
EpistemeAI
本模型基于GPT-OSS-20B,借助Unsloth强化学习框架进行微调,旨在优化推理效率,同时减少在从人类反馈中进行强化学习(RLHF)式训练期间出现的漏洞。微调过程着重于对齐的鲁棒性和效率,确保模型在不产生过多计算开销的情况下保持推理深度。
geoffmunn
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专为本地推理优化,支持llama.cpp、LM Studio、OpenWebUI、GPT4All等框架。该模型是一个30B参数规模的代码生成和编程助手模型。
GPT Researcher MCP Server是一个基于MCP协议的AI研究服务器,能够通过深度网络搜索和验证,为LLM应用提供高质量、优化的研究结果。
一个简单的适配器,用于将MCP服务器转换为兼容GPT Actions的API
OpenAPITools SDK是一个多AI平台工具管理库,提供统一接口支持Claude、GPT和LangChain等模型的工具集成与执行,支持本地和API两种使用模式。
该项目是一个基于Model Context Protocol (MCP)的stdio服务器,用于将提示转发至OpenAI的ChatGPT (GPT-4o),支持高级摘要、分析和推理功能,适用于LangGraph框架的助手集成。
一个为Cursor IDE设计的代码审查工具,利用OpenAI的GPT模型提供智能代码分析和建议。
一个基于OpenAI GPT-4o/gpt-image-1模型的图像生成与编辑工具,支持通过文本提示生成图像、编辑图像(如修复、扩展、合成等),并兼容多种MCP客户端。
MCP-ChatBot是一个基于模块化能力协议(MCP)的聊天机器人应用,通过容器化架构集成天气服务和GPT-4o模型,提供自然语言交互功能。
一个基于GPT-4o-mini模型的图像分析MCP服务器,可处理URL或本地路径的图像内容分析
GPTDARR是一个基于模型上下文协议(MCP)的AI工具服务器,用于与Sonarr和Radarr集成,帮助AI助手搜索、添加和管理媒体库中的电视节目和电影。
Meta API MCP Server是一个支持多API的网关服务器,通过Model Context Protocol (MCP)协议连接各类API与大型语言模型(如Claude、GPT等),使AI助手能够直接与API交互并访问真实数据源。支持从JSON配置文件或Postman集合快速添加API,提供HTTP方法全面支持和多种认证方式。
一个允许Claude与OpenAI对话并使用gpt-image-1生成图像资产的工具,适用于游戏或网页开发中需要生成单个资产的场景。
一个通过MCP协议直接查询OpenAI模型的服务器,支持o3-mini和gpt-4o-mini模型,提供简洁和详细的回答。
一个基于FastAPI和GPT-4o的轻量级Excel自动化MCP服务器,支持通过自然语言操作Excel文件。
一个基于TypeScript的MCP服务器,提供AI图像和视频生成功能,需GPT4O Image Generator的API密钥支持。
基于TypeScript的MCP服务器,提供AI图像和视频生成功能,需要GPT4O Image Generator的API密钥支持。
一个通过Claude Code无缝集成OpenAI GPT-5 API的MCP服务器,提供文本生成和结构化对话处理功能,优化开发体验。
Image Gen MCP Server是一个通用AI图像生成服务,通过Model Context Protocol(MCP)标准协议为各类LLM聊天机器人提供跨平台、多模型的图像生成能力,支持OpenAI和Google的多种图像模型,实现文本对话到可视化内容的无缝转换。
一个基于OpenAI gpt-image-1模型的图像生成与编辑MCP服务器,支持通过文本提示创建和修改图像,提供便捷的集成方式和丰富的配置选项。
一个基于Git变更分析的自动提交消息生成工具,利用OpenAI的GPT模型为代码变更生成规范的提交信息。
该项目实现了一个MCP服务器,通过OpenAI的gpt-image-1模型提供图像生成和编辑功能,支持文本描述生成图像、基于参考图像编辑或修复图像,并可将结果保存到本地。