OpenAI 正式发布了两款全新的小型 AI 模型——GPT-5.4mini 与 GPT-5.4nano。这两款模型专为高频、低延迟的任务场景量身定制,标志着小型模型在保持轻量化的同时,在性能上实现了质的飞跃。
核心亮点:低延迟与高效率的完美平衡
官方强调,在代码辅助、系统截图解析及实时图像推理等对响应速度要求极高的场景中,GPT-5.4系列小模型表现优异:

GPT-5.4mini:在代码编写、逻辑推理及多模态理解方面远超前代,运行速度提升了2倍以上。其在多项基准测试中的成绩已逼近体积大得多的满血版 GPT-5.4,能够高效处理复杂的数据库导航及前端代码生成任务。
GPT-5.4nano:作为目前体积最小、成本最低的版本,它专为文本分类、数据提取及简单辅助任务设计,旨在为开发者提供极致的性价比。
规格与定价
在技术参数与使用成本上,两款模型展现了极强的竞争力:

GPT-5.4mini:支持400k 超长上下文窗口。其 API 价格为每百万 Token 输入0.75美元,输出4.50美元。目前已全面接入 API、Codex 及 ChatGPT。
GPT-5.4nano:目前仅通过 API 提供,价格极具破坏力,每百万 Token 输入仅需0.20美元,输出为1.25美元。
这两款模型的发布,预示着 AI 应用将从“追求规模”向“追求实战效率”转型,通过极速的响应能力,为实时 AI 交互和复杂任务流的拆解提供更可靠的底层支持。

