OpenAI发布GPT-5.2系列模型,在多个专业基准测试中表现卓越,部分领域超越人类专家。该模型在GDPval测试中,以70.9%的成绩在44个职业任务中领先顶尖专家,并在SWE-bench Pro编程测试中取得突破,成为当前专业知识工作表现最佳的AI模型。
OpenAI发布GPT-5.2系列模型,定位日常专业使用,旨在提升用户经济价值。该系列含Instant、Thinking和Pro版本,在电子表格、演示文稿、代码编写、长文本理解及图像处理等任务上较GPT-5.1有显著改进。
Meta 下一代旗舰大模型代号 Avocado,定位为 Llama 系列继任者,计划于 2026 年第一季度发布。该模型将采用闭源商业化路线,性能对标 GPT-5 与 Gemini,旨在与 OpenAI、Google 等公司的封闭模型生态正面竞争。
AWS在re:Invent2025大会上推出四款自研“Nova2”系列大模型,覆盖文本、图像、视频、语音多模态场景,并首次内置网页检索与代码执行能力,宣称在价格性能比上达到业界领先。其中,Nova2 Lite定位高性价比推理,在多项基准测试中表现优于Claude Haiku4.5和GPT-5Mini,成本仅为后者约50%;Nova2 Pro则面向复杂Agent任务。
利用 DALL-E 3 和 GPT-4 Vision 生成一系列图像
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Bytedance
$0.8
$0.15
$1.5
openai
GPT-OSS系列是OpenAI推出的开放权重模型,专为强大的推理能力、智能体任务和多样化开发者用例设计。该模型能有效解决复杂问题,提供灵活高效的使用体验,支持Apache 2.0开源许可证。
GPT-OSS系列是OpenAI发布的开放权重模型,专为强大推理、智能体任务和多样化开发者用例设计。120B版本拥有1170亿参数(其中51亿为活跃参数),适用于生产环境和需要高推理能力的场景。
Qwen
Qwen3是通义千问系列大语言模型的最新版本,提供17亿参数的GPTQ 8位量化模型,支持思维与非思维模式切换,增强推理能力和多语言支持。
LatentWanderer
GLM-4-32B-0414是GLM家族的新成员,参数规模达320亿,性能与GPT系列相当,支持本地部署。
unsloth
GLM-4-32B-0414是GLM家族的新成员,具备320亿参数规模,性能媲美GPT系列和DeepSeek-V3系列,支持本地部署。
GLM-4-32B-0414是GLM家族的新成员,拥有320亿参数,性能媲美GPT系列和DeepSeek系列,支持本地部署。
THUDM
GLM-4-32B-0414是拥有320亿参数规模的大语言模型,性能与GPT系列相当,支持中英文,擅长代码生成、函数调用和复杂任务处理。
openbmb
MiniCPM3-4B是MiniCPM系列第三代模型,整体性能超越Phi-3.5-mini-Instruct和GPT-3.5-Turbo-0125,与近期多个7B~9B量级模型表现相当。
intlsy
OPT是由Meta AI开发的开放预训练Transformer语言模型,包含1.3B参数,对标GPT-3系列模型
nicholasKluge
Aira-2是Aira指令调优系列的第二版,基于GPT-2的葡萄牙语指令调优模型,适用于文本生成和对话任务。
MBZUAI
LaMini-GPT-1.5B是基于GPT-2-xl架构微调的大型语言模型,属于LaMini-LM系列,专注于指令跟随任务
LaMini-GPT-124M是LaMini-LM模型系列中的一员,基于GPT-2架构,在258万条指令数据集上微调而成,专门用于自然语言指令响应。该模型具有124M参数,能够理解并响应人类自然语言指令,为用户提供相关问题的解答。
cerebras
Cerebras-GPT系列中的111M参数模型,采用GPT-3风格架构,使用The Pile数据集训练,遵循Chinchilla扩展定律实现计算最优。
UBC-NLP
JASMINE是一个面向小样本学习的阿拉伯语GPT模型系列,参数量从3亿至67亿不等,预训练数据规模达235GB文本。
facebook
OPT是由Meta AI推出的开源大语言模型系列,对标GPT-3架构,旨在促进大模型研究的可复现性和社会影响探讨。
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。