英伟达与香港大学联合发布Orchestrator模型,拥有8亿参数,能协调多种工具和大型语言模型解决复杂问题。该模型在工具使用基准测试中,以更低成本实现更高准确性,并能根据用户偏好智能选择工具。其训练采用名为ToolOrchestra的新强化学习框架,旨在提升小型模型的协调能力。
阿里千问APP上线免费学习模型Qwen3-Learning,面向K-12师生提供拍照答疑和作业批改功能,无使用限制。该模型在多国考纲识别和解题速度上表现优异,与付费服务相当。
阿里千问APP推出基于Qwen3训练的学习大模型Qwen3-Learning,专为学习场景设计,提供拍题答疑和作业批改两大免费服务,不限使用次数。相比OpenAI和谷歌的付费功能,该模型识别准确度高,支持多语言和跨文化解题,融合全球30多国资源。
中国移动推出首款消费级家庭服务型具身智能产品“灵犀”四足机器人,以“拟人化交互”和“场景化服务”为核心,旨在满足儿童陪伴、老人照护和家庭安全等多元化需求。产品深度融合AI大模型技术,具备强大的自然语言理解和持续学习能力,可精准理解用户意图。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
利用强化学习提升扩散大语言模型的推理能力。
通过强化学习驱动的金融推理大模型。
基于《Factorio》游戏的大语言模型测试与学习环境
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
OpenMMReasoner
OpenMMReasoner是一个完全透明的两阶段多模态推理方案,涵盖有监督微调(SFT)和强化学习(RL)。该方案通过精心构建高质量数据集,在多个多模态推理基准测试中超越了强大的基线模型,为未来大规模多模态推理研究奠定了坚实的实证基础。
labhamlet
WavJEPA是基于波形的联合嵌入预测架构的音频基础模型,利用高级语义表示学习解决语音单元或标记级表示学习的不足。在众多下游基准任务中显著优于最先进的时域音频基础模型,同时所需计算资源大幅减少。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
mradermacher
这是PRIME-RL/P1-30B-A3B模型的静态量化版本,是一个300亿参数的大语言模型,专门针对物理、强化学习、竞赛推理等领域优化,支持英语和多语言处理。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大语言模型家族中的30亿参数推理模型,通过提升数据质量和训练方法实现了先进的推理能力。该模型在数学、科学、创意写作、工具使用等多个领域表现出色,支持多阶段课程学习和强化学习训练。
Zigeng
dParallel是一种面向大语言模型的可学习并行解码方法,通过挖掘模型内在并行性实现快速采样。该方法能够显著减少解码步骤,同时保持模型性能,在GSM8K和MBPP等基准测试中实现了8.5-10.5倍的加速。
nvidia
Qwen3-Nemotron-32B-RLBFF是基于Qwen/Qwen3-32B微调的大语言模型,通过强化学习反馈技术显著提升了模型在默认思维模式下生成回复的质量。该模型在多个基准测试中表现出色,同时保持较低的推理成本。
Kwaipilot
KAT-Dev-72B-Exp是一款用于软件工程任务的720亿参数开源大语言模型,在SWE-Bench Verified基准测试中达到74.6%的准确率,是KAT-Coder模型的实验性强化学习版本。
通义深度研究30B是一款具有300亿参数的大语言模型,专为长周期、深度信息搜索任务设计。该模型在多个智能搜索基准测试中表现出色,采用创新的量化方法提升性能,支持智能预训练、监督微调与强化学习。
unsloth
Apriel-1.5-15b-Thinker是ServiceNow Apriel SLM系列中的多模态推理模型,具有150亿参数,能够在文本和图像推理任务上与规模大10倍的模型竞争。该模型通过中期训练方案实现了卓越的推理能力,无需图像SFT训练或强化学习即可达到SOTA性能。
dParallel是一种面向大语言模型的可学习并行解码方法,通过挖掘模型内在并行性实现快速采样,能在保持性能的同时显著减少解码步骤,在GSM8K和MBPP等基准测试中实现8.5-10.5倍的加速效果。
foreverlasting1202
QuestA是一个通过问题增强方法提升大语言模型推理能力的创新框架。它在强化学习训练过程中融入部分解决方案,显著提升了模型在数学推理等复杂任务上的表现,特别是在小参数模型上实现了最优结果。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
QuantFactory
MachineLearningLM-7B-v1是基于Qwen/Qwen2.5-7B-Instruct在数百万合成表格机器学习任务上持续预训练的大语言模型,专门针对表格分类任务优化,支持8到1024个示例的少样本上下文学习。
BBQGOD
DeepSeek-GRM-16B 是一个基于 Self-Principled Critique Tuning (SPCT) 的生成式奖励模型,能为查询-响应生成透明的'原则→批判→分数'评估流程,可用于大语言模型的强化学习、评估和数据收集等任务。
Kwai-Keye
快手Keye-VL是由快手Keye团队打造的前沿多模态大语言模型,在视频理解、视觉感知和推理任务中表现卓越。1.5版本通过创新的快慢视频编码策略、LongCoT冷启动数据管道和强化学习训练策略,在视频理解、图像感知和推理能力上达到新高度,支持长达128k标记的扩展上下文长度。
本项目通过解析PSR.exe生成的MHT文件,让大语言模型学习用户工作流程。