商汤科技开源多模态自主推理模型SenseNova-MARS,提供8B和32B版本。该模型是首个Agentic VLM,融合动态视觉推理与图文搜索,能理解图像并自主推理,推动多模态大模型发展。
阶跃星辰开源语音推理模型Step-Audio-R1.1在权威评测中夺冠,以96.4%准确率超越多个主流闭源模型,刷新历史纪录。
英伟达在NeurIPS2025发布L4级自动驾驶推理模型Alpamayo-R1,基于Cosmos-Reason系列,可同时处理摄像头、激光雷达和文本指令,通过内部推理输出驾驶决策。模型采用视觉、语言、动作三模态端到端统一架构,避免模块误差叠加,旨在为车辆赋予“人类常识”。
OpenAI发布两款开源安全推理模型gpt-oss-safeguard-120b与20b,标志着其在AI安全领域迈出重要步伐。面对日益严峻的AI安全挑战,此举旨在提升人工智能技术的可靠性与安全性,为行业发展提供关键保障。
昆仑万维开源的高性能数学代码推理模型,性能卓越
OpenThinker-32B 是一款强大的开源推理模型,专为提升开放数据推理能力而设计。
DeepSeek-R1-Distill-Qwen-7B 是一个开源的推理模型,专注于数学、代码和推理任务。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
allenai
MolmoAct是由艾伦人工智能研究所开发的开源机器人操作动作推理模型,基于Qwen2.5-7B和SigLip2视觉骨干网络构建,专门针对家庭和桌面环境中的单臂Franka机器人操作任务进行优化。
MolmoAct是由艾伦人工智能研究所开发的全开源机器人操作动作推理模型,基于Qwen2.5-7B和SigLip2视觉骨干网络构建,专门用于家庭和桌面环境中的机器人操作任务。
MolmoAct是由艾伦人工智能研究所开发的开源动作推理模型,专门用于机器人操作任务。该模型基于Qwen2.5-7B和SigLip2构建,在家庭和桌面环境中的93种操作任务上训练,具有领先的视觉-语言-动作处理能力。
MolmoAct是由艾伦人工智能研究所开发的开源动作推理模型,专门用于机器人操作任务。该模型基于Qwen2.5-7B和SigLip2视觉骨干网络,在家庭和桌面环境中的93种独特操作任务上训练,具有领先的视觉-语言-动作推理性能。
internlm
Intern-S1是目前最先进的开源多模态推理模型,结合了强大的通用任务处理能力和在广泛科学任务中的卓越性能,可与领先的闭源商业模型相媲美。该模型在5T token数据集上进行持续预训练,其中超过50%是专业科学数据,具备动态分词器能够原生理解分子式、蛋白质序列和地震信号。
Intern-S1是目前最先进的开源多模态推理模型,结合了强大的通用任务能力和在广泛科学任务上的卓越性能,可与领先的闭源商业模型相媲美。
unsloth
Phi-4推理增强版是微软研究院开发的140亿参数开源推理模型,通过监督微调和强化学习优化,专注于数学、科学和编程领域的高级推理能力。
Phi-4-reasoning-plus 是由微软研究院开发的开源推理模型,专注于数学、科学和编程领域的高级推理能力。
Skywork
天工-R1V2-38B是当前最先进的开源多模态推理模型,在多项基准测试中表现卓越,具备强大的视觉推理与文本理解能力。
YOYO-AI
融合了开源社区最顶尖的14B推理模型与代码模型,采用SCE合并技术,以Qwen2.5-Coder-14B作为基础模型进行融合。
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
YOYO-O1-32B是一个融合了开源社区顶尖32B推理模型与代码模型的多功能大语言模型,采用SCE融合技术构建。