可灵AI公司宣布,其O1视频大模型已全量开放。该模型采用多模态视觉语言统一架构,支持文字、图像、视频融合输入,并引入思维链推理,号称全球首个统一多模态视频大模型。它可一次性完成文生视频、图生视频、局部编辑及镜头延展等任务,无需分步操作。
Meta AI推出CoT-Verifier模型,通过分析链式思维每一步的“电路轨迹”来定位推理错误。与传统仅验证输出的方法不同,该模型先进行前向推理,再提取归因图,发现正确与错误推理的图结构差异显著。团队利用轻量级分类器实现高效验证,已在Hugging Face发布。
Meta AI实验室推出基于Llama3.18B的CoT-Verifier模型,通过TopK转码器机制实现白盒验证,帮助开发者精准定位和修正AI链式思维推理中的错误环节,突破传统验证方法的局限。
谷歌发布Gemini3,首次提供100万tokens上下文窗口,原生支持文本、图像、视频与代码多模态推理。Gemini3 Pro在GPQA测试获91.9%准确率,LMArena以1501分超越GPT-5.1与Claude4.5登顶。采用Deep Think推理模式,通过“思维签名”产品化推理链,在逻辑、事实与科学推理方面表现突出。
基于Deepseek-R1-14B优化的角色扮演与思维链(CoT)模型,适合长文本创作与对话。
创新的多模态链式思维框架,提升视觉推理能力
点燃语言智能,从思维链到语言代理
个性化AI代理与思维链
Baidu
-
输入tokens/百万
输出tokens/百万
32
上下文长度
Alibaba
Openai
$0.63
$3.15
131
Chatglm
$8
$16
128
$2
Tencent
$0.8
$1
$4
64
$3
$9
16
Bytedance
Xai
$21
$105
$420
200
Sensetime
$1.5
$4.5
squ11z1
Hypnos i1-8B 是基于 Nous Hermes 3(Llama 3.1 8B)的专业推理模型,专注于复杂逻辑、思维链推理和数学问题求解。该模型在混合量子-经典机器学习领域进行了独特探索,通过引入量子噪声注入提升了模型的创造力和推理能力。
prithivMLmods
Olmo-3-Think是艾伦人工智能研究所推出的完全开源的语言模型系列,包含7B和32B两种规模。该模型经过专门训练,能够展现明确的推理链,支持透明的逐步推理和可检查的中间思维痕迹,在推理、数学和代码任务中表现出色。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
allenai
Olmo 3是由Allen Institute for AI开发的新一代语言模型家族,包含7B和32B的指令和思维变体。该模型在长链式思维方面表现出色,能显著提升数学和编码等推理任务的性能。所有代码、检查点和训练细节都将公开,推动语言模型科学发展。
Olmo 3是由Allen Institute for AI开发的新一代语言模型系列,包含7B和32B两种规模,有指令和思考两种变体。该模型基于Dolma 3数据集进行预训练,在Dolci数据集上进行后训练,具备长链式思维能力,在数学和编码等推理任务上表现优异。
Olmo 3是由Allen Institute for AI开发的一系列语言模型,包含7B和32B两种规模,具有指令式和思考式两种变体。该模型在长链式思维方面表现出色,能有效提升数学和编码等推理任务的性能。采用多阶段训练方式,包括有监督微调、直接偏好优化和可验证奖励的强化学习。
Olmo 3是由Allen Institute for AI (Ai2)开发的一系列语言模型,包含7B和32B两种规格,有Instruct和Think两种变体。该模型基于Transformer架构,具有长链思维能力,可有效提升数学和编码等推理任务的表现。
Olmo 3是由Allen Institute for AI开发的开源语言模型系列,包含7B和32B两种规格,分为指令(Instruct)和思考(Think)两种变体。该模型具有出色的长链思维能力,能够显著提升数学和编码等推理任务的表现。
Olmo 3是由Allen Institute for AI开发的全新语言模型家族,包含7B和32B两种规模,有指令(Instruct)和思维(Think)两种变体。该模型采用长链式思维提升数学和编码等推理任务表现,旨在推动语言模型科学发展。
Olmo-3-32B-Think-DPO是Allen AI开发的32B参数语言模型,采用直接偏好优化(DPO)训练,具备长链式思维推理能力,在数学、编码等复杂推理任务上表现优异。
Olmo 3 32B Think SFT是基于Transformer架构的自回归语言模型,在长链思维推理方面表现出色,特别擅长处理数学和编码等复杂推理任务。该模型在Dolma 3数据集上进行预训练,并在Dolci数据集上进行监督微调。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
noctrex
慧慧Qwen3-VL-4B思维消除模型的量化版本,基于Qwen3-VL-4B模型进行优化,专门设计用于消除思维链推理过程,可搭配最新的llama.cpp使用,提供高效的图像文本转文本处理能力。
这是Qwen3-VL-2B-Thinking模型的Llamacpp imatrix量化版本,提供了多种量化类型的文件,可在不同硬件环境下高效运行。该模型是一个2B参数的多模态视觉语言模型,具备思维链推理能力。
这是PromptCoT-2.0-SelfPlay-30B-A3B模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型采用了思维链提示和自博弈训练技术,通过量化优化实现了更高效的推理性能。
thenexthub
OpenModel-1T-A50B-Instruct是NeXTHub开发的万亿参数混合专家模型,结合进化思维链训练方法,在推理能力和能源效率上取得平衡,具备深度推理能力和128K长上下文处理能力。
这是一个基于Qwen3-VL-32B-Thinking模型转换的4位量化版本,专门针对MLX框架优化。该模型是一个32B参数规模的多模态视觉语言模型,具备思维链推理能力,能够同时处理图像和文本输入,生成高质量的文本响应。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
Salesforce
GTA1是基于GRPO强化学习训练的GUI接地模型,专门用于图形用户界面自动化操作。相较于依赖冗长思维链推理的方法,GRPO直接激励可操作和有根据的响应,在多个基准测试中表现出卓越的接地性能。
Sequential Thinking MCP是一个提供结构化思维过程的MCP服务器,通过分步解决问题、管理假设并与Recall区块链集成来存储思维日志,支持动态调整和反思性思考。
一个增强AI模型推理能力的MCP服务器,通过结构化检索和动态思维链提升问题解决能力。
一个利用Deepseek R1模型的思维链进行推理的MCP服务工具,支持在Claude Desktop等客户端中使用。
MUXI.ai是一个开源的多AI代理系统框架,提供持久化记忆、标准化通信协议和思维链追踪功能,支持多种接口集成,旨在为开发者构建高级AI应用提供模块化、可扩展的平台。
MCP-CoConuT是一个基于MCP协议的服务器,为Cursor IDE提供连续思维链(CoConuT)集成服务,支持思维分析、分支管理和质量评估,采用模块化设计并支持多语言输出。
Brain-MCP是一个为AI提供完整记忆管理系统的MCP服务,模拟人类思维过程,支持短期记忆缓存、长期记忆关联存储和思维链管理,实现AI的持续学习和经验积累。
一个专注于结构化顺序思维的MCP服务器,提供问题分解、推理链追踪和思维模式存储功能,并与记忆银行系统集成。