腾讯发布混元2.0大模型,含推理增强版和指令遵循版,总参数406B,支持256K上下文窗口,在数学、代码等复杂推理任务上表现突出。模型采用MoE架构,已上线腾讯云API并在部分应用灰度测试。
谷歌为Gemini应用推出Gemini3Deep Think模式,面向Ultra订阅用户。该模式大幅增强推理能力,专攻复杂数学、科学及逻辑难题,挑战当前顶尖模型。在多项基准测试中表现卓越,如在“人类最后的考试”中无工具得分41.0%,在ARC-AGI-2测试中使用代码执行时成绩领先。
Anthropic发布最强AI模型Claude Opus4.5,在推理、对话和软件工程领域实现突破。该模型性能大幅提升,通过多模态增强和高效执行,提供更智能可靠的交互体验,核心亮点是推理与问题解决能力的显著飞跃。
清华大学等机构联合发布全球首个基于MCP架构的开源RAG框架UltraRAG2.1,通过YAML配置即可实现多模态智能检索系统的多阶段推理与评估,无需编程,显著降低技术门槛,推动检索增强生成技术发展。
通过合成数据增强时间序列理解和推理的模型。
ViDoRAG 是一个结合视觉文档检索增强生成的动态迭代推理代理框架。
一种通过文本迷宫解决任务来增强大型语言模型视觉推理能力的创新方法
PIKE-RAG 是一种专注于领域知识和推理增强生成的模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$7
$35
Google
$2.1
$17.5
$21
$105
$0.7
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Moonshot
Bytedance
$0.8
32
Nanbeige
楠米色4-3B-思维-2511是楠米色系列的最新增强版本,通过先进的蒸馏技术和强化学习优化,在紧凑的3B参数规模下实现了强大的推理能力。该模型在Arena-Hard-V2和BFCL-V4等基准测试中,在参数小于32B的模型中取得了最先进(SOTA)成果。
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
DavidAU
这是一个增强版的多模态视觉语言模型,基于Qwen3-VL-8B-Thinking模型,通过Brainstorm 20x技术扩展至12B参数,采用NEO Imatrix增强的GGUF量化。模型具备强大的图像理解、文本生成和多模态推理能力,在视觉感知、文本质量和创意场景方面都有显著提升。
unsloth
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的综合升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本为2B参数的思考增强版,专门优化了推理能力。
Qwen
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备增强推理能力的8B参数版本。该模型在文本理解、视觉感知、空间理解、长上下文处理等方面全面升级,支持多模态推理和智能体交互。
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
bullerwins
Qwen3-VL是通义系列迄今为止最强大的视觉语言模型,实现了全面升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、增强的空间和视频动态理解能力,以及更强的智能体交互能力。该模型采用2B参数规模,支持指令版和增强推理的思考版。
ExaltedSlayer
这是一个基于Mistral Small 3.2构建的24B参数高效推理模型,转换为MLX-MXFP4格式。模型具有增强的推理能力,支持多模态输入,拥有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上运行。
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用增强推理的思维架构,支持从边缘到云的密集架构和混合专家模型架构。
Qwen3-VL是通义系列最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、增强的空间和视频理解能力,以及强大的智能体交互能力。该模型为2B参数的思考版,专门增强推理能力。
Qwen3-VL-2B-Instruct-FP8是Qwen系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度fp8量化,性能与原始BF16模型几乎相同。该模型具备卓越的文本理解和生成能力、深入的视觉感知与推理能力、长上下文支持以及增强的空间和视频动态理解能力。
suayptalha
Sungur-14B 是一个专门针对土耳其语的大语言模型,基于 Qwen/Qwen3-14B 派生而来。该模型使用包含 41.1k 个土耳其语样本的数据集进行微调,涵盖数学、医学和常识等领域的推理对话,旨在增强土耳其语的本土推理能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用混合专家模型架构,支持增强推理思维功能。
prithivMLmods
多拉多网络冲浪工具扩展版是基于通义千问3-4B微调的函数调用和智能推理模型,专为网络搜索编排、工具增强推理和动态问题解决而设计。它在智能决策、工具选择和结构化执行流程方面表现出色。
foreverlasting1202
QuestA是一个通过问题增强方法提升大语言模型推理能力的创新框架。它在强化学习训练过程中融入部分解决方案,显著提升了模型在数学推理等复杂任务上的表现,特别是在小参数模型上实现了最优结果。
QuantTrio
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、增强的空间和视频动态理解能力以及强大的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、增强的空间和视频动态理解能力,以及强大的智能体交互能力。
MCP Reasoner是为Claude Desktop设计的推理增强工具,提供Beam Search和MCTS两种搜索策略,通过实验性算法提升复杂问题解决能力。
MCP推理器是为Claude Desktop设计的增强推理能力的工具,提供波束搜索和蒙特卡洛树搜索两种算法,并新增实验性策略模拟层以优化复杂问题解决。
Perplexity MCP Server是一个用Go编写的中间件服务器,为AI助手(如Claude和Cursor)提供无缝访问Perplexity API的能力,包括实时搜索和复杂推理功能。
一个为Claude设计的结构化思考工具MCP服务器,用于提升复杂问题解决能力
一个基于量子场计算模型的Claude多实例协同推理服务器,通过场一致性优化实现增强型AI推理能力。
通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力
MCP Chain of Draft Prompt Tool是一个增强LLM推理能力的工具,通过将标准提示转换为Chain of Draft或Chain of Thought格式,显著提高推理质量并减少token使用。
一个增强AI模型推理能力的MCP服务器,通过结构化检索和动态思维链提升问题解决能力。
该项目通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力,提供多步骤精确推理支持。
基于Anthropic研究的MCP服务器,为Claude AI提供'think'工具能力,增强复杂推理任务处理。
MCP Thought Server是一个为AI代理提供高级思维工具的服务,通过模型上下文协议(MCP)增强推理、规划和迭代优化能力。它包含结构化思维、迭代草稿和集成思维等工具,支持SQLite持久化和高级置信度评分系统,可配置环境变量以适应不同需求。
一个基于TypeScript的MCP服务器,提供与Perplexity AI API交互的工具,支持搜索增强查询和内部推理过程展示。
MCP双循环推理器是一个为自主AI代理设计的元认知增强工具,通过双循环框架(哨兵监控和裁决器管理)实现异常检测和经验学习,提升代理的自我意识和可靠性。
高级推理MCP服务器是一个基于序列思维模式的自包含服务器,具备元认知评估、假设检验、集成记忆库和结构化数据存储等高级认知功能,支持双存储架构(图基记忆和文档存储)和增强可视化。
Thoughtful Claude是一个增强Claude推理能力的MCP服务器,通过集成DeepSeek R1的高级推理引擎,为Claude提供复杂多步推理任务处理能力。
一个增强Claude AI文档搜索能力的MCP服务器项目,支持多AI/ML库文档搜索,集成Claude推理能力和智能网络搜索。
一个基于Model Context Protocol (MCP)的服务器,提供对DeepSeek-R1推理能力的访问,使非推理模型能够通过增强的思考生成更好的响应。
该项目通过集成DeepSeek R1的推理引擎,增强Claude处理复杂推理任务的能力,提供高效精准的多步推理解决方案。
MCP Think是一个实现'think'工具的MCP服务器,旨在通过提供结构化思考空间来增强Claude等大型语言模型在复杂任务中的推理能力。
MiniRAG-MCP是一个MCP服务器包装器,围绕MiniRAG项目构建,旨在通过客户端管理的LLM推理采样,为本地设备上的智能体流程提供高效、可靠的检索增强生成(RAG)服务。