OpenAI确认GPT-5内部思考过程文件泄露属实,强调这是模型设计的创新特性而非安全漏洞。泄露内容展示了该模型解决数独等复杂逻辑任务时的独特推理链条,引发行业对人工智能自主推理能力发展的广泛关注。
月之暗面发布并开源Kimi K2Thinking模型,显著提升智能代理和推理能力。该模型能自主边思考边使用工具,无需用户干预,支持长达300轮工具调用和多轮深度思考,旨在高效处理复杂任务。
阿里通义千问推出Qwen3-Max模型,新增“深度思考”模式,通过强化推理链分析和多步骤问题拆解,显著提升复杂任务处理效率。该模型参数量超1万亿,预训练数据达36T tokens,是目前规模最大、能力最强的版本,在代码和智能体能力方面均有明显进步。
IBM与芯片初创公司Groq达成战略合作,将Groq的高性能AI推理技术集成至watsonx平台,旨在为企业客户提供更快、更具成本效益的AI解决方案。用户可通过Watsonx Orchestrate直接访问GroqCloud服务。Groq凭借自研语言处理单元架构,在特定AI推理任务上声称比传统GPU系统更快。
小米首个推理大模型MiMo开源,专为推理任务设计,性能卓越。
通过去噪生成模型进行空间推理,解决复杂分布下的视觉任务。
DeepSeek 是一款先进的 AI 语言模型,擅长逻辑推理、数学和编程任务,提供免费使用。
一种通过文本迷宫解决任务来增强大型语言模型视觉推理能力的创新方法
openai
$144
输入tokens/百万
$576
输出tokens/百万
200k
上下文长度
$14.4
$57.6
$7.92
$31.68
google
$2.16
$18
1M
minimax
-
$108
$432
deepseek
$3.96
$15.77
128k
$4.03
$15.98
chatglm
$0.8
$2
upstage
65.5k
$0.72
$2.88
$21.6
$86.4
anthropic
tencent
$1
$4
64k
$0.86
$1.3
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
这是一个基于Qwen3-VL-30B的量化版本模型,专门用于图像文本到文本的转换任务。该模型通过量化技术优化了原始模型,提供了更高效的推理解决方案。
GilbertAkham
这是一个基于DeepSeek-R1-Distill-Qwen-1.5B的多任务微调模型,通过LoRA适配器在多个数据集上进行训练,具备强大的多任务泛化和推理能力,能够处理广泛的自然语言和基于推理的任务。
amazon
Chronos-2是一个拥有1.2亿参数的时间序列基础模型,支持零样本预测。它在单一架构内支持单变量、多变量和协变量感知任务,在多个基准测试中实现了零样本预测的最先进精度,且推理效率极高。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
hasanbasbunar
Lodos-24B-Instruct-2510是基于Mistral-Small-3.2-24B-Instruct-2506微调的土耳其语大语言模型,使用TRL框架进行全监督微调,专门针对土耳其语指令遵循任务优化,支持长文本生成和复杂推理。
cturan
MiniMax-M2 是一个基于 llama.cpp 实验性分支构建的大语言模型,具有混合专家架构,支持高效的文本生成和推理任务。该模型需要特定的实验性分支才能正常运行。
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
dleemiller
FineCat-NLI Large是基于tasksource/ModernBERT-large-nli模型微调的自然语言推理模型,在高质量的FineCat-NLI数据集上训练,结合了多个优秀模型的优势,在NLI任务中表现出色,同时保持了ModernBERT架构的高效特性。
P1 - 30B - A3B是一个300亿参数的大语言模型,经过MXFP4_MOE量化处理,在保持模型性能的同时优化了推理效率,适用于文本生成任务。
这是PromptCoT-2.0-SelfPlay-30B-A3B模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型采用了思维链提示和自博弈训练技术,通过量化优化实现了更高效的推理性能。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
这是基于Intern-S1模型的MXFP4混合专家量化版本,专门针对图像文本到文本任务进行了优化,通过量化技术提升了推理效率。
strangervisionhf
这是一个修复后的图像文本转文本模型,解决了原模型在最新Transformers版本中推理失败的问题。该模型专门用于图像识别和文本生成任务,支持多模态输入处理。
这是GLM-4.5-Air-REAP-82B-A12B模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于cerebras的GLM-4.5-Air-REAP-82B-A12B基础模型,通过MXFP4混合专家量化技术实现,在保持性能的同时显著减小模型体积和推理成本。
Hugguf
Qwen3-VL-30B-A3B-Instruct是基于Qwen3-VL-30B模型的多模态视觉语言模型,支持图像和文本的联合理解与生成任务。该模型采用先进的视觉语言融合架构,能够处理复杂的多模态推理任务。
这是Qwen3-Coder-REAP-25B-A3B模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型基于25B参数的Qwen3-Coder架构,通过MXFP4量化技术优化了存储和推理效率,同时保持了良好的性能表现。
QuantTrio
Qwen3-VL-32B-Thinking-AWQ是基于Qwen/Qwen3-VL-32B-Thinking模型的量化版本,是通义系列中最强大的视觉语言模型。该模型具备卓越的文本理解与生成能力、深入的视觉感知与推理能力,支持长上下文和视频理解,适用于图像文本到文本的转换任务。
Think MCP是一个实现MCP服务器的项目,提供'think'工具以支持AI代理在复杂任务中进行结构化推理,灵感来自Anthropic的研究。该工具通过记录思考过程帮助AI处理信息、回溯或遵守策略,适用于工具输出分析、策略密集环境和顺序决策场景。
通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力
该项目通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力,提供多步骤精确推理支持。
基于Anthropic研究的MCP服务器,为Claude AI提供'think'工具能力,增强复杂推理任务处理。
Adaptive Graph of Thoughts是一个基于Neo4j图数据库的智能科学推理框架,通过图结构实现复杂的科学推理任务,支持与Claude Desktop等AI应用集成。
Thoughtful Claude是一个增强Claude推理能力的MCP服务器,通过集成DeepSeek R1的高级推理引擎,为Claude提供复杂多步推理任务处理能力。
MindBridge是一个AI模型路由服务器,支持多LLM提供商,实现智能模型调度与协作,适用于复杂推理任务和多模型工作流。
该项目通过集成DeepSeek R1的推理引擎,增强Claude处理复杂推理任务的能力,提供高效精准的多步推理解决方案。
一个基于MCP协议的AI软件架构师服务器,能够分析代码库生成产品需求文档(PRD)并为复杂编码任务提供推理辅助,采用多模型架构和智能代理设计。
MCP Think是一个实现'think'工具的MCP服务器,旨在通过提供结构化思考空间来增强Claude等大型语言模型在复杂任务中的推理能力。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的专用AI模型,自动检测查询复杂度并将请求路由到最合适的模型以获得最佳结果。支持搜索、推理和深度研究三种工具,适用于不同复杂度的查询任务。
DeepSeek MCP Server通过集成DeepSeek R1的先进推理引擎增强Claude的推理能力,使其能够处理复杂的多步推理任务。
DeepSeek MCP Server通过集成DeepSeek R1的高级推理引擎增强Claude的推理能力,使其能够处理复杂的多步推理任务。
DeepSeek-Claude MCP服务器通过整合DeepSeek R1的先进推理引擎,增强Claude处理复杂推理任务的能力。
DeepSeek MCP服务器通过集成DeepSeek R1的先进推理引擎增强Claude的推理能力,使其能够处理复杂的多步推理任务。