DeepSeek-V3.2正式版与极致推理版同步发布,支持网页端、App、API一键切换,性能再证“开源最强”。最大亮点是首次实现“思考过程”与“工具调用”深度融合,支持两种模式并行:思考模式可进行长链条推理,工具调用模式则能高效执行任务。
昆仑万维发布轻量级多模态智能体Skywork R1V4-Lite,集成视觉操作、推理与规划能力。区别于传统模型,它具备深度推理功能,支持图像操作、工具调用和多模态研究,适用于复杂场景。用户仅需拍摄照片,即可自动完成空间定位、文字放大、辅助线绘制等任务,操作灵活高效。
MiroMind开源bAgent模型MiroThinker v1.0,具备256K上下文窗口和单次600次工具调用能力。创新提出“深度交互Scaling”框架,通过高频环境交互与实时反馈替代传统参数堆叠,实现智能体自我进化。模型集成搜索、Linux沙箱、代码执行等工具链,可在数小时内自主完成复杂任务,如官方示例中通过600轮调用处理食谱和计算热量。
百度推出“百度猎户座”AI引擎,首次全面开放其25年搜索技术与AI能力。该引擎整合搜索AI API、多模态计算平台及行业优势,为企业与开发者提供丰富工具资源,简化接入流程,实现原生能力调用,标志着百度AI技术应用的重要进展。
复制粘贴Vercel AI SDK模式,实现工具调用、流式传输和代理功能。
Colossal 是一个全球代理目录,连接到可以执行 API 调用的 AI 代理,轻松集成工具使用代理。
高级工具使用和功能调用的8B参数语言模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
Google
$0.7
$7
$35
$21
Alibaba
$6
$24
256
Moonshot
$4
$16
$10.5
Tencent
$1
32
Bytedance
$0.8
$8
Deepseek
$12
128
$2
$0.35
400
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
QuantTrio
MiniMax-M2-AWQ是基于MiniMaxAI/MiniMax-M2模型的量化版本,通过vLLM框架实现高效的文本生成。该模型采用AWQ量化技术,在保持模型性能的同时显著减少内存占用和提升推理速度,支持32K上下文长度和工具调用功能。
cpatonn
Granite-4.0-H-Tiny AWQ - INT4是基于Granite-4.0-H-Tiny基础模型经过AWQ量化处理的4比特版本,在保持性能的同时显著减少资源消耗。该模型具有70亿参数,支持多语言处理,具备丰富的功能包括文本生成、代码补全、工具调用等。
quwsarohi
NanoAgent是一个紧凑的智能大语言模型,拥有1.35亿参数和8k上下文长度。它专门针对工具调用和指令遵循进行了优化,能够在个人设备上高效运行,支持轻量级推理和ReAct风格的交互。
ibm-granite
Granite-4.0-350M是IBM开发的轻量级指令模型,基于Granite-4.0-350M-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并技术开发,具备强大的指令跟随能力和工具调用功能。
unsloth
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术,在指令遵循和工具调用能力方面有显著提升,特别适合企业级应用。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备结构化的聊天格式,在指令遵循和工具调用能力方面表现优异。
Granite-4.0-H-Tiny是IBM开发的具有70亿参数的长上下文指令模型,基于Granite-4.0-H-Tiny-Base进行微调。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令跟随和工具调用能力,特别适用于企业级应用。
Granite-4.0-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令遵循和工具调用能力,特别适用于企业级应用。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集进行训练,具备增强的指令遵循和工具调用能力,特别适合企业级应用。
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,在指令遵循和工具调用能力方面有显著提升。
Granite-4.0-Micro是IBM开发的具有30亿参数的长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型使用了开源指令数据集和内部合成数据集,具备增强的指令遵循和工具调用能力,支持多语言任务,可作为各领域AI助手的基础模型。
prithivMLmods
多拉多网络冲浪工具扩展版是基于通义千问3-4B微调的函数调用和智能推理模型,专为网络搜索编排、工具增强推理和动态问题解决而设计。它在智能决策、工具选择和结构化执行流程方面表现出色。
lichorosario
dottrmstr-long-captions-lora 是一个基于 Qwen/Qwen-Image 基础模型训练的 LoRA 模型,专门用于文本到图像的生成任务。该模型借助 AI 工具包进行训练,支持多种工具调用,能够生成具有独特风格的图像。
zenlm
zen-agent-4b是一款具有40亿参数的工具调用智能体,支持模型上下文协议(MCP),为文本生成任务提供强大助力。该模型由Zen Research DAO开发,隶属于Zoo Labs Inc非营利组织。
Granite-4.0-H-Tiny是IBM开发的70亿参数长上下文指令模型,基于Granite-4.0-H-Tiny-Base微调而来。该模型结合开源指令数据集和内部合成数据集训练,具备专业、准确、安全的回复能力,支持多语言和工具调用,适用于企业级应用。
Granite-4.0-Micro 是 IBM 开发的 30 亿参数长上下文指令模型,具有优秀的指令遵循和工具调用能力,支持多种语言,适用于商业应用和 AI 助手场景。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集训练,具备多语言支持和增强的工具调用能力,在企业应用中表现出色。
beyoru
Qwen3-4B-I-1509是基于Qwen3-4B-Instruct-2507基础模型微调而来的专用模型,专注于工具使用和函数调用生成任务。该模型采用多信号奖励的强化学习方法进行训练,在多个评估基准中展现出良好的性能表现。
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑、创造力和格式忠实输出等方面表现出色,具有显式思考过程和工具调用能力。
Supabase MCP服务器是一个开源工具,允许IDE安全执行SQL、管理模式变更、调用Supabase管理API和使用Auth Admin SDK,内置安全控制。
MCP Go 是一个 Go 语言实现的模型上下文协议(MCP)服务端框架,用于连接 LLM 应用与外部数据源和工具。它提供了资源管理、工具调用、提示模板等核心功能,支持会话管理和中间件扩展。
ACI.dev是一个开源AI代理工具基础设施,提供600+预集成工具的多租户认证、权限管理和动态发现功能,支持通过统一MCP服务器或轻量SDK调用,简化生产级AI代理开发。
该项目展示了一个基于SSE的MCP服务器和客户端实现模式,允许代理(客户端)随时连接和使用服务器提供的工具,适用于云原生场景。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
该项目为LangChain提供Model Context Protocol(MCP)工具调用支持,通过MCP工具包实现与AI模型的交互,如文件读取和摘要生成。
这是一个实现MCP代码执行模式的服务器,通过单工具桥接和零上下文发现机制,将MCP工具调用开销从数万token降至约200token,并在根容器中安全执行Python代码,支持数据科学和安全隔离。
该项目通过搭建Claude Code与Google Gemini AI的桥梁,实现在Claude Code环境中直接调用Gemini进行问答、代码审查和创意头脑风暴,提供便捷的AI协作工具。
MCPGod是一个命令行工具,用于快速管理MCP服务器,支持客户端管理、工具发现与调用、权限控制及详细日志记录。
一个解决MCP服务器上下文限制问题的代码执行器,通过沙箱环境按需调用工具,实现98%的令牌节省和无限工具访问。
Dify MCP客户端插件,作为代理策略插件,允许ReAct代理节点连接MCP服务器,将工具、资源和提示列表转换为Dify工具,供LLM调用。
MCP测试客户端是一个中间件,既作为Claude的服务端,又作为被测服务器的客户端,用于开发阶段测试MCP服务器。它支持部署服务器、调用工具、运行测试、查看日志等功能,并提供CLI交互界面。
Skillz是一个MCP服务器,可将Claude风格的技能转换为可调用工具,供任何MCP客户端使用。它会发现技能目录中的技能,暴露技能说明和资源,并能运行捆绑的辅助脚本。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
Dify插件通过MCP协议实现工具调用,支持SSE和Streamable HTTP传输方式
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
这是一个MCP服务器项目,通过MCP协议暴露Restate Admin API作为工具,支持管理服务部署、调用操作及状态查询等基础功能。
MCP客户端项目,用于与AI模型和服务进行高级交互,支持工具调用和服务器管理。
一个支持查询和调用Dify工作流的MCP服务工具
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。