阶跃星辰推出Step-DeepResearch模型,拥有32B参数,专注深度研究场景。该模型将网页搜索升级为专业研究流程,支持长程推理、工具调用和结构化报告撰写,区别于侧重短问题检索的Web Agent,能识别搜索意图并处理不确定信息。
苹果内部上线两款AI工具Enchanté和Enterprise Assistant,旨在通过大模型整合工程师、HR等多部门日常查询与创作任务。Enchanté界面类似ChatGPT但运算限于本地或私有服务器,仅调用苹果自研模型及安全审核的外部模型。
百度文心助手月活用户突破2亿,与豆包、通义千问并称中国三大亿级AI入口。它具备深度思考与长期记忆能力,能结合上下文提供个性化推荐,功能覆盖视频通话、AI创作、拍照问答等多模态服务,并通过MCP工具调用实现从信息处理到智能服务的升级。
阶跃星辰发布AI桌面伙伴“小跃”Windows版,主打“会做事、总在场、有记忆、能进化”的终端智能体概念。该产品深度融合操作系统,通过MCP协议深度调用Excel、QQ邮箱、飞书等16款第三方工具,显著提升桌面办公自动化能力。
复制粘贴Vercel AI SDK模式,实现工具调用、流式传输和代理功能。
Colossal 是一个全球代理目录,连接到可以执行 API 调用的 AI 代理,轻松集成工具使用代理。
高级工具使用和功能调用的8B参数语言模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
Google
$0.7
$7
$35
$21
Alibaba
$6
$24
256
Moonshot
$4
$16
$10.5
Bytedance
$0.8
$8
Tencent
$1
32
Deepseek
$12
128
$2
$0.35
400
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
EssentialAI
Rnj-1-instruct 是由 Essential AI 从头开始训练的 80 亿参数开放权重密集模型,针对代码、STEM 领域、智能体能力和工具调用进行了优化。它在多种编程语言中表现出色,同时在数学和科学领域也展现出强大实力,能力与最先进的开放权重模型相当。
Rnj-1 是由 Essential AI 从头训练的一系列 80 亿参数、开放权重的密集模型。该模型针对代码和 STEM 领域进行了优化,在编程、数学推理、智能体任务和工具调用方面表现出色,能力与最先进的开放权重模型相当。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
QuantTrio
MiniMax-M2-AWQ是基于MiniMaxAI/MiniMax-M2模型的量化版本,通过vLLM框架实现高效的文本生成。该模型采用AWQ量化技术,在保持模型性能的同时显著减少内存占用和提升推理速度,支持32K上下文长度和工具调用功能。
cpatonn
Granite-4.0-H-Tiny AWQ - INT4是基于Granite-4.0-H-Tiny基础模型经过AWQ量化处理的4比特版本,在保持性能的同时显著减少资源消耗。该模型具有70亿参数,支持多语言处理,具备丰富的功能包括文本生成、代码补全、工具调用等。
quwsarohi
NanoAgent是一个紧凑的智能大语言模型,拥有1.35亿参数和8k上下文长度。它专门针对工具调用和指令遵循进行了优化,能够在个人设备上高效运行,支持轻量级推理和ReAct风格的交互。
ibm-granite
Granite-4.0-350M是IBM开发的轻量级指令模型,基于Granite-4.0-350M-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并技术开发,具备强大的指令跟随能力和工具调用功能。
unsloth
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术,在指令遵循和工具调用能力方面有显著提升,特别适合企业级应用。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备结构化的聊天格式,在指令遵循和工具调用能力方面表现优异。
Granite-4.0-H-Tiny是IBM开发的具有70亿参数的长上下文指令模型,基于Granite-4.0-H-Tiny-Base进行微调。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令跟随和工具调用能力,特别适用于企业级应用。
Granite-4.0-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令遵循和工具调用能力,特别适用于企业级应用。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集进行训练,具备增强的指令遵循和工具调用能力,特别适合企业级应用。
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,在指令遵循和工具调用能力方面有显著提升。
Granite-4.0-Micro是IBM开发的具有30亿参数的长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型使用了开源指令数据集和内部合成数据集,具备增强的指令遵循和工具调用能力,支持多语言任务,可作为各领域AI助手的基础模型。
多拉多网络冲浪工具扩展版是基于通义千问3-4B微调的函数调用和智能推理模型,专为网络搜索编排、工具增强推理和动态问题解决而设计。它在智能决策、工具选择和结构化执行流程方面表现出色。
lichorosario
dottrmstr-long-captions-lora 是一个基于 Qwen/Qwen-Image 基础模型训练的 LoRA 模型,专门用于文本到图像的生成任务。该模型借助 AI 工具包进行训练,支持多种工具调用,能够生成具有独特风格的图像。
zenlm
zen-agent-4b是一款具有40亿参数的工具调用智能体,支持模型上下文协议(MCP),为文本生成任务提供强大助力。该模型由Zen Research DAO开发,隶属于Zoo Labs Inc非营利组织。
Granite-4.0-H-Tiny是IBM开发的70亿参数长上下文指令模型,基于Granite-4.0-H-Tiny-Base微调而来。该模型结合开源指令数据集和内部合成数据集训练,具备专业、准确、安全的回复能力,支持多语言和工具调用,适用于企业级应用。
Granite-4.0-Micro 是 IBM 开发的 30 亿参数长上下文指令模型,具有优秀的指令遵循和工具调用能力,支持多种语言,适用于商业应用和 AI 助手场景。
Supabase MCP服务器是一个开源工具,允许IDE安全执行SQL、管理模式变更、调用Supabase管理API和使用Auth Admin SDK,内置安全控制。
MCP Go 是一个 Go 语言实现的模型上下文协议(MCP)服务端框架,用于连接 LLM 应用与外部数据源和工具。它提供了资源管理、工具调用、提示模板等核心功能,支持会话管理和中间件扩展。
ACI.dev是一个开源AI代理工具基础设施,提供600+预集成工具的多租户认证、权限管理和动态发现功能,支持通过统一MCP服务器或轻量SDK调用,简化生产级AI代理开发。
该项目展示了一个基于SSE的MCP服务器和客户端实现模式,允许代理(客户端)随时连接和使用服务器提供的工具,适用于云原生场景。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
该项目为LangChain提供Model Context Protocol(MCP)工具调用支持,通过MCP工具包实现与AI模型的交互,如文件读取和摘要生成。
这是一个实现MCP代码执行模式的服务器,通过单工具桥接和零上下文发现机制,将MCP工具调用开销从数万token降至约200token,并在根容器中安全执行Python代码,支持数据科学和安全隔离。
MCPGod是一个命令行工具,用于快速管理MCP服务器,支持客户端管理、工具发现与调用、权限控制及详细日志记录。
该项目通过搭建Claude Code与Google Gemini AI的桥梁,实现在Claude Code环境中直接调用Gemini进行问答、代码审查和创意头脑风暴,提供便捷的AI协作工具。
Dify MCP客户端插件,作为代理策略插件,允许ReAct代理节点连接MCP服务器,将工具、资源和提示列表转换为Dify工具,供LLM调用。
一个解决MCP服务器上下文限制问题的代码执行器,通过沙箱环境按需调用工具,实现98%的令牌节省和无限工具访问。
MCP测试客户端是一个中间件,既作为Claude的服务端,又作为被测服务器的客户端,用于开发阶段测试MCP服务器。它支持部署服务器、调用工具、运行测试、查看日志等功能,并提供CLI交互界面。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
Skillz是一个MCP服务器,可将Claude风格的技能转换为可调用工具,供任何MCP客户端使用。它会发现技能目录中的技能,暴露技能说明和资源,并能运行捆绑的辅助脚本。
Dify插件通过MCP协议实现工具调用,支持SSE和Streamable HTTP传输方式
这是一个MCP服务器项目,通过MCP协议暴露Restate Admin API作为工具,支持管理服务部署、调用操作及状态查询等基础功能。
该项目是一个基于LangChain的MCP客户端,用于演示如何通过LangChain ReAct Agent调用MCP服务器工具。它支持Anthropic、OpenAI和Groq的LLM,并提供了从MCP工具到LangChain工具的转换功能。
MetaTool MCP Server是一个代理服务器,用于连接多个MCP服务器并将工具调用转发到适当的服务器。它与metatool-app配合使用,提供GUI工具管理功能。项目已弃用,推荐使用Node.js替代版本。
一个高性能的SQLite MCP服务器,采用创新的Codemode代码生成方法,使LLM通过生成Go代码执行数据库操作,相比传统工具调用显著提升效率和降低延迟。
一个基于Node.js的MCP主机应用,用于连接和管理多个MCP服务器