腾讯于2026年3月推出全场景AI智能体WorkBuddy,旨在降低大模型应用门槛。该产品兼容开源项目“小龙虾”技能,具备免部署、开箱即用特性,推动AI智能体从极客工具向普适化办公工具演进。其技术核心在于简化云端配置,用户下载后即可通过指令驱动,显著提升办公效率。
近日,“OpenClaw AI Agent 小龙虾能力排行榜”在AI圈引发关注。该榜单聚焦真实场景,通过统一任务集测试主流大模型在OpenClaw框架下的编码任务成功率,为开发者提供参考。评测采用自动化代码检查与LLM智能评审相结合的方式,确保结果客观、可复现且无人工干预。
站在2026年科技十字路口,雷军预测L3/L4自动驾驶将迎来爆发,同时具身智能大模型也将真正起步。他今年两会提交5份建议,聚焦人形机器人、智能驾驶和科技公益,认为中国科技产业正处关键发展期。
OpenClaw发布2026.3.7核心版本,新增上下文引擎插件和分布式频道绑定功能,全面支持GPT-5.4模型。项目GitHub星标数超28万,正从实验性框架向生产级“智能体操作系统”演进。
TruVerifAI结合多个AI模型,提供经过验证、基于共识的可靠智能。
由中国电信人工智能研究院研发的语言模型。
消除幻觉,多模态RAG不忘信息,智能编排前沿模型,任务表现卓越
Google推出最智能的Gemini 3模型,助力实现任何想法
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
open-thoughts
OpenThinker-Agent-v1-SFT 是基于 Qwen/Qwen3-8B 进行有监督微调(SFT)得到的智能体模型。它是 OpenThinker-Agent-v1 完整训练流程(SFT + RL)的第一阶段模型,专门针对智能体任务(如终端操作和代码修复)进行优化。
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
EssentialAI
Rnj-1-instruct 是由 Essential AI 从头开始训练的 80 亿参数开放权重密集模型,针对代码、STEM 领域、智能体能力和工具调用进行了优化。它在多种编程语言中表现出色,同时在数学和科学领域也展现出强大实力,能力与最先进的开放权重模型相当。
Kiy-K
Fyodor-Q3-8B-Instruct 是一款专为智能推理和稳健代码生成设计的高保真指令调优模型。它基于Qwen3-8B架构,采用高秩LoRA配置训练,擅长在编码前进行规划,非常适合复杂的软件工程任务。
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
sensenova
SenseNova-SI是基于多模态基础模型构建的空间智能增强模型系列,通过精心策划的800万样本数据训练,在多个空间智能基准测试中取得了优异表现,同时保持了强大的通用多模态理解能力。
Rnj-1 是由 Essential AI 从头训练的一系列 80 亿参数、开放权重的密集模型。该模型针对代码和 STEM 领域进行了优化,在编程、数学推理、智能体任务和工具调用方面表现出色,能力与最先进的开放权重模型相当。
SenseNova-SI是基于成熟多模态基础模型构建的空间智能增强模型系列,通过精心策划的800万数据样本训练,在多个空间智能基准测试中展现出卓越性能,同时保持强大的通用多模态理解能力。
cyankiwi
MiniMax-M2 AWQ - INT4是基于MiniMax-M2模型进行量化后的版本,采用INT4量化技术,在保证性能的前提下显著减少内存使用并提高推理效率。该模型在编码和智能体任务方面表现出色,具有卓越的综合性能。
unsloth
Qwen3-Coder-REAP-363B-A35B是通过REAP方法对Qwen3-Coder-480B-A35B-Instruct进行25%专家剪枝得到的稀疏混合专家模型,在保持接近原模型性能的同时显著降低了参数规模和内存需求,特别适用于资源受限的代码生成和智能编码场景。
SenseNova-SI是基于多模态基础模型构建的空间智能模型系列,专门针对空间理解能力进行优化。通过大规模空间智能数据训练,在度量估计、空间关系理解、视点变化处理等方面表现优异。
redponike
Qwen3-VL-4B-Instruct 是通义千问系列最新的视觉语言模型,在4B参数规模下实现了卓越的视觉感知、文本理解与生成、空间推理和智能体交互能力。它支持长上下文和视频理解,具备强大的OCR和多语言处理能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文处理、空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的综合升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。
MCP MongoDB服务器是一个模型上下文协议服务,允许LLM与MongoDB数据库交互,提供集合模式检查、查询执行和智能ID处理等功能,支持只读模式和安全配置。
AI基础设施代理是一个智能系统,允许用户通过自然语言命令管理AWS云资源。它利用AI模型将用户需求转化为可执行的AWS操作,并提供Web仪表板、状态管理和安全防护功能。
DeepSeek MCP服务器是一个为DeepSeek API设计的模型上下文协议服务器,支持与Claude Desktop等MCP兼容应用无缝集成,提供匿名API访问和智能对话管理。
Apple Doc MCP是一个提供直接访问苹果开发者文档的模型上下文协议服务器,集成到AI编程助手中,支持智能搜索、框架浏览和详细文档获取。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型提供自动查询复杂度检测和最优模型路由功能,支持搜索、推理和深度研究三种工具。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
MCP Appium是一个基于模型上下文协议的智能移动自动化服务器,为AI助手提供跨平台移动应用测试工具,支持iOS和Android平台,具备智能元素定位、会话管理和自动化测试生成等功能。
一个MCP服务器,通过向量嵌入和语义相似性为任何AI模型提供智能搜索Claude Agent Skills的能力,实现渐进式技能发现和跨平台技能共享
MCP开发代理是一个基于模型上下文协议(MCP)的智能开发助手,提供内存管理、文档搜索、Git/GitHub集成和代码分析功能,支持CLI和SSE服务器模式,利用本地AI模型实现智能辅助开发。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。
OpenManus是一个无需邀请码即可实现各种想法的开源项目,由MetaGPT团队成员在3小时内构建完成。它提供了一个简单的实现,允许用户创建自己的智能代理,并支持多种语言和配置。项目欢迎建议、贡献和反馈,未来计划包括更好的规划、实时演示、回放功能、RL微调模型和全面的基准测试。
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
该项目实现了模型上下文协议(MCP)作为个人智能框架(PIF)的实践方案,通过结构化工具和渐进式交互模式,为人类与AI之间构建有意义的理解发展空间。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
LinkedInMCP是一个创新的模型上下文协议服务器,旨在改变开发者与LinkedIn API的交互方式,提供智能、安全的LinkedIn数据检索和交互框架。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括智能任务委派、文档处理、浏览器自动化、Excel操作等,通过标准化MCP工具实现AI代理的认知增强和复杂任务编排。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
基于MCP的多智能体深度研究系统,整合LinkUp搜索、CrewAI协调和Gemini大模型,通过Streamlit提供交互界面。
基于Stellar的智能MCP演示项目,受Cloudflare远程模型上下文协议启发,集成钱包设置和合约管理功能。