最近,AI圈流行起“养龙虾”,实指部署开源AI智能体OpenClaw。因其图标为红色小龙虾,用户戏称训练模型为“喂龙虾”。它支持本地运行,具备长期记忆和自主任务处理能力,操作简便且开源免费,因此迅速走红。
腾讯内测QClaw一键启动包,旨在降低AI开源智能体OpenClaw的使用门槛。该产品支持本地快速部署,并接入微信、QQ,方便普通用户轻松使用OpenClaw的自动文件整理、邮件收发和设备操作等功能。
阿里通义千问Qwen 3.5系列小模型打破“参数量决定智商”的常规认知。其中仅40亿参数的Qwen 3.5-4B在第三方测试中,与参数量过千亿的GPT-4o同台竞技,表现不落下风甚至略胜一筹。这标志着国产大模型在本地部署和效率优化上取得重要突破,开启“以小博大”的新时代。
AMD与Nutanix达成2.5亿美元战略合作,通过股权投资和联合研发,共同打造全栈AI基础设施平台,以增强企业本地AI部署能力,构建对抗英伟达的生态体系。
Eigent 是首个多代理工作团队,助力提高生产力。
Dyad是一款免费的本地开源AI应用构建工具。
autoMate 是一款 AI 驱动的本地自动化工具,通过自然语言让计算机自主完成任务。
基于大模型 RAG 知识库的知识图谱问答系统,支持多种大模型适配和本地部署。
Google
$0.49
Input tokens/M
$2.1
Output tokens/M
1k
Context Length
$17.5
Alibaba
$2
-
256
Baidu
32
Openai
$0.4
128
$0.75
64
$0.63
$3.15
131
$1
$4
Huawei
Chatglm
$1.8
$5.4
16
Tencent
$0.8
$0.3
$8
MaziyarPanahi
这是NousResearch/Hermes-4.3-36B模型的GGUF量化格式版本,由MaziyarPanahi进行量化处理。GGUF是一种高效的模型格式,旨在优化本地部署和推理性能,支持多种量化级别(2位至8位),适用于广泛的文本生成任务。
ss-lab
这是一个基于Meta LLaMA 3 8B模型,使用Unsloth框架进行高效微调,并转换为GGUF格式的轻量级文本生成模型。模型针对Alpaca数据集进行了优化,适用于本地部署和推理,特别适合在资源受限的环境中使用。
noctrex
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
geoffmunn
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专门针对代码生成和编程任务优化,采用FP32精度转换,适用于本地推理部署。
sanchezalonsodavid17
这是DeepSeek-OCR的模态平衡量化(MBQ)变体,通过对视觉编码器采用4位NF4量化减少内存占用,同时保持投影器和语言/解码器的BF16精度,可在普通GPU上进行本地部署和快速CPU试验。
EXAONE-4.0-1.2B 是一个由 LG AI Research 开发的文本生成模型。它基于 EXAONE-4.0-1.2B 基础模型,使用 tatsu-lab/alpaca 数据集进行了微调,支持英文和韩语两种语言的文本生成任务。模型已转换为 GGUF 格式,便于在本地部署和运行。
lefromage
这是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。该模型是一个800亿参数的大型语言模型,采用Apache 2.0许可证,支持文本生成任务。GGUF格式便于在本地设备上部署和运行。
Sci-fi-vy
GPT-OSS-20B是OpenAI推出的开放权重模型,专为强大推理、智能体任务和多样化开发者用例设计。该模型具有210亿参数(其中36亿为活跃参数),采用混合专家架构,支持低延迟本地部署和特定场景应用。
professorf
GPT-OSS-20B是OpenAI推出的开放权重模型,拥有210亿参数(其中36亿为活跃参数),专为低延迟、本地部署和特定用例设计。该模型基于harmony响应格式训练,具备强大的推理能力和智能体任务处理能力。
duyntnet
Chroma 是一个高质量的文本到图像生成模型,专注于生成逼真的图像内容。该模型采用先进的扩散技术,能够根据文本描述生成高质量的视觉内容,特别适合本地部署环境下的图像创作需求。
tensorblock
这是一个基于Hermes-3架构的3B参数语言模型,专门针对Discord聊天场景优化,提供多种量化版本的GGUF格式文件,适用于本地部署和推理。
基于Qwen3-1.7B模型进行优化的中文语言模型,提供多种量化版本的GGUF格式文件,适用于本地部署和推理。
0xShonen
GPT-OSS-20B是OpenAI发布的开放权重模型,专为强大的推理、智能体任务和多样化开发者用例设计。该模型具有21B参数(其中3.6B为活跃参数),支持低延迟推理和本地部署,采用Apache 2.0许可证,可自由用于实验、定制和商业部署。
NexaAI
这是OpenAI GPT OSS 20B模型的GGUF版本,拥有210亿参数,其中36亿为活跃参数。该版本针对本地部署和特定使用场景进行了优化,旨在降低推理延迟,提高运行效率。
axolotl-ai-co
gpt-oss-20b是OpenAI推出的开放权重模型,拥有210亿参数(其中36亿为活跃参数),专为低延迟、本地部署和特定场景设计。该模型基于harmony响应格式训练,具备强大的推理能力和智能体任务处理能力。
gabriellarson
gpt-oss-20b是OpenAI推出的开放权重模型,具备强大的推理能力,适用于代理任务和开发者的多样使用场景。该模型具有低延迟特性,适用于本地或特定场景部署。
Foundation-Sec-8B-Instruct是一款专为网络安全应用设计的80亿参数指令调优语言模型。基于Llama-3.1-8B架构,具备出色的指令跟随能力和网络安全专业知识,支持本地部署,可帮助组织构建AI安全工具,减少对云服务的依赖。
calcuis
Higgs的GGUF量化版本是基于bosonai基础模型的文本转语音合成模型,支持多种语言的语音生成,具有高效的推理性能和便捷的本地部署能力。
prithivMLmods
基于Qwen3架构构建的专业模型,专注于科学、人工智能设计和通用推理领域。该模型在高难度科学推理数据集上进行了微调,具备出色的通用和创造性推理能力,体积小巧适合本地设备和服务器部署。
这是基于Qwen3-8B模型经过Josiefied和abliterated处理后的GGUF量化版本,提供多种量化级别选择,适用于本地推理部署
Refact Agent 是一个开源AI编程助手,支持多语言代码生成、调试和优化,集成主流开发工具,可本地化部署并提供智能补全和代码解释功能。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
微软官方MCP服务器集合,提供Azure、GitHub、Microsoft 365、Fabric等多种服务的AI助手集成工具,支持本地和远程部署,帮助开发者通过标准化协议连接AI模型与各类数据源和工具。
一个轻量级的MCP服务器,为AI助手如Claude提供实时天气数据查询和解析功能。支持本地和远程两种部署方式,包含Docker容器化方案。
XiYan MCP Server是一个基于XiYan-SQL的模型上下文协议服务器,支持通过自然语言查询数据库,提供多种LLM模型配置和数据库连接方式,适用于本地或远程部署。
XiYan MCP Server是一个基于XiYan-SQL的模型上下文协议服务器,支持通过自然语言查询数据库,提供多种LLM模型集成和本地化部署选项。
该项目展示了如何在Cloudflare Workers上部署远程MCP服务器,并通过OAuth登录实现安全访问。支持本地开发调试、与MCP检查器和Claude桌面客户端的连接,最终可部署至Cloudflare云端。
Vaali MCP服务器是一个展示高级AI代理能力的开源项目,通过交互式参数收集和工作流自动化,实现了官方MCP询问和智能参数引导两种模式,支持云端部署和本地集成。
该项目提供与Polarion ALM系统集成的MCP服务器实现,支持通过Docker部署和本地运行,实现工作项读取等功能。
MCP Fly部署器是一个专为Fly.io平台设计的配置生成工具,用于自动化部署基于Model Context Protocol的stdio服务器。它通过集成supergateway技术,支持将本地stdio服务转换为SSE或WebSocket服务,并提供Dockerfile、fly.toml配置和部署脚本的自动生成功能。
PhonePi MCP是一个开源项目,可将手机转变为AI助手的工具箱,通过Model Context Protocol实现远程控制手机功能,包括管理联系人、消息、设置等,强调本地化部署和网络安全。
这是一个开源的MCP服务器项目,提供对瑞典议会和政府公开数据的实时查询与检索功能,包含32个专用工具,支持本地部署或远程使用。
一个基于LLM CLI的MCP服务器模板项目,提供开发、测试和部署工具,支持架构设计反馈和本地调试。
该项目提供多种MCP服务器搭建示例,支持本地和云端部署,包含STDIO和SSE两种传输方式,并配套详细教程视频。
Railway MCP Server是一个实验性的本地MCP服务器,提供了一套用于管理Railway资源的工具和工作流。它支持项目管理、服务部署、环境变量配置等功能,需配合Railway CLI使用。
在Cloudflare Workers上部署远程MCP服务器,支持OAuth登录和本地开发调试
一个基于C++的MCP系统实现,包含host、client和server组件,支持通过命令行与LLM交互并调用各类工具服务。
这是一个使用Azure Functions (.NET/C#)快速构建和部署远程MCP服务器的模板项目,支持本地调试和云端部署,提供安全认证和网络隔离选项。
使用Azure Functions快速构建和部署远程MCP服务器的模板,支持本地调试和云端部署。
基于Next.js的EigenLayer MCP服务,为AI助手提供文档支持,可本地运行或部署在Vercel上