中国AI开源模型全球影响力显著提升。2025年7月,阿里通义千问全球下载量居首,中国开源模型下载总量首超美国。在第三方API平台,千问成为全球第二大受欢迎开源模型,仅次于Meta Llama。西方媒体关注此趋势,认为“生态广度”正成为AI竞争新标准。
智谱科技GLM-4.7模型在WebDev榜单超越GPT-5.2,成为开源大模型第一,被赞为“Claude Code最佳平替”。其卓越的编程能力和灵活性引发网友实测热潮。智谱团队在AMA活动中分享了模型的技术进步细节。
近日,开源项目BrowserUse发布自研大语言模型BU-30B-A3B-Preview,被誉为网页代理领域新标杆。该模型采用混合专家(MoE)架构,总参数达300亿,但推理时仅激活部分参数,兼顾强大性能与轻量化运行,显著降低了AI浏览器操作的成本与门槛。
北京市发布开源生态建设方案,计划到2028年培育10个国际影响力开源项目(含5个国际引领项目)、30个国内明星开源项目(AI超1/3),并推动100个行业大模型规模化应用,系统构建全球领先的开源创新高地。
开源平台,提供LLM应用的提示管理、评估和可观测性工具。
一个兼容多种大语言模型的开源 AI Agent CLI 工具。
开源编码 LLM,专为软件工程任务设计。
一款 AI 大模型驱动的开源知识库搭建系统。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
ExaltedSlayer
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google开发的轻量级开源多模态模型。该模型能够同时处理文本和图像输入并生成文本输出,拥有128K大上下文窗口,支持超过140种语言,适用于多种文本生成和图像理解任务。
lapa-llm
Lapa LLM v0.1.2是基于Gemma-3-12B开发的乌克兰语处理开源大语言模型,专注于乌克兰语的自然语言处理任务,在乌克兰语处理方面表现出卓越性能。
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
Kwaipilot
KAT-Dev-72B-Exp是一款用于软件工程任务的720亿参数开源大语言模型,在SWE-Bench Verified基准测试中达到74.6%的准确率,是KAT-Coder模型的实验性强化学习版本。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
Lapa LLM 12B PT是基于Google Gemma 3-12B开发的开源大语言模型,专门针对乌克兰语处理优化。由乌克兰多所高校研究团队开发,在乌克兰语处理方面表现卓越,具备高效的指令微调和多模态能力。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
lmms-lab
LLaVA-OneVision-1.5 是一系列完全开源的大型多模态模型,通过在原生分辨率图像上进行训练,以较低的成本实现了先进的性能。该模型在多个多模态基准测试中展现出卓越性能,超越了Qwen2.5-VL等竞争对手。
inclusionAI
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。
OpenGVLab
InternVL3.5是开源多模态模型家族的新成员,显著提升了InternVL系列的通用性、推理能力和推理效率,支持GUI交互等新功能,达到开源多模态大语言模型的先进水平。
lmstudio-community
Seed-OSS-36B-Instruct是由ByteDance-Seed开发的大型语言模型,参数量达360亿,采用Apache-2.0开源许可证。该模型基于transformers库构建,支持vllm和mlx技术优化,特别针对苹果Silicon芯片进行了8位量化处理,提供高效的文本生成能力。
gabriellarson
Seed-OSS是由字节跳动Seed团队开发的开源大语言模型系列,具备强大的长上下文处理、推理和智能体交互能力。仅使用12T token训练,在多个公开基准测试中表现出色,支持高达512K的原生长上下文处理。
yarikdevcom
Seed-OSS-36B-Instruct是由ByteDance开发的360亿参数大型语言模型,基于Apache-2.0许可证开源。该模型专门针对指令跟随任务进行了优化,支持文本生成和对话功能,具有强大的理解和生成能力。
dnakov
Seed-OSS-36B-Instruct是字节跳动开发的文本生成模型,基于36B参数规模的大语言模型架构,专门针对指令跟随任务进行优化。该模型支持中英文双语,采用Apache-2.0开源许可证,可通过vllm和mlx推理框架进行高效部署。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLMs)能够安全、可控地访问工具和数据源。该项目包含多种功能服务器实现,涵盖文件系统、数据库、搜索、API集成等领域,并支持TypeScript和Python SDK开发。
MacPilot CLI是一个开源工具,通过MCP协议让大语言模型与macOS系统交互,提供系统操作功能。
NetBrain MCP是一个开源网络运维平台,通过Model Context Protocol连接大型语言模型与网络设备,实现AI驱动的网络配置、诊断和管理,并提供专业的Web终端界面和网络拓扑可视化功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,旨在为大型语言模型(LLM)提供安全、可控的工具和数据源访问。这些服务器展示了MCP的多样性和可扩展性,涵盖了从文件系统操作到数据库集成、从网络搜索到AI图像生成等多种功能。
Model Context Protocol (MCP) 是Anthropic发布的开源协议,旨在解决大型语言模型(LLM)与外部数据源和系统连接的标准化问题。它通过提供结构化框架,使模型能够集成和利用外部上下文,从而扩展其能力并提高响应准确性。MCP支持知识扩展、外部工具调用和预写提示等功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,用于为大型语言模型(LLM)提供安全、受控的工具和数据源访问。该项目包含多种功能服务器,如文件系统操作、Git集成、数据库访问等,并支持通过TypeScript和Python SDK快速开发新服务。
MCP-OpenLLM是一个LangChain封装工具,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
Model Context Protocol (MCP) 是一个开源协议,旨在通过标准化接口让大型语言模型(LLM)与外部工具、服务和数据源无缝交互,简化集成流程并扩展AI能力。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种功能的服务器实现,如文件系统操作、数据库访问、Git管理、Slack集成等,并支持TypeScript和Python SDK。
使用开源嵌入模型、向量数据库和Gemini大语言模型构建的RAG系统,支持本地文档处理与动态更新索引。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,展示了MCP的多样性和可扩展性。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,支持TypeScript和Python SDK。
One API 是一个开源项目,通过标准的 OpenAI API 格式提供对各种大模型的统一访问接口,支持多种大模型和第三方代理服务,具备负载均衡、令牌管理、用户分组等功能,适用于多种部署场景。
该项目提供了一个基于Python的MCP服务器,用于将OSV(开源漏洞)数据与AI助手或大型语言模型集成,通过MCP协议暴露工具和资源以增强LLM的工作流程和能力。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。
MCP-OpenLLM是一个LangChain包装器,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
模型上下文协议(MCP)是一个开源协议,为大语言模型提供标准化连接外部数据源和工具的方法,支持资源、提示词、工具、采样等功能,本文重点介绍了如何开发和使用MCP工具服务。