蚂蚁集团开源百灵大模型Ring-flash-linear-2.0-128K,专攻超长文本编程。采用混合线性注意力与稀疏MoE架构,仅激活6.1B参数即可媲美40B密集模型,在代码生成和智能代理领域达到最优表现,高效解决长上下文处理痛点。
2025年10月27日,MiniMax开源大语言模型MiniMax M2。该模型专为代理工作流和端到端编码设计,采用MoE架构,效率与性能突出:成本仅为Claude Sonnet的8%,速度提升约两倍,为开发者与企业提供高性价比AI解决方案。
阿里云推出通义千问Qwen3-VL系列两款新密集模型(2B与32B),使该系列开源模型总数达24个,形成从轻量到超大规模的技术矩阵。目前包含四款密集模型和两款专家混合模型,强化了模型生态的完整性与竞争力。
特斯拉前高管Andrej Karpathy评论开源OCR论文时提出,图像可能比文本更适合作为大语言模型的输入方式。他认为当前文本token输入效率低下,建议未来研究转向图像输入,这一观点在AI社区引发热议。
一个兼容多种大语言模型的开源 AI Agent CLI 工具。
开源编码 LLM,专为软件工程任务设计。
一款 AI 大模型驱动的开源知识库搭建系统。
DeepSeek R1-0528 是一款开源大模型,性能媲美 OpenAI o3 模型。
moonshotai
$4.1
Input tokens/M
$16.56
Output tokens/M
128k
Context Length
meta
$1.44
$6.48
alibaba
-
131.1k
google
8.2k
2k
lapa-llm
Lapa LLM v0.1.2是基于Gemma-3-12B开发的乌克兰语处理开源大语言模型,专注于乌克兰语的自然语言处理任务,在乌克兰语处理方面表现出卓越性能。
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
Kwaipilot
KAT-Dev-72B-Exp是一款用于软件工程任务的720亿参数开源大语言模型,在SWE-Bench Verified基准测试中达到74.6%的准确率,是KAT-Coder模型的实验性强化学习版本。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
Lapa LLM 12B PT是基于Google Gemma 3-12B开发的开源大语言模型,专门针对乌克兰语处理优化。由乌克兰多所高校研究团队开发,在乌克兰语处理方面表现卓越,具备高效的指令微调和多模态能力。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
lmms-lab
LLaVA-OneVision-1.5 是一系列完全开源的大型多模态模型,通过在原生分辨率图像上进行训练,以较低的成本实现了先进的性能。该模型在多个多模态基准测试中展现出卓越性能,超越了Qwen2.5-VL等竞争对手。
inclusionAI
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。
OpenGVLab
InternVL3.5是开源多模态模型家族的新成员,显著提升了InternVL系列的通用性、推理能力和推理效率,支持GUI交互等新功能,达到开源多模态大语言模型的先进水平。
lmstudio-community
Seed-OSS-36B-Instruct是由ByteDance-Seed开发的大型语言模型,参数量达360亿,采用Apache-2.0开源许可证。该模型基于transformers库构建,支持vllm和mlx技术优化,特别针对苹果Silicon芯片进行了8位量化处理,提供高效的文本生成能力。
gabriellarson
Seed-OSS是由字节跳动Seed团队开发的开源大语言模型系列,具备强大的长上下文处理、推理和智能体交互能力。仅使用12T token训练,在多个公开基准测试中表现出色,支持高达512K的原生长上下文处理。
yarikdevcom
Seed-OSS-36B-Instruct是由ByteDance开发的360亿参数大型语言模型,基于Apache-2.0许可证开源。该模型专门针对指令跟随任务进行了优化,支持文本生成和对话功能,具有强大的理解和生成能力。
dnakov
Seed-OSS-36B-Instruct是字节跳动开发的文本生成模型,基于36B参数规模的大语言模型架构,专门针对指令跟随任务进行优化。该模型支持中英文双语,采用Apache-2.0开源许可证,可通过vllm和mlx推理框架进行高效部署。
Seed-OSS-36B-Instruct是由字节跳动开发的360亿参数大型语言模型,基于MLX框架优化,专注于文本生成任务。该模型支持中英文双语,采用Apache-2.0开源许可证,具备强大的指令跟随和内容生成能力。
ByteDance-Seed
Seed-OSS是由字节跳动Seed团队开发的开源大语言模型系列,具备强大的长上下文处理、推理、智能体交互能力和通用性能。该模型仅使用12T token训练,在多个公开基准测试中表现出色。
unsloth
Gemma 3是谷歌推出的轻量级开源多模态模型家族,能够处理文本和图像输入并生成文本输出。具有128K大上下文窗口,支持140多种语言,适用于文本生成和图像理解等多种任务。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLMs)能够安全、可控地访问工具和数据源。该项目包含多种功能服务器实现,涵盖文件系统、数据库、搜索、API集成等领域,并支持TypeScript和Python SDK开发。
MacPilot CLI是一个开源工具,通过MCP协议让大语言模型与macOS系统交互,提供系统操作功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,旨在为大型语言模型(LLM)提供安全、可控的工具和数据源访问。这些服务器展示了MCP的多样性和可扩展性,涵盖了从文件系统操作到数据库集成、从网络搜索到AI图像生成等多种功能。
Model Context Protocol (MCP) 是Anthropic发布的开源协议,旨在解决大型语言模型(LLM)与外部数据源和系统连接的标准化问题。它通过提供结构化框架,使模型能够集成和利用外部上下文,从而扩展其能力并提高响应准确性。MCP支持知识扩展、外部工具调用和预写提示等功能。
MCP-OpenLLM是一个LangChain封装工具,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,用于为大型语言模型(LLM)提供安全、受控的工具和数据源访问。该项目包含多种功能服务器,如文件系统操作、Git集成、数据库访问等,并支持通过TypeScript和Python SDK快速开发新服务。
使用开源嵌入模型、向量数据库和Gemini大语言模型构建的RAG系统,支持本地文档处理与动态更新索引。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种功能的服务器实现,如文件系统操作、数据库访问、Git管理、Slack集成等,并支持TypeScript和Python SDK。
Model Context Protocol (MCP) 是一个开源协议,旨在通过标准化接口让大型语言模型(LLM)与外部工具、服务和数据源无缝交互,简化集成流程并扩展AI能力。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,展示了MCP的多样性和可扩展性。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,支持TypeScript和Python SDK。
该项目提供了一个基于Python的MCP服务器,用于将OSV(开源漏洞)数据与AI助手或大型语言模型集成,通过MCP协议暴露工具和资源以增强LLM的工作流程和能力。
One API 是一个开源项目,通过标准的 OpenAI API 格式提供对各种大模型的统一访问接口,支持多种大模型和第三方代理服务,具备负载均衡、令牌管理、用户分组等功能,适用于多种部署场景。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。
MCP-OpenLLM是一个LangChain包装器,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
模型上下文协议(MCP)是一个开源协议,为大语言模型提供标准化连接外部数据源和工具的方法,支持资源、提示词、工具、采样等功能,本文重点介绍了如何开发和使用MCP工具服务。