国产大模型MiniMax开源M2.1,以100亿参数稀疏架构在多语言编程、代码生成与工具调用上实现突破,在权威基准测试中超越谷歌、Anthropic等闭源旗舰模型,标志着开源编码模型性能进入新阶段。
GPT‑5.2-Codex正式发布,成为智能编码领域里程碑。该模型基于GPT‑5.2架构深度优化,融合GPT-5.1-Codex-Max终端操作专长,旨在解决复杂软件工程与网络安全难题。其核心突破在于长程任务执行能力,通过原生上下文压缩技术,显著提升处理大规模代码的效率和准确性。
日本数据科学家本田崇人推出开源编程语言“Sui”,旨在解决大语言模型生成代码的准确性问题,宣称可实现100%准确率。其设计理念源于日本美学“粋”,强调精炼与去除冗余,核心原则包括保证零语法错误率,并使用数字作为变量。
小米发布开源大模型MiMo-V2-Flash,主打高速高效,在推理、代码生成等任务中表现突出,响应速度超越多款热门国产模型。该模型采用稀疏激活架构,参数量达3090亿,以MIT协议开源权重与代码。
与LLaMA-Factory官方合作,一站式低代码大模型微调平台,支持超百种模型。
AgentSphere是一个AI本地云基础设施,用于安全的LLM代码执行。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$6
$24
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
Intel
DeepMath是一个40亿参数的数学推理模型,基于Qwen3-4B Thinking构建,结合了微调的大语言模型与沙盒化Python执行器。它能够为计算步骤生成简洁的Python代码片段,显著减少错误并缩短输出长度。
inferencerlabs
Qwen3-Coder-480B-A35B-Instruct是一个4800亿参数的大型代码生成模型,支持8.5bit量化,基于MLX框架优化。该模型专门针对代码生成任务设计,在配备足够内存的设备上能够高效运行。
noctrex
本项目是对Qwen3-Coder-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果,将上下文大小从256k扩展到1M,为代码生成和编程任务提供了更优化的模型版本,具有提升性能和节省资源的价值。
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
SamuelBang
AesCoder-4B是一个专注于提升代码美学质量的大语言模型,通过智能奖励反馈机制优化代码生成的美学表现,在网页设计、游戏开发等视觉编码任务中表现出色。
danielus
该模型是cerebras/Qwen3-Coder-REAP-25B-A3B的GGUF格式转换版本,使用llama.cpp工具进行格式转换和量化处理。原始模型是一个25B参数的大语言模型,专门针对代码生成任务进行优化。
EpistemeAI
这是第一代强大的vibe-code大语言模型,经过优化可直接根据结构松散的'氛围编码'提示生成自然语言和代码补全。相比早期模型,它具有更低的提示工程开销、更平滑的潜在空间插值,更容易引导生成可用代码。
unsloth
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
JetBrains
Mellum-4b-dpo-all是JetBrains开发的专为代码生成和理解设计的40亿参数大语言模型。经过预训练、SFT和直接偏好优化(DPO)三阶段训练,能够生成高质量、可读性强的代码,支持多种编程语言。
inclusionAI
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
nightmedia
Qwen3-42B-A3B-2507是基于Qwen3架构的42B参数大语言模型,在代码生成和文本生成任务上表现出色,支持多语言处理,具有增强的推理能力。该版本经过特殊优化,在多项基准测试中相比前代版本有性能提升。
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
emissary-ai
Code Llama是由Meta开发的700亿参数大型语言模型,专门针对Python编程语言进行了优化。该模型基于优化的Transformer架构,支持代码合成和理解任务,最多可处理16k个标记的上下文长度。
tensorblock
这是Qwen3-Coder-30B-A3B-Instruct模型的GGUF量化版本,由TensorBlock提供。该模型是一个300亿参数的大语言模型,专门针对代码生成和编程任务进行优化,支持多种编程语言和开发场景。
mlx-community
基于Qwen/Qwen3-Coder-30B-A3B-Instruct转换的MLX格式8位量化版本,专门用于代码生成和编程任务的30B参数大语言模型
Gallardo994
这是Qwen3-Coder-30B-A3B-Instruct模型的MLX格式转换版本,专门针对Apple Silicon芯片优化,是一个300亿参数的大型代码生成模型,支持多种编程语言的代码生成和理解任务。
Mungert
OpenReasoning-Nemotron-14B是基于Qwen2.5-14B-Instruct的大语言模型,专门针对数学、代码和科学解决方案生成进行后训练。在多个推理基准测试中表现出色,支持GenSelect模式提升性能。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
Code Merge MCP 是一个基于MCP协议的代码处理服务器,提供代码文件提取、合并和分析功能,助力大语言模型高效处理代码库。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
一个基于MCP协议的代码审查服务器,利用Repomix和大型语言模型对代码进行结构化分析并提供审查建议。
一个将OpenAPI规范转换为MCP服务器代码的命令行工具,用于在大型语言模型和API之间建立桥梁。
Checkstyle MCP Server是一个连接大语言模型与本地代码质量工具的中间件,支持Go、Java、Lua等语言的代码检查与格式化,并提供项目配置管理和AI自我纠错功能。
apktool-mcp-server是一个基于Apktool的MCP服务器,集成了大型语言模型(如Claude),提供实时逆向工程支持,包括漏洞分析、清单解析和代码审查等功能。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
Sandbox Fusion MCP服务器是一个为大型语言模型提供代码解释器功能的实现,支持多种编程语言的代码执行和Jupyter笔记本操作,通过stdio交互与客户端通信。
一个为大型语言模型提供文件系统上下文的MCP服务器,支持文件操作、代码分析和智能搜索。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。
一个基于大型语言模型的代码修改与生成服务
LSP-MCP是一个连接语言服务器协议(LSP)与模型上下文协议(MCP)的桥梁服务器,允许大语言模型通过标准接口查询代码悬停信息、补全建议等LSP功能。
Ant Design组件的MCP服务,为大型语言模型提供组件文档查询和代码生成支持
MCP-JaCoCo是一个将JaCoCo代码覆盖率报告转换为适合大语言模型(LLM)格式的服务工具,使AI驱动的分析更高效