Anthropic新一代编程大模型Claude Sonnet5(代号Fennec)意外泄露,现身谷歌云基础设施,预计2026年2月初发布。该模型性能强大,被形容为“把整个开发团队塞进模型里”,标志着编程AI进入新阶段。泄露源于API调用时触发的404错误日志,显示模型已基本完成。
Anthropic即将发布新一代AI编程模型Claude Sonnet5,性能大幅超越现有旗舰模型,价格却降低一半。它采用创新的“蜂群”开发模式,旨在解决当前编程AI的痛点,有望重塑行业格局。
中国AI公司DeepSeek即将发布新一代大模型DeepSeek V4,重点强化代码生成能力,瞄准竞争激烈的AI编程赛道。
智谱科技GLM-4.7模型在WebDev榜单超越GPT-5.2,成为开源大模型第一,被赞为“Claude Code最佳平替”。其卓越的编程能力和灵活性引发网友实测热潮。智谱团队在AMA活动中分享了模型的技术进步细节。
基于仓颉编程语言构建的 LLM Agent 开发框架。
Mercury Coder 是一款基于扩散模型的高性能代码生成语言模型。
DeepSeek 是一款先进的 AI 语言模型,擅长逻辑推理、数学和编程任务,提供免费使用。
探索大型语言模型作为编程辅导工具的潜力,提出Trace-and-Verify工作流。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
noctrex
本项目是对Qwen3-Coder-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果,将上下文大小从256k扩展到1M,为代码生成和编程任务提供了更优化的模型版本,具有提升性能和节省资源的价值。
JetBrains
Mellum-4b-dpo-all是JetBrains开发的专为代码生成和理解设计的40亿参数大语言模型。经过预训练、SFT和直接偏好优化(DPO)三阶段训练,能够生成高质量、可读性强的代码,支持多种编程语言。
facebook
MobileLLM-R1是Meta发布的高效推理模型系列,包含140M、360M和950M三种规模。该模型专门针对数学、编程和科学问题进行优化,在参数规模较小的情况下实现了与大规模模型相当甚至更优的性能。
emissary-ai
Code Llama是由Meta开发的700亿参数大型语言模型,专门针对Python编程语言进行了优化。该模型基于优化的Transformer架构,支持代码合成和理解任务,最多可处理16k个标记的上下文长度。
tensorblock
这是Qwen3-Coder-30B-A3B-Instruct模型的GGUF量化版本,由TensorBlock提供。该模型是一个300亿参数的大语言模型,专门针对代码生成和编程任务进行优化,支持多种编程语言和开发场景。
mlx-community
基于Qwen/Qwen3-Coder-30B-A3B-Instruct转换的MLX格式8位量化版本,专门用于代码生成和编程任务的30B参数大语言模型
Gallardo994
这是Qwen3-Coder-30B-A3B-Instruct模型的MLX格式转换版本,专门针对Apple Silicon芯片优化,是一个300亿参数的大型代码生成模型,支持多种编程语言的代码生成和理解任务。
QuantTrio
基于Qwen3技术的量化修复大语言模型,专为高效代码生成和编程任务设计。该模型采用AWQ量化技术,在保持高性能的同时显著降低计算资源需求,支持多GPU环境下的快速部署和推理。
quantized4all
OpenCodeReasoning-Nemotron-1.1-7B是基于Qwen2.5-7B-Instruct开发的70亿参数大型语言模型,专门针对代码生成和推理任务进行后训练优化。该模型支持64k标记的上下文长度,在竞争性编程任务中表现出色,在LiveCodeBench评估中达到55.5%的一次通过率。
bartowski
一个多语言、多用途的大型语言模型,支持多种专业领域和通用任务,适用于角色扮演、故事创作、编程等多种场景。
PKU-DS-LAB
FairyR1-32B是一款高效的大型语言模型,基于DeepSeek-R1-Distill-Qwen-32B,通过优化的蒸馏与合并流程,在数学和编程任务上表现优异。
kakaocorp
Kanana 1.5是Kakao开发的双语大语言模型,在编程、数学和函数调用能力方面有显著提升,支持32K tokens上下文长度,通过YaRN扩展技术可处理128K tokens超长文本。
unsloth
KernelLLM是一款基于Llama 3.1 Instruct专门训练的大语言模型,专注于使用Triton编写GPU内核。它能够将PyTorch模块高效转换为Triton内核,使GPU编程更加普及和高效。
Mungert
OpenCodeReasoning-Nemotron-7B是基于Qwen2.5-7B-Instruct专门为代码生成推理而训练的大语言模型,支持32K token上下文长度,适用于商业和非商业用途。该模型在OpenCodeReasoning数据集上进行后续训练,专注于编程问题的推理和代码生成。
lmstudio-community
Qwen3-32B是由Qwen团队开发的大语言模型,支持131,072 tokens的上下文长度,具备强大的数学、编程和常识推理能力。
JetBrains首个专为代码相关任务优化的开源大语言模型,支持8192token上下文窗口,覆盖多种编程语言
Kanana 1.5是Kakao公司开发的双语大语言模型,支持英文和韩文,在编程、数学和函数调用能力方面有显著提升,原生支持32K tokens上下文长度
TIGER-Lab
General-Reasoner是一种大语言模型训练范式,旨在全面增强模型在不同领域的推理能力,涵盖数学、编程、物理、化学、金融、人文等多个领域。该模型基于Qwen2.5-14B训练,通过多样化推理数据和基于模型的验证器提升跨领域推理性能。
notbadai
专注于数学推理和Python编程训练的24B参数大语言模型,基于Mistral架构优化
Refact-1.6B 是一个专注于代码生成的1.6B参数规模的大语言模型,在多种编程语言上表现优异。
Sandbox Fusion MCP服务器是一个为大型语言模型提供代码解释器功能的实现,支持多种编程语言的代码执行和Jupyter笔记本操作,通过stdio交互与客户端通信。
该项目是一个Model Context Protocol (MCP)适配器,用于连接大型语言模型(LLM)与Lisp开发环境,支持通过轻量级Lisply协议进行交互。主要功能包括Lisp代码评估、HTTP请求和调试支持,适用于AI辅助符号编程、CAD设计自动化等场景。
Code Index MCP是一个模型上下文协议服务器,帮助大语言模型索引、搜索和分析项目目录中的代码,支持多种编程语言和持久化存储。
VectorCode是一个代码仓库索引工具,旨在通过索引和提供代码仓库信息来优化编程大语言模型(LLM)的提示构建。它支持多种嵌入引擎,提供命令行工具和Neovim插件,帮助开发者更高效地利用项目上下文提升模型输出质量。