日本数据科学家本田崇人推出开源编程语言“Sui”,旨在解决大语言模型生成代码的准确性问题,宣称可实现100%准确率。其设计理念源于日本美学“粋”,强调精炼与去除冗余,核心原则包括保证零语法错误率,并使用数字作为变量。
DeepSeek发布开源模型DeepSeek-V3.1-Terminus,修复了语言不一致和异常字符问题,优化了编程与搜索智能体性能。基准测试显示该模型在非智能体类任务中表现优异。
DeepSeek发布V3.1大语言模型,上下文窗口从64k扩展至128k tokens,保持API兼容性。距离上一版本仅隔五个月,新版本在推理、编程和数学计算等核心能力上进一步升级,是开源AI领域的重要进展。
苹果研究团队发布论文《UICoder》,通过自动反馈微调开源模型,成功训练其自主学习SwiftUI用户界面开发。尽管大型语言模型在创意写作和编程领域表现优异,但在生成语法正确、设计良好的UI代码方面仍存在短板,主要由于UI代码示例稀缺。
开源代码生成与推理的大型语言模型
开源代码生成语言模型
开源的32亿参数代码生成语言模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
unsloth
Qwen3-235B-A22B-Thinking-2507是一款强大的混合专家语言模型,在知识推理、数学计算、科学分析、编程等多个领域表现出色。该模型具有235B总参数和22B激活参数,支持256K长上下文理解,在开源思考模型中达到了最先进的性能水平。
JetBrains
JetBrains首个专为代码相关任务优化的开源大语言模型,支持8192token上下文窗口,覆盖多种编程语言
01-ai
Yi-Coder-1.5B 是一个开源代码语言模型,参数规模为15亿,支持52种编程语言,具备128K tokens的长文本理解能力。
TJUNLP
FuxiTranyu-8B是一个从头开始训练的开源多语言大语言模型,在6000亿个词元上进行训练,专注于多语言能力,支持43种自然语言和16种编程语言。
openchat
OpenChat 3.5 1210是基于Mistral-7B架构的开源语言模型,在混合质量数据集上训练,支持编程、通用对话和数学推理任务,整体表现优于ChatGPT(三月版)和Grok-1。
Serena是一个强大的开源编码代理工具包,能够将LLM转化为可直接在代码库上工作的全功能代理。它提供类似IDE的语义代码检索和编辑工具,支持多种编程语言,并可通过MCP协议或Agno框架与多种LLM集成。