据报道,开发者

实测核心:选对模型比调优更重要
在本次测试中,开发者弃用了体验欠佳的官方原版,转而采用社区魔改模型
极致速度: 生成速度高达 78tok/s,相比原版的十几 token 提升显著。
稀疏激活: 采用 A4B(Active4B)MoE 架构,总参数26B 但每次推理仅激活约4B 参数,实现了“小参数算力、大参数智能”。
超长上下文: 支持 256K 上下文,完美兼容 Anthropic API 格式,实现零配置对接。

效能分析:Agentic 工作链是双刃剑
实测显示,尽管模型生成极快,但在执行具体任务(如生成教师表代码)时,总耗时仍需约 1.5分钟。
瓶颈定位: 耗时主要集中在
Claude Code 的多步 Agentic 决策链。系统在执行前会进行多轮 Thought(思考)和 Skill 加载,导致 Prompt Token 膨胀。价值权衡: 这种多步决策对代码生成和修改类任务极具价值,能确保路径规范和逻辑闭环;但对于简单的知识问答,建议直接使用
LM Studio 对话以节省时间。

质量评估:JeecgBoot 教师表输出
在针对
规范性: SQL 路径自动符合 Flyway 规范,日期生成准确。
技术栈: Vue3采用 script setup + TS 写法,完全符合现代开发标准。
完整性: 生成了包括 Controller、Service、Mapper 在内的全套骨架。
不足: 复杂方法体仍需人工补充,关键逻辑建议进行人工复核。
战略建议:双模型“高低配”组合
基于实测数据,开发者提出了一套兼顾隐私、成本与质量的最优策略:
本地魔改模型(80% 场景): 处理日常 CRUD 生成、代码解释及隐私敏感的内部项目,享受零成本与数据不出内网的安全性。
云端官方 API(20% 场景): 应对复杂架构设计、核心安全模块等高难度任务,确保生产级质量。
结语:开启本地化 AI 开发新常态
随着




