AI 音乐赛道在2026年初迎来了又一次震撼余震。3月9日,由

三大突破:让 AI 音乐不再有“塑料感”
高音乐性: 不同于简单的旋律叠加,该模型能处理复杂的多轨编曲,空间层次感极强。
高歌词准确性: 咬字不清、幻觉跑调成了过去式。其音素错误率(PER)仅为 8.55%,这一数据显著优于顶级商业模型
(12.4%),仅次于Suno v5 。MiniMax2.5 极强可控性: 无论是文本描述还是音频提示,它都能精准遵循,深度定制风格与情绪。

“双核”驱动:LLM 与扩散模型的梦幻联动
在架构设计上,
作曲大脑(LeLM): 负责规划全局结构与演唱细节,解决“怎么唱”的问题。
高保真渲染器(Diffusion): 在语言模型的指导下,合成极其复杂的声学细节。
分层表征: 首创混合表征与多轨表征并行建模,兼顾了旋律的稳定性与音质的细腻度。
真开源、低门槛:普通电脑也能“写歌”
最令开发者振奋的是,腾讯此次展现了极大的开源诚意。拥有4B 参数的
为了让用户即刻体验,项目组还在 HuggingFace 推出了
从


