新加坡AISG发布新一代大语言模型Qwen-Sea-Lion-v4,底层架构从Meta Llama切换为阿里Qwen3-32B,在东南亚语言评估基准Sea-Helm的<2000亿参数开源榜单夺冠。切换主因:Qwen3预训练覆盖119种语言/方言,对印尼语等低资源语言适配更优;分词优化放弃西方常用方案,原生多语架构降低后续训练门槛。
aisingapore
Qwen-SEA-LION-v4-32B-IT是基于Qwen3-32B构建的东南亚语言大语言模型,专门针对东南亚地区进行了预训练和指令微调。该模型在包含7种东南亚语言的SEA-Pile v2语料库上继续预训练,并在800万对高质量问答数据上进行指令微调,具备强大的多语言理解和推理能力。