新加坡AISG发布新一代大语言模型Qwen-Sea-Lion-v4,底层架构从Meta Llama切换为阿里Qwen3-32B,在东南亚语言评估基准Sea-Helm的<2000亿参数开源榜单夺冠。切换主因:Qwen3预训练覆盖119种语言/方言,对印尼语等低资源语言适配更优;分词优化放弃西方常用方案,原生多语架构降低后续训练门槛。
aisingapore
Qwen-SEA-LION-v4-4B-VL 是一个基于 Qwen3-VL-4B-Instruct 架构构建的 40 亿参数视觉语言模型。它专门针对东南亚地区进行了指令微调,具备多语言和多元文化能力,支持英语及七种东南亚语言,并保留了强大的视觉-语言理解能力。
Qwen-SEA-LION-v4-32B-IT-4BIT是针对东南亚语言优化的32B参数大语言模型的4位量化版本,在保持优异性能的同时显著降低内存需求,可在消费级硬件上运行。
Qwen-SEA-LION-v4-32B-IT是基于Qwen3-32B构建的东南亚语言大语言模型,专门针对东南亚地区进行了预训练和指令微调。该模型在包含7种东南亚语言的SEA-Pile v2语料库上继续预训练,并在800万对高质量问答数据上进行指令微调,具备强大的多语言理解和推理能力。