新加坡AISG發佈新一代大語言模型Qwen-Sea-Lion-v4,底層架構從Meta Llama切換爲阿里Qwen3-32B,在東南亞語言評估基準Sea-Helm的<2000億參數開源榜單奪冠。切換主因:Qwen3預訓練覆蓋119種語言/方言,對印尼語等低資源語言適配更優;分詞優化放棄西方常用方案,原生多語架構降低後續訓練門檻。
aisingapore
Qwen-SEA-LION-v4-32B-IT是基於Qwen3-32B構建的東南亞語言大語言模型,專門針對東南亞地區進行了預訓練和指令微調。該模型在包含7種東南亞語言的SEA-Pile v2語料庫上繼續預訓練,並在800萬對高質量問答數據上進行指令微調,具備強大的多語言理解和推理能力。