THUDM 發佈 GLM 4:32 億參數模型與 GPT-4o 和 DeepSeek-V3 正面競爭
在快速發展的語言模型領域,研究人員和組織面臨着諸多挑戰。這些挑戰包括提升推理能力、提供強大的多語言支持以及有效管理複雜的開放任務。儘管較小的模型通常更容易獲得且成本較低,但在性能上往往不及更大的模型。因此,開發中型模型以有效平衡計算效率與強大的推理及指令跟隨能力,成爲了當前的趨勢。近日,清華大學發佈了 GLM4,特別是其 GLM-Z1-32B-0414變體,有效應對了這些挑戰。GLM4在一個包含15萬億個標記的大型數據集上進行訓練,旨在提供可靠的多語言能力,並引入了