月之暗面解密o1:Long-CoT是關鍵,模型思考需要"放長線"
月之暗面研究員Flood Sung近日發表萬字長文,首次詳細披露了k1.5模型的研發思路,並就OpenAI o1模型帶來的技術啓示進行深度反思。據Flood Sung介紹,Long-CoT(長鏈條思維)的重要性其實早在一年多前就已被月之暗面聯合創始人Tim周昕宇驗證。通過使用小型模型訓練多位數運算,並將細粒度運算過程轉化爲長鏈條思維數據進行SFT(有監督微調),就能獲得顯著效果。然而,受限於成本考慮,月之暗面此前將重點放在了Long Context(長文本輸入)的優化上。Flood Sung解釋道,Long Context主要處理輸入端,