騰訊發佈Training-Free GRPO技術,通過外部知識庫替代參數微調,在模型參數凍結狀態下實現性能優化。該方法將經驗知識轉化爲token級先驗信息,顯著降低訓練成本,在DeepSeek-V3.1-Terminus模型上達到與昂貴微調相當的提升效果。
DeepSeek發佈開源模型DeepSeek-V3.1-Terminus,修復了語言不一致和異常字符問題,優化了編程與搜索智能體性能。基準測試顯示該模型在非智能體類任務中表現優異。
平安證券報告顯示,DeepSeek-V3.1大模型正式上線,採用全新UE8M0FP8Scale參數精度,顯著提升工具效率和智能體任務表現。這一創新推動國產芯片發展,標誌着國產大模型技術邁出重要一步,並與國產芯片深度協同,增強實際應用能力。
QQ瀏覽器正式接入DeepSeek-V3.1技術,優先應用於“AI下載助理”功能。該技術顯著提升下載效率與成功率,支持資料、軟件、視頻等多種文件類型,爲用戶帶來更快捷高效的下載體驗。
QuantTrio
DeepSeek-V3.1是基於DeepSeek-V3.1-Base進行後訓練的大型語言模型,具有128K上下文長度,支持混合思維模式、智能工具調用和代碼代理功能。該模型在多項基準測試中表現出色,特別在數學推理、代碼生成和搜索代理任務上有顯著提升。
ubergarm
基於DeepSeek-V3.1模型的GGUF格式量化版本,使用ik_llama.cpp分支進行最優量化。該模型在特定內存佔用下實現最佳困惑度表現,提供從IQ5_K到IQ1_S等多種量化方案,滿足不同內存和性能需求。
bartowski
這是DeepSeek-V3.1模型的量化版本,使用llama.cpp的imatrix技術進行量化處理,旨在提升模型在不同硬件上的運行效率和性能。該版本提供多種量化級別,從高質量Q8_0到極低質量IQ1_M,滿足不同硬件配置和性能需求。
unsloth
DeepSeek-V3.1是DeepSeek-AI開發的大語言模型,是DeepSeek-V3的升級版本。該模型支持混合思考模式和非思考模式,在工具調用、代碼生成、數學推理等方面表現出色,支持128K上下文長度。
mlx-community
這是DeepSeek-V3.1-Base模型的4位量化版本,使用mlx-lm工具轉換而成,專門為Apple Silicon芯片優化,提供高效的大語言模型推理能力。
deepseek-ai
DeepSeek-V3.1是DeepSeek團隊開發的大規模語言模型,支持思考模式和非思考模式,在多個基準測試中表現出色,具備強大的文本理解、生成和推理能力。