DeepSeek於2月11日灰度更新網頁端和APP端,14日正式官宣爲新長文本模型結構測試。此次更新支持最高100萬token超長上下文,知識庫更新至2025年5月。但API服務仍爲V3.2版本,僅支持128K上下文。業內視此次更新爲下一代V4模型發佈前的技術預熱和壓力測試,引發對V4的廣泛期待。更新後,DeepSeek的交互風格也發生明顯變化。
國產AI芯片與大模型協同優化取得重要進展。摩爾線程與硅基流動基於國產GPU MTT S5000,成功完成對千億參數大模型DeepSeek V3 671B的深度適配。通過應用FP8低精度推理技術,實現單卡預填充吞吐量超4000 tokens/秒,解碼吞吐量超1000 tokens/秒,推理速度已接近國際主流高端AI加速器水平。
國產AI公司DeepSeek在GitHub代碼庫中更新FlashMLA代碼,被發現大量指向未知模型“MODEL1”的標識符。該標識符與現有V3.2版本並列提及,暗示這可能是一個全新的模型序列,而非簡單迭代。
騰訊自研大模型混元2.0(Tencent HY2.0)正式發佈,與此同時,DeepSeek V3.2也逐步接入騰訊生態。目前,這兩大模型已在元寶、ima等騰訊AI原生應用中率先上線,騰訊雲也同步開放了相關模型的API及平臺服務。 全新發布的Tencent HY2.0採用混合專家(MoE)架構,總參數量高達4
基於DeepSeek R1和V3模型的瀏覽器側邊欄AI工具,提供問答、創作、翻譯等功能
在Kie.ai上集成DeepSeek R1和V3 API,提供安全且可擴展的AI解決方案。
Deepseek
$4
輸入tokens/百萬
$12
輸出tokens/百萬
128
上下文長度
$16
32
Tencent
$0.8
$2
$8
Alibaba
-
$1.6
8
$1
Baidu
64
$100
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一個高效的、專注於科學推理的模型,基於Qwen-1.6B構建,並在DeepSeek v3.1合成軌跡(10,000條記錄)上進行訓練。它針對隨機事件模擬、邏輯問題分析和結構化科學推理進行了優化,在符號精度和輕量級部署之間取得了平衡。
nvidia
這是DeepSeek AI的DeepSeek V3-0324模型的量化版本,採用優化的Transformer架構,通過FP4量化技術顯著減少了模型大小和GPU內存需求,適用於AI智能體系統、聊天機器人等多種AI應用場景。
QuixiAI
DeepSeek V3 0324的AWQ量化版本,由Eric Hartford和v2ray完成量化處理。該版本修復了使用float16時出現的溢出問題,優化了模型性能,支持在8張80GB GPU上以完整上下文長度運行。
DeepSeek V3的AWQ量化版本,優化了float16使用時的溢出問題,適合在8張80GB GPU上使用vLLM進行高效服務。