硅基流動發佈實驗性模型DeepSeek-V3.2-Exp,支持160K上下文長度,價格直降超50%。該模型基於V3.1-Terminus深度優化,引入DeepSeek稀疏注意力機制,顯著提升長文本訓練和推理效率。
DeepSeek發佈實驗模型V3.2-exp,採用創新稀疏注意力機制,顯著降低長上下文操作的推理成本,使API成本減少一半。該模型爲開發者提供更經濟高效的AI解決方案。
DeepSeek發佈實驗模型V3.2-exp,採用創新的“稀疏注意力”機制顯著降低長上下文推理成本。該模型已在Hugging Face和GitHub同步上線,核心是通過“閃電索引器”和注意力機制優化處理效率。這一突破性技術有望推動AI在長文本處理領域的發展。
DeepSeek悄然上線新版模型,疑似V3.2版本。雖然官方未明確型號,但Hugging Face平臺出現對應命名空間,隨後又顯示404下架。V3系列此前已憑卓越性能和開源策略震動AI界,此次短暫亮相又神祕消失,更添懸念。
基於DeepSeek R1和V3模型的瀏覽器側邊欄AI工具,提供問答、創作、翻譯等功能
在Kie.ai上集成DeepSeek R1和V3 API,提供安全且可擴展的AI解決方案。
deepseek
-
輸入tokens/百萬
輸出tokens/百萬
128k
上下文長度
baidu
$4
$16
$1.94
$7.92
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一個高效的、專注於科學推理的模型,基於Qwen-1.6B構建,並在DeepSeek v3.1合成軌跡(10,000條記錄)上進行訓練。它針對隨機事件模擬、邏輯問題分析和結構化科學推理進行了優化,在符號精度和輕量級部署之間取得了平衡。
QuixiAI
DeepSeek V3 0324的AWQ量化版本,由Eric Hartford和v2ray完成量化處理。該版本修復了使用float16時出現的溢出問題,優化了模型性能,支持在8張80GB GPU上以完整上下文長度運行。
DeepSeek V3的AWQ量化版本,優化了float16使用時的溢出問題,適合在8張80GB GPU上使用vLLM進行高效服務。