在CES 2026上,英偉達CEO黃仁勳發佈Vera Rubin芯片,並高度評價開源AI模型DeepSeek-R1,稱其引領全球開源生態發展,讓世界驚訝。
Signal65基準測試顯示,英偉達GB200 NVL72在運行Deepseek-R1混合專家模型時,性能顯著優於同規模AMD MI355X集羣。混合專家模型通過激活特定專家提升效率,但大規模擴展時面臨節點通信延遲和帶寬壓力挑戰。
網易有道詞典2025年度熱詞揭曉,“DeepSeek”以867萬次搜索量登頂,成爲首個源自國產AI大模型的年度詞彙。搜索熱度自2月DeepSeek-R1模型發佈後迅速攀升,後續技術突破均帶動查詢高峯。大學生和職場人羣爲主要搜索羣體,用戶查詞後常延伸瀏覽“大模型”等相關概念,形成“查詞—學習概念”的鏈條,反映出AI技術普及推動公衆認知深化的趨勢。
騰訊雲宣佈將於2025年11月24日下線DeepSeek-V3和DeepSeek-R1模型,屆時停止所有接入服務。官方建議用戶遷移至最新穩定版本,以配合大模型技術持續升級。
基於Deepseek-R1-14B優化的角色扮演與思維鏈(CoT)模型,適合長文本創作與對話。
這是一個完全開放的 DeepSeek-R1 模型的復現項目,旨在幫助開發者復現和構建基於 R1 的模型。
DeepSeek-R1-Distill-Qwen-1.5B 是一款高效推理的開源語言模型,適用於多種自然語言處理任務。
DeepSeek-R1-Distill-Qwen-7B 是一個開源的推理模型,專注於數學、代碼和推理任務。
Deepseek
$4
輸入tokens/百萬
$16
輸出tokens/百萬
32
上下文長度
$2
$8
Alibaba
-
$1.6
128
8
$1
Baidu
64
Tencent
$100
GilbertAkham
這是一個基於DeepSeek-R1-Distill-Qwen-1.5B的多任務微調模型,通過LoRA適配器在多個數據集上進行訓練,具備強大的多任務泛化和推理能力,能夠處理廣泛的自然語言和基於推理的任務。
Thrillcrazyer
Qwen-1.5B_THIP是基於DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k數學數據集上使用TRL框架進行GRPO方法微調的數學推理模型。該模型專門針對數學問題解決進行了優化,具備較強的數學推理能力。
recursechat
DeepSeek-R1是通過大規模強化學習訓練的推理模型,在數學、代碼和推理任務上表現出色,無需監督微調即可展現強大的推理能力,包括自我驗證、反思和生成長思維鏈等。
yanmyoaung04
這是基於Unsloth的DeepSeek-R1-Distill-Llama-8B模型微調的網絡安全專用版本,專注於生成和理解網絡安全相關內容,為威脅情報總結、漏洞分析等任務提供支持。
nvidia
NVIDIA DeepSeek R1 FP4 v2是基於DeepSeek AI的DeepSeek R1模型進行FP4量化的文本生成模型,採用優化的Transformer架構,可用於商業和非商業用途。該模型通過TensorRT Model Optimizer進行量化,相比FP8版本顯著減少了磁盤大小和GPU內存需求。
NVIDIA DeepSeek-R1-0528-FP4 v2是DeepSeek R1 0528模型的量化版本,採用優化的Transformer架構,是一個自迴歸語言模型。通過FP4量化優化,減少了磁盤大小和GPU內存需求,同時保持較高推理效率。
willcb
這是一個🤗 Transformers模型中心的模型卡片,由於缺乏具體信息,無法提供詳細的模型介紹。建議查看原始模型頁面獲取完整信息。
Mungert
AceReason-Nemotron-7B是一款通過強化學習訓練的數學和代碼推理模型,基於DeepSeek-R1-Distilled-Qwen-7B開發,在多個推理基準測試中表現出色。
Azzindani
這是一個專門針對印尼法律領域優化的語言模型,基於DeepSeek-R1-0528-Qwen3-8B使用GRPO方法在印尼法律問答數據集上微調而成,專注於提升法律推理和結構化思維能力。
ykarout
該模型是基於DeepSeek-R1-0528-Qwen3-8B的微調版本,使用TRL和GRPO方法進行訓練,專注於數學推理能力的提升。
mlx-community
DeepSeek-R1-0528 的 5 位量化版本,適用於 MLX 框架。
這是DeepSeek-R1-Distill-Qwen-32B模型的MLX格式轉換版本,一個擁有320億參數的大型語言模型,專門針對MLX框架進行了優化,支持高效的文本生成和對話任務。
ertghiu256
基於Qwen 3 4B參數模型微調,提升推理與問題解決能力
QuantFactory
AceReason-Nemotron-7B是一個基於強化學習訓練的數學和代碼推理模型,從DeepSeek-R1-Distilled-Qwen-7B開始訓練,在多個基準測試中表現出色。
senfu
這是一個基於DeepSeek-R1-Distill-Qwen-7B模型,使用open-r1/OpenR1-Math-220k數學數據集進行微調的大語言模型。該模型專門針對數學推理和問題解決能力進行了優化,使用TRL框架進行訓練。
基於DeepSeek-R1-0528-Qwen3-8B模型轉換的6位量化版本,適用於MLX框架的文本生成任務。
stelterlab
DeepSeek-R1-0528是深度求索公司推出的升級版大語言模型,在推理能力、減少幻覺率等方面有顯著提升,整體性能接近領先模型。
kartd
這是一個基於Qwen-14B模型微調的版本,使用GRPO方法進行訓練,適用於文本生成任務。
featherless-ai-quants
DeepSeek-R1-Distill-Qwen-14B 是一個經過優化的14B參數規模的大語言模型,由DeepSeek AI發佈,基於Qwen架構蒸餾而來,提供多種GGUF量化版本以提升性能。
NVIDIA DeepSeek-R1-0528-FP4 是 DeepSeek R1 0528 模型的量化版本,採用優化的 Transformer 架構,權重和激活值量化為 FP4 數據類型,顯著減少磁盤大小和 GPU 內存需求,支持 TensorRT-LLM 推理引擎實現高效推理。
DeepSeek R1與Claude結合的認知架構項目,通過R1進行高級推理規劃,Claude執行具體分析,實現多步驟邏輯推理和結構化思維處理。
一個基於Model Context Protocol (MCP)的服務器,提供對DeepSeek-R1推理能力的訪問,使非推理模型能夠通過增強的思考生成更好的響應。