中國自主研發的DeepSeek模型在港大主導的AI交易實驗中表現突出,以10.61%年化回報率擊敗GPT等國際頂尖AI模型及納斯達克100指數,展現AI在無人干預股市交易中的潛力。
10月16日,百度飛槳發佈視覺語言模型PaddleOCR-VL,以0.9B參數在權威評測OmniDocBench V1.5中獲92.56分,超越DeepSeek-OCR等主流模型登頂全球OCR榜單。截至10月21日,Huggingface趨勢榜前三均爲OCR模型,百度飛槳位列第一。
百川大模型發佈醫療大模型Baichuan-M2Plus,升級應用百小應並開放API接口。評測顯示,該模型醫療幻覺率顯著低於通用大模型,較DeepSeek降低約3倍,表現優於美國OpenEvidence應用。
百川大模型發佈醫療大模型Baichuan-M2Plus,升級百小應應用並開放API。該模型在醫療幻覺率上表現突出,較通用模型大幅降低,相比現有醫療產品DeepSeek降低約3倍,並超越美國OpenEvidence。基於創新的六源循證技術,提升了醫療問答的準確性。
全球首個由深度學習驅動的在線 OCR 工具,97% 準確率。
AI Fiesta是一個讓您與世界頂尖AI模型如ChatGPT、Gemini Pro、Claude、Perplexity、Deepseek和Grok交流的平臺。
聊天機器人AI產品集合,包括GPT-4o, Gemini, Qwen, Deepseek, Claude & Grok。
PPTDetector是準確檢測AI生成內容的AI檢測器,可檢測由ChatGPT,GPT,Gemini,Grok,Claude,Deepseek生成的pptx。
deepseek
$3.6
輸入tokens/百萬
$15.48
輸出tokens/百萬
128k
上下文長度
minimax
-
1M
$3.96
$15.77
$4.03
$15.98
baidu
$4
$16
$0.86
$1.3
$0.72
$2.88
$2
$8
32k
$1.94
$7.92
$1.01
$2.02
4.1k
GilbertAkham
這是一個基於DeepSeek-R1-Distill-Qwen-1.5B的多任務微調模型,通過LoRA適配器在多個數據集上進行訓練,具備強大的多任務泛化和推理能力,能夠處理廣泛的自然語言和基於推理的任務。
strangervisionhf
這是一個基於DeepSeek-OCR的圖像文本識別模型,專門解決了在最新版本transformers庫中的兼容性問題,使模型能夠在transformers v4.57.1等最新版本中順利運行。
sanchezalonsodavid17
這是DeepSeek-OCR的模態平衡量化(MBQ)變體,通過對視覺編碼器採用4位NF4量化減少內存佔用,同時保持投影器和語言/解碼器的BF16精度,可在普通GPU上進行本地部署和快速CPU試驗。
mlx-community
DeepSeek-OCR-8bit是基於DeepSeek-OCR模型轉換的MLX格式版本,專門針對蘋果芯片優化的視覺語言模型,支持多語言OCR識別和圖像文本理解任務。
quocnguyen
該模型是基於DeepSeek-OCR轉換的MLX格式視覺語言模型,專門用於光學字符識別(OCR)任務,支持多語言文本識別和圖像理解
這是一個基於DeepSeek-OCR模型轉換的MLX格式模型,支持多語言圖像文本識別和文本生成功能,專門針對OCR任務優化。
Jalea96
DeepSeek-OCR-bnb-4bit-NF4 是 deepseek-ai/DeepSeek-OCR 的 4 位 NF4 量化版本,使用 bitsandbytes 創建。它在保持高精度的同時,顯著減少了顯存使用量(最多可減少至 8GB),非常適合消費級 GPU。
noctrex
這是DeepSeek-MoE-16B-Chat模型的MXFP4_MOE量化版本,專門針對文本生成任務進行了優化,提供了更高效的推理解決方案。
deepseek-ai
DeepSeek-OCR是DeepSeek AI開發的一款先進的光學字符識別模型,專注於探索視覺文本壓縮的邊界,能夠高效地從圖像中提取和轉換文本內容。
Thrillcrazyer
Qwen-1.5B_THIP是基於DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k數學數據集上使用TRL框架進行GRPO方法微調的數學推理模型。該模型專門針對數學問題解決進行了優化,具備較強的數學推理能力。
moxin-org
本項目對DeepSeek-V3-0324進行了llama.cpp混合精度量化,解決了模型在邊緣設備上部署的難題,提升了模型的運行效率和資源利用率。
MikeKuykendall
這是DeepSeek公司的DeepSeek-MoE-16B模型的Q4_K_M量化版本,通過llama.cpp的Rust綁定啟用了MoE(專家混合)CPU卸載功能,顯著減少顯存使用。
kathywu95
這是一個基於DeepSeek-V3架構的隨機權重生成模型,專門用於測試和開發目的。模型使用隨機初始化的權重,參數規模經過精簡,適合快速原型開發和功能驗證。
QuantTrio
DeepSeek-V3.2-Exp-AWQ是基於DeepSeek-V3.2-Exp模型的量化版本,通過vLLM框架實現高效文本生成。該模型引入了DeepSeek稀疏注意力機制,在長上下文訓練和推理效率上有顯著提升,同時保持了模型輸出質量。
變換器庫是一個強大的自然語言處理工具庫,提供豐富的預訓練模型和便捷的使用接口,廣泛應用於文本生成、分類、翻譯等NLP任務,極大提升開發效率。
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一個高效的、專注於科學推理的模型,基於Qwen-1.6B構建,並在DeepSeek v3.1合成軌跡(10,000條記錄)上進行訓練。它針對隨機事件模擬、邏輯問題分析和結構化科學推理進行了優化,在符號精度和輕量級部署之間取得了平衡。
BBQGOD
DeepSeek-GRM-16B 是一個基於 Self-Principled Critique Tuning (SPCT) 的生成式獎勵模型,能為查詢-響應生成透明的'原則→批判→分數'評估流程,可用於大語言模型的強化學習、評估和數據收集等任務。
DeepSeek-V3.1是基於DeepSeek-V3.1-Base進行後訓練的大型語言模型,具有128K上下文長度,支持混合思維模式、智能工具調用和代碼代理功能。該模型在多項基準測試中表現出色,特別在數學推理、代碼生成和搜索代理任務上有顯著提升。
ubergarm
基於DeepSeek-V3.1模型的GGUF格式量化版本,使用ik_llama.cpp分支進行最優量化。該模型在特定內存佔用下實現最佳困惑度表現,提供從IQ5_K到IQ1_S等多種量化方案,滿足不同內存和性能需求。
bartowski
這是DeepSeek-V3.1模型的量化版本,使用llama.cpp的imatrix技術進行量化處理,旨在提升模型在不同硬件上的運行效率和性能。該版本提供多種量化級別,從高質量Q8_0到極低質量IQ1_M,滿足不同硬件配置和性能需求。
DeepSeek MCP服務器是一個為DeepSeek API設計的模型上下文協議服務器,支持與Claude Desktop等MCP兼容應用無縫集成,提供匿名API訪問和智能對話管理。
DeepSeek MCP服務器項目,為Claude Desktop等應用提供匿名API代理服務,支持多輪對話和自動模型切換。
Unreal Engine生成式AI支持插件,集成多種前沿LLM/GenAI模型API,提供遊戲開發中的AI集成層支持,包括OpenAI、Claude、Deepseek等模型的聊天、結構化輸出等功能,並支持Model Control Protocol(MCP)實現場景對象控制、藍圖生成等高級功能。
結合DeepSeek推理與Claude生成的兩階段AI對話服務
通過集成DeepSeek R1的推理引擎增強Claude的複雜任務處理能力
一個實現MCP協議的服務器,用於在Claude Desktop中集成Deepseek模型
本地化運行的智能代理系統,結合推理模型與工具調用模型
DeepClaude MCP是一個整合DeepSeek和Claude AI能力的服務器應用,通過雙模型協同提供更強大的AI響應服務。
一個基於DeepSeek-V3開發的MCP天氣查詢智能體項目,通過配置API密鑰和運行客戶端腳本來實現功能。
一個基於Node.js的Deepseek R1語言模型MCP服務器實現,支持8192令牌上下文窗口,提供穩定的Claude Desktop集成和模型參數配置。
Deepseek R1的MCP服務器實現,支持Node.js環境,提供強大的語言模型推理服務。
該項目通過集成DeepSeek R1的推理引擎增強Claude的複雜任務處理能力,提供多步驟精確推理支持。
一個由Claude構建的DeepSeek推理服務項目
一個生產級MCP服務器,集成DeepSeek API,提供代碼審查、文件管理、API賬戶管理等功能,支持多模型選擇和JSON格式響應。
Deepseek R1的MCP服務器實現,支持與Claude Desktop集成,提供強大的語言模型推理服務。
Thoughtful Claude是一個增強Claude推理能力的MCP服務器,通過集成DeepSeek R1的高級推理引擎,為Claude提供複雜多步推理任務處理能力。
MCP DeepSeek演示項目是一個基於MCP協議的客戶端應用,集成DeepSeek AI實現工具調用和即時通信,包含Next.js前端和SSE服務端。
一個MCP服務器,允許Claude Code在需要深入分析複雜問題時諮詢更強大的AI模型(如o3、Gemini 2.5 Pro、DeepSeek Reasoner)。
Deepseek Thinker MCP Server是一個提供Deepseek推理內容的MCP服務,支持OpenAI API和本地Ollama兩種模式,可集成到AI客戶端中。
結合DeepSeek推理與Claude生成能力的MCP服務