腾讯云宣布将于2025年11月24日下线DeepSeek-V3和DeepSeek-R1模型,届时停止所有接入服务。官方建议用户迁移至最新稳定版本,以配合大模型技术持续升级。
蚂蚁集团AI健康应用AQ上线4个月月活用户突破千万,成为第五个月活超千万的AI原生APP,也是唯一行业专业级应用。其增速仅次于Deepseek和豆包,月活复合增长率达83.4%,远超行业水平。
中国自主研发的DeepSeek模型在港大主导的AI交易实验中表现突出,以10.61%年化回报率击败GPT等国际顶尖AI模型及纳斯达克100指数,展现AI在无人干预股市交易中的潜力。
10月16日,百度飞桨发布视觉语言模型PaddleOCR-VL,以0.9B参数在权威评测OmniDocBench V1.5中获92.56分,超越DeepSeek-OCR等主流模型登顶全球OCR榜单。截至10月21日,Huggingface趋势榜前三均为OCR模型,百度飞桨位列第一。
全球首个由深度学习驱动的在线 OCR 工具,97% 准确率。
AI Fiesta是一个让您与世界顶尖AI模型如ChatGPT、Gemini Pro、Claude、Perplexity、Deepseek和Grok交流的平台。
聊天机器人AI产品集合,包括GPT-4o, Gemini, Qwen, Deepseek, Claude & Grok。
PPTDetector是准确检测AI生成内容的AI检测器,可检测由ChatGPT,GPT,Gemini,Grok,Claude,Deepseek生成的pptx。
deepseek
$3.6
输入tokens/百万
$15.48
输出tokens/百万
128k
上下文长度
minimax
-
1M
$3.96
$15.77
$4.03
$15.98
baidu
$4
$16
$0.86
$1.3
$0.72
$2.88
$2
$8
32k
$1.94
$7.92
$1.01
$2.02
4.1k
GilbertAkham
这是一个基于DeepSeek-R1-Distill-Qwen-1.5B的多任务微调模型,通过LoRA适配器在多个数据集上进行训练,具备强大的多任务泛化和推理能力,能够处理广泛的自然语言和基于推理的任务。
strangervisionhf
这是一个基于DeepSeek-OCR的图像文本识别模型,专门解决了在最新版本transformers库中的兼容性问题,使模型能够在transformers v4.57.1等最新版本中顺利运行。
sanchezalonsodavid17
这是DeepSeek-OCR的模态平衡量化(MBQ)变体,通过对视觉编码器采用4位NF4量化减少内存占用,同时保持投影器和语言/解码器的BF16精度,可在普通GPU上进行本地部署和快速CPU试验。
mlx-community
DeepSeek-OCR-8bit是基于DeepSeek-OCR模型转换的MLX格式版本,专门针对苹果芯片优化的视觉语言模型,支持多语言OCR识别和图像文本理解任务。
quocnguyen
该模型是基于DeepSeek-OCR转换的MLX格式视觉语言模型,专门用于光学字符识别(OCR)任务,支持多语言文本识别和图像理解
这是一个基于DeepSeek-OCR模型转换的MLX格式模型,支持多语言图像文本识别和文本生成功能,专门针对OCR任务优化。
Jalea96
DeepSeek-OCR-bnb-4bit-NF4 是 deepseek-ai/DeepSeek-OCR 的 4 位 NF4 量化版本,使用 bitsandbytes 创建。它在保持高精度的同时,显著减少了显存使用量(最多可减少至 8GB),非常适合消费级 GPU。
noctrex
这是DeepSeek-MoE-16B-Chat模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化,提供了更高效的推理解决方案。
deepseek-ai
DeepSeek-OCR是DeepSeek AI开发的一款先进的光学字符识别模型,专注于探索视觉文本压缩的边界,能够高效地从图像中提取和转换文本内容。
Thrillcrazyer
Qwen-1.5B_THIP是基于DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k数学数据集上使用TRL框架进行GRPO方法微调的数学推理模型。该模型专门针对数学问题解决进行了优化,具备较强的数学推理能力。
moxin-org
本项目对DeepSeek-V3-0324进行了llama.cpp混合精度量化,解决了模型在边缘设备上部署的难题,提升了模型的运行效率和资源利用率。
MikeKuykendall
这是DeepSeek公司的DeepSeek-MoE-16B模型的Q4_K_M量化版本,通过llama.cpp的Rust绑定启用了MoE(专家混合)CPU卸载功能,显著减少显存使用。
kathywu95
这是一个基于DeepSeek-V3架构的随机权重生成模型,专门用于测试和开发目的。模型使用随机初始化的权重,参数规模经过精简,适合快速原型开发和功能验证。
QuantTrio
DeepSeek-V3.2-Exp-AWQ是基于DeepSeek-V3.2-Exp模型的量化版本,通过vLLM框架实现高效文本生成。该模型引入了DeepSeek稀疏注意力机制,在长上下文训练和推理效率上有显著提升,同时保持了模型输出质量。
变换器库是一个强大的自然语言处理工具库,提供丰富的预训练模型和便捷的使用接口,广泛应用于文本生成、分类、翻译等NLP任务,极大提升开发效率。
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一个高效的、专注于科学推理的模型,基于Qwen-1.6B构建,并在DeepSeek v3.1合成轨迹(10,000条记录)上进行训练。它针对随机事件模拟、逻辑问题分析和结构化科学推理进行了优化,在符号精度和轻量级部署之间取得了平衡。
BBQGOD
DeepSeek-GRM-16B 是一个基于 Self-Principled Critique Tuning (SPCT) 的生成式奖励模型,能为查询-响应生成透明的'原则→批判→分数'评估流程,可用于大语言模型的强化学习、评估和数据收集等任务。
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
ubergarm
基于DeepSeek-V3.1模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型在特定内存占用下实现最佳困惑度表现,提供从IQ5_K到IQ1_S等多种量化方案,满足不同内存和性能需求。
bartowski
这是DeepSeek-V3.1模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,旨在提升模型在不同硬件上的运行效率和性能。该版本提供多种量化级别,从高质量Q8_0到极低质量IQ1_M,满足不同硬件配置和性能需求。
DeepSeek MCP服务器是一个为DeepSeek API设计的模型上下文协议服务器,支持与Claude Desktop等MCP兼容应用无缝集成,提供匿名API访问和智能对话管理。
DeepSeek MCP服务器项目,为Claude Desktop等应用提供匿名API代理服务,支持多轮对话和自动模型切换。
Unreal Engine生成式AI支持插件,集成多种前沿LLM/GenAI模型API,提供游戏开发中的AI集成层支持,包括OpenAI、Claude、Deepseek等模型的聊天、结构化输出等功能,并支持Model Control Protocol(MCP)实现场景对象控制、蓝图生成等高级功能。
结合DeepSeek推理与Claude生成的两阶段AI对话服务
Deepseek R1的MCP服务器实现,支持Node.js环境,提供强大的语言模型推理服务。
一个由Claude构建的DeepSeek推理服务项目
一个基于Model Context Protocol的AI导师服务器,通过Deepseek-Reasoning提供代码审查、设计评估、写作反馈和创意头脑风暴等第二意见服务
通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力
一个实现MCP协议的服务器,用于在Claude Desktop中集成Deepseek模型
一个生产级MCP服务器,集成DeepSeek API,提供代码审查、文件管理、API账户管理等功能,支持多模型选择和JSON格式响应。
DeepClaude MCP是一个整合DeepSeek和Claude AI能力的服务器应用,通过双模型协同提供更强大的AI响应服务。
一个MCP服务器,允许Claude Code在需要深入分析复杂问题时咨询更强大的AI模型(如o3、Gemini 2.5 Pro、DeepSeek Reasoner)。
Deepseek R1的MCP服务器实现,支持与Claude Desktop集成,提供强大的语言模型推理服务。
该项目通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力,提供多步骤精确推理支持。
一个基于DeepSeek-V3开发的MCP天气查询智能体项目,通过配置API密钥和运行客户端脚本来实现功能。
一个基于DeepSeek API的MCP类服务器原型,提供终端命令执行和AI聊天集成功能。
Deepseek Thinker MCP Server是一个提供Deepseek推理内容的MCP服务,支持OpenAI API和本地Ollama两种模式,可集成到AI客户端中。
结合DeepSeek推理与Claude生成能力的MCP服务
MCP DeepSeek演示项目是一个基于MCP协议的客户端应用,集成DeepSeek AI实现工具调用和实时通信,包含Next.js前端和SSE服务端。
本地化运行的智能代理系统,结合推理模型与工具调用模型