国产AI芯片与大模型协同优化取得重要进展。摩尔线程与硅基流动基于国产GPU MTT S5000,成功完成对千亿参数大模型DeepSeek V3 671B的深度适配。通过应用FP8低精度推理技术,实现单卡预填充吞吐量超4000 tokens/秒,解码吞吐量超1000 tokens/秒,推理速度已接近国际主流高端AI加速器水平。
英伟达CEO黄仁勋在达沃斯论坛上表示,过去一年AI模型层取得三大突破:一是代理式AI的崛起,模型具备复杂推理与计划能力;二是开源模型生态繁荣,如DeepSeek等降低了技术门槛;三是多模态AI的快速发展,推动AI应用更广泛落地。
在2026年达沃斯论坛上,DeepMind CEO哈萨比斯指出,中国AI技术已接近西方,差距缩小至约6个月。他特别肯定国产模型DeepSeek R1,称其性能令人印象深刻,曾引发硅谷震动。
国产AI公司DeepSeek在GitHub代码库中更新FlashMLA代码,被发现大量指向未知模型“MODEL1”的标识符。该标识符与现有V3.2版本并列提及,暗示这可能是一个全新的模型序列,而非简单迭代。
AI Fiesta是一个让您与世界顶尖AI模型如ChatGPT、Gemini Pro、Claude、Perplexity、Deepseek和Grok交流的平台。
DeepSeek R1-0528 是一款开源大模型,性能媲美 OpenAI o3 模型。
基于DeepSeek R1和V3模型的浏览器侧边栏AI工具,提供问答、创作、翻译等功能
DeepSeek-V3/R1 推理系统是一个高性能的分布式推理架构,专为大规模 AI 模型优化设计。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
Dogacel
这是一个基于原始DeepSeek-OCR模型的优化版本,专门支持在苹果金属性能着色器(MPS)和CPU上进行推理的OCR模型。它能够从图像中提取文本并转换为结构化格式,支持多语言文档识别。
GilbertAkham
这是一个基于DeepSeek-R1-Distill-Qwen-1.5B的多任务微调模型,通过LoRA适配器在多个数据集上进行训练,具备强大的多任务泛化和推理能力,能够处理广泛的自然语言和基于推理的任务。
strangervisionhf
这是一个基于DeepSeek-OCR的图像文本识别模型,专门解决了在最新版本transformers库中的兼容性问题,使模型能够在transformers v4.57.1等最新版本中顺利运行。
mlx-community
DeepSeek-OCR-8bit是基于DeepSeek-OCR模型转换的MLX格式版本,专门针对苹果芯片优化的视觉语言模型,支持多语言OCR识别和图像文本理解任务。
DeepSeek-OCR-6bit是基于DeepSeek-OCR模型转换的MLX格式版本,专门针对苹果芯片优化。这是一个视觉语言模型,具备强大的光学字符识别能力,能够从图像中提取和识别文本信息。
quocnguyen
该模型是基于DeepSeek-OCR转换的MLX格式视觉语言模型,专门用于光学字符识别(OCR)任务,支持多语言文本识别和图像理解
这是一个基于DeepSeek-OCR模型转换的MLX格式模型,支持多语言图像文本识别和文本生成功能,专门针对OCR任务优化。
noctrex
这是DeepSeek-MoE-16B-Chat模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化,提供了更高效的推理解决方案。
deepseek-ai
DeepSeek-OCR是DeepSeek AI开发的一款先进的光学字符识别模型,专注于探索视觉文本压缩的边界,能够高效地从图像中提取和转换文本内容。
Thrillcrazyer
Qwen-1.5B_THIP是基于DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k数学数据集上使用TRL框架进行GRPO方法微调的数学推理模型。该模型专门针对数学问题解决进行了优化,具备较强的数学推理能力。
moxin-org
本项目对DeepSeek-V3-0324进行了llama.cpp混合精度量化,解决了模型在边缘设备上部署的难题,提升了模型的运行效率和资源利用率。
MikeKuykendall
这是DeepSeek公司的DeepSeek-MoE-16B模型的Q4_K_M量化版本,通过llama.cpp的Rust绑定启用了MoE(专家混合)CPU卸载功能,显著减少显存使用。
kathywu95
这是一个基于DeepSeek-V3架构的随机权重生成模型,专门用于测试和开发目的。模型使用随机初始化的权重,参数规模经过精简,适合快速原型开发和功能验证。
QuantTrio
DeepSeek-V3.2-Exp-AWQ是基于DeepSeek-V3.2-Exp模型的量化版本,通过vLLM框架实现高效文本生成。该模型引入了DeepSeek稀疏注意力机制,在长上下文训练和推理效率上有显著提升,同时保持了模型输出质量。
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一个高效的、专注于科学推理的模型,基于Qwen-1.6B构建,并在DeepSeek v3.1合成轨迹(10,000条记录)上进行训练。它针对随机事件模拟、逻辑问题分析和结构化科学推理进行了优化,在符号精度和轻量级部署之间取得了平衡。
BBQGOD
DeepSeek-GRM-16B 是一个基于 Self-Principled Critique Tuning (SPCT) 的生成式奖励模型,能为查询-响应生成透明的'原则→批判→分数'评估流程,可用于大语言模型的强化学习、评估和数据收集等任务。
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
ubergarm
基于DeepSeek-V3.1模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型在特定内存占用下实现最佳困惑度表现,提供从IQ5_K到IQ1_S等多种量化方案,满足不同内存和性能需求。
bartowski
这是DeepSeek-V3.1模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,旨在提升模型在不同硬件上的运行效率和性能。该版本提供多种量化级别,从高质量Q8_0到极低质量IQ1_M,满足不同硬件配置和性能需求。
unsloth
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
DeepSeek MCP服务器是一个为DeepSeek API设计的模型上下文协议服务器,支持与Claude Desktop等MCP兼容应用无缝集成,提供匿名API访问和智能对话管理。
DeepSeek MCP服务器项目,为Claude Desktop等应用提供匿名API代理服务,支持多轮对话和自动模型切换。
Unreal Engine生成式AI支持插件,集成多种前沿LLM/GenAI模型API,提供游戏开发中的AI集成层支持,包括OpenAI、Claude、Deepseek等模型的聊天、结构化输出等功能,并支持Model Control Protocol(MCP)实现场景对象控制、蓝图生成等高级功能。
Deepseek R1的MCP服务器实现,支持Node.js环境,提供强大的语言模型推理服务。
MCP Toolz 是一个用于Claude Code的MCP服务器工具,支持跨会话保存上下文和待办事项,并能获取ChatGPT、Claude、Gemini和DeepSeek等多AI模型的反馈。
一个MCP服务器,允许Claude Code在需要深入分析复杂问题时咨询更强大的AI模型(如o3、Gemini 2.5 Pro、DeepSeek Reasoner)。
一个实现MCP协议的服务器,用于在Claude Desktop中集成Deepseek模型
Deepseek R1的MCP服务器实现,支持与Claude Desktop集成,提供强大的语言模型推理服务。
一个生产级MCP服务器,集成DeepSeek API,提供代码审查、文件管理、API账户管理等功能,支持多模型选择和JSON格式响应。
DeepClaude MCP是一个整合DeepSeek和Claude AI能力的服务器应用,通过双模型协同提供更强大的AI响应服务。
一个基于Node.js的Deepseek R1语言模型MCP服务器实现,支持8192令牌上下文窗口,提供稳定的Claude Desktop集成和模型参数配置。
一个利用Deepseek R1模型的思维链进行推理的MCP服务工具,支持在Claude Desktop等客户端中使用。
一个使用DeepSeek-V3模型的MCP演示项目,通过命令行交互查询天气信息,支持获取警报和天气预报功能。
Second Opinion MCP是一个多AI模型咨询平台,允许用户在Claude对话中即时获取来自OpenAI、Gemini、Grok、Claude、HuggingFace、DeepSeek和OpenRouter等不同AI模型的第二意见,支持代码对比、创意写作、问题解决和跨模型分析等功能。
DeepSeek MCP服务器是一个用于连接DeepSeek API与MCP兼容应用(如Claude Desktop)的中间服务,支持多种模型参数配置和聊天功能。
DeepSeek MCP服务器是一个为DeepSeek API设计的模型上下文协议服务器,支持与Claude Desktop等MCP兼容应用无缝集成,提供匿名API访问、多轮对话支持和自动模型回退等功能。