在CES 2026上,英伟达CEO黄仁勋发布Vera Rubin芯片,并高度评价开源AI模型DeepSeek-R1,称其引领全球开源生态发展,让世界惊讶。
Signal65基准测试显示,英伟达GB200 NVL72在运行Deepseek-R1混合专家模型时,性能显著优于同规模AMD MI355X集群。混合专家模型通过激活特定专家提升效率,但大规模扩展时面临节点通信延迟和带宽压力挑战。
网易有道词典2025年度热词揭晓,“DeepSeek”以867万次搜索量登顶,成为首个源自国产AI大模型的年度词汇。搜索热度自2月DeepSeek-R1模型发布后迅速攀升,后续技术突破均带动查询高峰。大学生和职场人群为主要搜索群体,用户查词后常延伸浏览“大模型”等相关概念,形成“查词—学习概念”的链条,反映出AI技术普及推动公众认知深化的趋势。
腾讯云宣布将于2025年11月24日下线DeepSeek-V3和DeepSeek-R1模型,届时停止所有接入服务。官方建议用户迁移至最新稳定版本,以配合大模型技术持续升级。
基于Deepseek-R1-14B优化的角色扮演与思维链(CoT)模型,适合长文本创作与对话。
这是一个完全开放的 DeepSeek-R1 模型的复现项目,旨在帮助开发者复现和构建基于 R1 的模型。
DeepSeek-R1-Distill-Qwen-1.5B 是一款高效推理的开源语言模型,适用于多种自然语言处理任务。
DeepSeek-R1-Distill-Qwen-7B 是一个开源的推理模型,专注于数学、代码和推理任务。
Deepseek
$4
输入tokens/百万
$16
输出tokens/百万
32
上下文长度
$2
$8
Alibaba
-
$1.6
128
8
$1
Baidu
64
Tencent
$100
GilbertAkham
这是一个基于DeepSeek-R1-Distill-Qwen-1.5B的多任务微调模型,通过LoRA适配器在多个数据集上进行训练,具备强大的多任务泛化和推理能力,能够处理广泛的自然语言和基于推理的任务。
Thrillcrazyer
Qwen-1.5B_THIP是基于DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k数学数据集上使用TRL框架进行GRPO方法微调的数学推理模型。该模型专门针对数学问题解决进行了优化,具备较强的数学推理能力。
recursechat
DeepSeek-R1是通过大规模强化学习训练的推理模型,在数学、代码和推理任务上表现出色,无需监督微调即可展现强大的推理能力,包括自我验证、反思和生成长思维链等。
yanmyoaung04
这是基于Unsloth的DeepSeek-R1-Distill-Llama-8B模型微调的网络安全专用版本,专注于生成和理解网络安全相关内容,为威胁情报总结、漏洞分析等任务提供支持。
nvidia
NVIDIA DeepSeek R1 FP4 v2是基于DeepSeek AI的DeepSeek R1模型进行FP4量化的文本生成模型,采用优化的Transformer架构,可用于商业和非商业用途。该模型通过TensorRT Model Optimizer进行量化,相比FP8版本显著减少了磁盘大小和GPU内存需求。
NVIDIA DeepSeek-R1-0528-FP4 v2是DeepSeek R1 0528模型的量化版本,采用优化的Transformer架构,是一个自回归语言模型。通过FP4量化优化,减少了磁盘大小和GPU内存需求,同时保持较高推理效率。
willcb
这是一个🤗 Transformers模型中心的模型卡片,由于缺乏具体信息,无法提供详细的模型介绍。建议查看原始模型页面获取完整信息。
Mungert
AceReason-Nemotron-7B是一款通过强化学习训练的数学和代码推理模型,基于DeepSeek-R1-Distilled-Qwen-7B开发,在多个推理基准测试中表现出色。
Azzindani
这是一个专门针对印尼法律领域优化的语言模型,基于DeepSeek-R1-0528-Qwen3-8B使用GRPO方法在印尼法律问答数据集上微调而成,专注于提升法律推理和结构化思维能力。
ykarout
该模型是基于DeepSeek-R1-0528-Qwen3-8B的微调版本,使用TRL和GRPO方法进行训练,专注于数学推理能力的提升。
mlx-community
DeepSeek-R1-0528 的 5 位量化版本,适用于 MLX 框架。
这是DeepSeek-R1-Distill-Qwen-32B模型的MLX格式转换版本,一个拥有320亿参数的大型语言模型,专门针对MLX框架进行了优化,支持高效的文本生成和对话任务。
ertghiu256
基于Qwen 3 4B参数模型微调,提升推理与问题解决能力
QuantFactory
AceReason-Nemotron-7B是一个基于强化学习训练的数学和代码推理模型,从DeepSeek-R1-Distilled-Qwen-7B开始训练,在多个基准测试中表现出色。
senfu
这是一个基于DeepSeek-R1-Distill-Qwen-7B模型,使用open-r1/OpenR1-Math-220k数学数据集进行微调的大语言模型。该模型专门针对数学推理和问题解决能力进行了优化,使用TRL框架进行训练。
基于DeepSeek-R1-0528-Qwen3-8B模型转换的6位量化版本,适用于MLX框架的文本生成任务。
stelterlab
DeepSeek-R1-0528是深度求索公司推出的升级版大语言模型,在推理能力、减少幻觉率等方面有显著提升,整体性能接近领先模型。
kartd
这是一个基于Qwen-14B模型微调的版本,使用GRPO方法进行训练,适用于文本生成任务。
featherless-ai-quants
DeepSeek-R1-Distill-Qwen-14B 是一个经过优化的14B参数规模的大语言模型,由DeepSeek AI发布,基于Qwen架构蒸馏而来,提供多种GGUF量化版本以提升性能。
NVIDIA DeepSeek-R1-0528-FP4 是 DeepSeek R1 0528 模型的量化版本,采用优化的 Transformer 架构,权重和激活值量化为 FP4 数据类型,显著减少磁盘大小和 GPU 内存需求,支持 TensorRT-LLM 推理引擎实现高效推理。
DeepSeek R1与Claude结合的认知架构项目,通过R1进行高级推理规划,Claude执行具体分析,实现多步骤逻辑推理和结构化思维处理。
一个基于Model Context Protocol (MCP)的服务器,提供对DeepSeek-R1推理能力的访问,使非推理模型能够通过增强的思考生成更好的响应。