DeepSeek于2月11日灰度更新网页端和APP端,14日正式官宣为新长文本模型结构测试。此次更新支持最高100万token超长上下文,知识库更新至2025年5月。但API服务仍为V3.2版本,仅支持128K上下文。业内视此次更新为下一代V4模型发布前的技术预热和压力测试,引发对V4的广泛期待。更新后,DeepSeek的交互风格也发生明显变化。
国产AI芯片与大模型协同优化取得重要进展。摩尔线程与硅基流动基于国产GPU MTT S5000,成功完成对千亿参数大模型DeepSeek V3 671B的深度适配。通过应用FP8低精度推理技术,实现单卡预填充吞吐量超4000 tokens/秒,解码吞吐量超1000 tokens/秒,推理速度已接近国际主流高端AI加速器水平。
国产AI公司DeepSeek在GitHub代码库中更新FlashMLA代码,被发现大量指向未知模型“MODEL1”的标识符。该标识符与现有V3.2版本并列提及,暗示这可能是一个全新的模型序列,而非简单迭代。
腾讯自研大模型混元2.0(Tencent HY2.0)正式发布,与此同时,DeepSeek V3.2也逐步接入腾讯生态。目前,这两大模型已在元宝、ima等腾讯AI原生应用中率先上线,腾讯云也同步开放了相关模型的API及平台服务。 全新发布的Tencent HY2.0采用混合专家(MoE)架构,总参数量高达4
基于DeepSeek R1和V3模型的浏览器侧边栏AI工具,提供问答、创作、翻译等功能
在Kie.ai上集成DeepSeek R1和V3 API,提供安全且可扩展的AI解决方案。
Deepseek
$4
输入tokens/百万
$12
输出tokens/百万
128
上下文长度
$16
32
Tencent
$0.8
$2
$8
Alibaba
-
$1.6
8
$1
Baidu
64
$100
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一个高效的、专注于科学推理的模型,基于Qwen-1.6B构建,并在DeepSeek v3.1合成轨迹(10,000条记录)上进行训练。它针对随机事件模拟、逻辑问题分析和结构化科学推理进行了优化,在符号精度和轻量级部署之间取得了平衡。
nvidia
这是DeepSeek AI的DeepSeek V3-0324模型的量化版本,采用优化的Transformer架构,通过FP4量化技术显著减少了模型大小和GPU内存需求,适用于AI智能体系统、聊天机器人等多种AI应用场景。
QuixiAI
DeepSeek V3 0324的AWQ量化版本,由Eric Hartford和v2ray完成量化处理。该版本修复了使用float16时出现的溢出问题,优化了模型性能,支持在8张80GB GPU上以完整上下文长度运行。
DeepSeek V3的AWQ量化版本,优化了float16使用时的溢出问题,适合在8张80GB GPU上使用vLLM进行高效服务。