硅基流动发布实验性模型DeepSeek-V3.2-Exp,支持160K上下文长度,价格直降超50%。该模型基于V3.1-Terminus深度优化,引入DeepSeek稀疏注意力机制,显著提升长文本训练和推理效率。
DeepSeek发布实验模型V3.2-exp,采用创新稀疏注意力机制,显著降低长上下文操作的推理成本,使API成本减少一半。该模型为开发者提供更经济高效的AI解决方案。
DeepSeek发布实验模型V3.2-exp,采用创新的“稀疏注意力”机制显著降低长上下文推理成本。该模型已在Hugging Face和GitHub同步上线,核心是通过“闪电索引器”和注意力机制优化处理效率。这一突破性技术有望推动AI在长文本处理领域的发展。
DeepSeek悄然上线新版模型,疑似V3.2版本。虽然官方未明确型号,但Hugging Face平台出现对应命名空间,随后又显示404下架。V3系列此前已凭卓越性能和开源策略震动AI界,此次短暂亮相又神秘消失,更添悬念。
基于DeepSeek R1和V3模型的浏览器侧边栏AI工具,提供问答、创作、翻译等功能
在Kie.ai上集成DeepSeek R1和V3 API,提供安全且可扩展的AI解决方案。
deepseek
-
输入tokens/百万
输出tokens/百万
128k
上下文长度
baidu
$4
$16
$1.94
$7.92
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1是一个高效的、专注于科学推理的模型,基于Qwen-1.6B构建,并在DeepSeek v3.1合成轨迹(10,000条记录)上进行训练。它针对随机事件模拟、逻辑问题分析和结构化科学推理进行了优化,在符号精度和轻量级部署之间取得了平衡。
QuixiAI
DeepSeek V3 0324的AWQ量化版本,由Eric Hartford和v2ray完成量化处理。该版本修复了使用float16时出现的溢出问题,优化了模型性能,支持在8张80GB GPU上以完整上下文长度运行。
DeepSeek V3的AWQ量化版本,优化了float16使用时的溢出问题,适合在8张80GB GPU上使用vLLM进行高效服务。