腾讯发布Training-Free GRPO技术,通过外部知识库替代参数微调,在模型参数冻结状态下实现性能优化。该方法将经验知识转化为token级先验信息,显著降低训练成本,在DeepSeek-V3.1-Terminus模型上达到与昂贵微调相当的提升效果。
DeepSeek发布开源模型DeepSeek-V3.1-Terminus,修复了语言不一致和异常字符问题,优化了编程与搜索智能体性能。基准测试显示该模型在非智能体类任务中表现优异。
平安证券报告显示,DeepSeek-V3.1大模型正式上线,采用全新UE8M0FP8Scale参数精度,显著提升工具效率和智能体任务表现。这一创新推动国产芯片发展,标志着国产大模型技术迈出重要一步,并与国产芯片深度协同,增强实际应用能力。
QQ浏览器正式接入DeepSeek-V3.1技术,优先应用于“AI下载助理”功能。该技术显著提升下载效率与成功率,支持资料、软件、视频等多种文件类型,为用户带来更快捷高效的下载体验。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
ubergarm
基于DeepSeek-V3.1模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型在特定内存占用下实现最佳困惑度表现,提供从IQ5_K到IQ1_S等多种量化方案,满足不同内存和性能需求。
bartowski
这是DeepSeek-V3.1模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,旨在提升模型在不同硬件上的运行效率和性能。该版本提供多种量化级别,从高质量Q8_0到极低质量IQ1_M,满足不同硬件配置和性能需求。
unsloth
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
mlx-community
这是DeepSeek-V3.1-Base模型的4位量化版本,使用mlx-lm工具转换而成,专门为Apple Silicon芯片优化,提供高效的大语言模型推理能力。
deepseek-ai
DeepSeek-V3.1是DeepSeek团队开发的大规模语言模型,支持思考模式和非思考模式,在多个基准测试中表现出色,具备强大的文本理解、生成和推理能力。