DeepSeek发布V3.2标准版与深度思考版。评测显示,V3.2在128k上下文场景下与GPT-5互有胜负;深度思考版在多项基准测试中与Gemini3Pro持平,并在IMO2025盲测中达到金牌分数线。核心升级是转正稀疏注意力技术,通过优化token路由,显著降低了长文本的计算复杂度、显存占用,并提升了推理速度,首次在开源模型中实现了百万token的单卡推理能力。
12月1日,中国AI公司深度求索发布DeepSeek-V3.2系列模型,包括标准版和高计算增强版。该系列采用创新的稀疏注意力机制(DSA),首次实现细粒度稀疏注意力,有效降低长文本处理的计算成本。模型强化了Agent能力,旨在挑战GPT-5和Gemini 3.0 Pro等全球顶级AI模型。
MiniMax M2模型采用全注意力机制,放弃线性或稀疏注意力技术。开发团队认为,尽管后者能节省计算资源,但全注意力在工业应用中更高效,能提升模型性能。这一决策旨在优化实际部署效果,推动AI技术发展。
蚂蚁集团开源百灵大模型Ring-flash-linear-2.0-128K,专攻超长文本编程。采用混合线性注意力与稀疏MoE架构,仅激活6.1B参数即可媲美40B密集模型,在代码生成和智能代理领域达到最优表现,高效解决长上下文处理痛点。
jackcloudman
Qwen3-Next-80B-A3B-Thinking 是通义千问团队推出的新一代思考型大语言模型,采用创新的混合注意力机制和高稀疏MoE架构,在保持高效推理的同时具备强大的复杂推理能力,原生支持262K上下文长度。
QuantTrio
DeepSeek-V3.2-Exp-AWQ是基于DeepSeek-V3.2-Exp模型的量化版本,通过vLLM框架实现高效文本生成。该模型引入了DeepSeek稀疏注意力机制,在长上下文训练和推理效率上有显著提升,同时保持了模型输出质量。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
Qwen3-Next-80B-A3B-Thinking-AWQ-4bit是基于Qwen3-Next-80B-A3B-Thinking模型通过AWQ量化技术生成的4位版本,显著提升了模型推理效率。该模型采用混合注意力机制和高稀疏MoE架构,在复杂推理任务中表现出色,支持长达262K标记的上下文长度。
Qwen3-Next-80B-A3B-Instruct-AWQ-4bit是基于Qwen3-Next-80B-A3B-Instruct模型进行4位AWQ量化的高效版本。该模型采用混合注意力机制和高稀疏专家混合架构,支持长达262K tokens的上下文长度,在保持高性能的同时大幅降低计算资源需求。
Qwen
Qwen3-Next-80B-A3B-Instruct是Qwen3-Next系列的基础模型,通过创新的混合注意力机制、高稀疏性专家混合层等技术,实现了在长文本处理上的高效建模和推理加速,在多个基准测试中展现出卓越性能。
FastVideo
FastWan2.1-T2V-1.3B-Diffusers是基于全新Sparse-distill策略微调的视频生成模型,结合蒸馏和稀疏注意力优势,支持高效的3步推理,能够以61×448×832分辨率生成高质量视频。
SeerAttention
为QwQ-32B模型引入注意力门控(AttnGates)权重的适配器,通过动态块级稀疏性加速长上下文计算
inclusionAI
玲珑线性预览版是由InclusionAI开源发布的混合线性稀疏大语言模型,总参数量17.1B,激活参数量3.0B。该模型基于混合线性注意力机制实现长文本推理,在推理过程中具备近线性计算复杂度与近恒定空间复杂度。
google
BigBird是一种基于稀疏注意力的Transformer模型,能够处理长达4096的序列,适用于长文档任务。
flax-community
Pino是基于BigBird架构的荷兰语预训练模型,采用稀疏注意力机制处理长序列文本,支持最长4096的序列长度。
nsi319
基于稀疏注意力的Transformer模型,专为移动应用描述分类任务微调
ccdv
基于CamemBERT-base调整的长序列处理模型,采用局部+稀疏+全局注意力机制(LSG),高效处理长文本
BigBirdPegasus 是一种基于稀疏注意力的 Transformer 模型,能够处理更长的序列,特别适用于长文档摘要任务。
monologg
基于稀疏注意力的韩语Transformer模型,能处理最长4096的序列
BigBird是一种基于稀疏注意力的Transformer模型,能够处理更长的序列,适用于长文档摘要等任务。
BigBird是一种基于稀疏注意力的Transformer模型,能够处理长达4096的序列,适用于长文档摘要等任务。
基于LEGAL-BERT的小型版本,采用局部+稀疏+全局注意力机制(LSG)高效处理长序列
LSG模型是基于BART-large改进的长序列处理模型,采用局部+稀疏+全局注意力机制,高效处理长文本任务
VGGT-MPS是基于苹果芯片优化的3D视觉重建工具,使用Metal Performance Shaders加速,能够从单张或多张图像生成深度图、相机姿态和3D点云,支持稀疏注意力实现城市级重建。