Zyphra推小语言模型Zamba2-2.7B: 速度提高一倍,内存成本降低27%
Zyphra公司推出了Zamba2-2.7B语言模型,这一模型在小型语言模型领域具有里程碑意义。其性能和效率显著提升,训练数据集规模达到约3万亿个标记,使其在推理时资源需求降低,成为移动设备应用的高效解决方案。关键亮点包括首次生成响应时间提升两倍,内存使用减少27%,生成延迟降低1.29倍,特别适合需要实时互动的虚拟助手、聊天机器人等应用。Zamba2-2.7B在与同类模型的基准比较中表现出色,采用改进的交错共享注意力机制和LoRA投影器优化性能,确保了在复杂任务处理中的高效能输出。