Liquid AI推出LFM2-8B-A1B模型,采用稀疏激活MoE架构,总参数量8.3B但每token仅激活1.5B参数。该设计在保持高表示能力的同时显著降低计算负载,突破“小规模MoE低效”认知,专为资源受限的边缘设备优化,支持实时交互场景。
mradermacher
这是afkfatih/LFM2-8B-A1B-TR模型的量化版本,提供多种GGUF量化格式。该模型是一个80亿参数的多语言大语言模型,特别针对土耳其语进行了优化,支持包括英语、中文、阿拉伯语等9种语言。
nightmedia
LFM2-8B-A1B-qx86-hi-mlx是基于MLX格式的高效推理模型,从LiquidAI/LFM2-8B-A1B转换而来。该模型采用混合专家架构,在推理任务中表现出卓越的效率,特别擅长复杂逻辑推理任务,同时支持多语言处理。
mlx-community
这是一个基于LiquidAI/LFM2-8B-A1B模型转换的8位量化版本,专为Apple MLX框架优化。该模型是一个8B参数的混合专家模型,支持多语言文本生成任务。
LFM2-8B-A1B是针对苹果硅芯片优化的8位量化MLX构建版本,采用专家混合(MoE)架构,总参数约80亿,每个令牌激活约10亿参数,支持设备端快速推理。