Liquid AI推出LFM2.5-1.2B-Thinking推理模型,拥有12亿参数,专为复杂逻辑推理和数学任务设计。该模型在端侧部署上实现突破,仅占用约900MB内存,可在现代手机上完全离线运行,将两年前需数据中心支持的推理能力成功迁移至个人移动设备。
Liquid AI推出新一代小型基础模型LFM2.5,专为边缘设备和本地部署设计。该系列包括基础版和指令版,并扩展了日语、视觉语言及音频语言变种。模型基于LFM2混合架构,针对CPU和NPU优化,实现快速高效推理。开源权重已发布在Hugging Face平台。
圣诞节当天,边缘AI初创公司Liquid AI发布开源模型LFM2-2.6B-Exp,仅26亿参数,却在多项基准测试中表现优异,指令跟随能力甚至超越数百亿参数的DeepSeek R1-0528,被赞为“最强3B级模型”。该模型基于第二代LFM2基础模型,通过纯强化学习实现实验性突破。
Liquid AI 公司于2025年7月发布第二代 Liquid Foundation Models(LFM2),采用创新的“liquid”架构,旨在成为市场上最快的设备端基础模型。其高效的训练和推理能力使小模型能媲美云端大型语言模型。LFM2 最初提供350M、700M 和1.2B 参数的密集检查点版本。
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
Baidu
128
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
LFM2-Audio-1.5B是Liquid AI推出的首个端到端音频基础模型,专为低延迟和实时对话设计。该模型仅15亿参数,能够实现无缝的对话交互,其能力可与参数规模大得多的模型相媲美。
kurakurai
Luth-LFM2-700M 是基于 Liquid AI 的 LFM2-700M 模型进行法语微调的版本。该模型在 Luth-SFT 数据集上训练,显著提升了法语指令遵循、数学和常识推理能力,同时保持了原有的英语能力。
Luth-LFM2-350M 是与 Liquid AI 合作开发的法语优化语言模型,基于 LFM2-350M 在 Luth-SFT 数据集上进行法语微调。该模型在保持英语能力的同时,显著提升了法语指令遵循、数学推理和常识问答能力。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
unsloth
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
LFM2-700M 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M 是由 Liquid AI 开发的混合模型,专为边缘 AI 和设备端部署设计,具有高效训练和推理能力。
Liquidsoap MCP服务器为AI助手提供准确的Liquidsoap 2.4.0文档和代码生成支持,解决LLM因版本混淆导致的错误,确保脚本编写和问题诊断的可靠性。