Liquid AI 公司于2025年7月发布第二代 Liquid Foundation Models(LFM2),采用创新的“liquid”架构,旨在成为市场上最快的设备端基础模型。其高效的训练和推理能力使小模型能媲美云端大型语言模型。LFM2 最初提供350M、700M 和1.2B 参数的密集检查点版本。
Liquid AI推出LFM2-8B-A1B模型,采用稀疏激活MoE架构,总参数量8.3B但每token仅激活1.5B参数。该设计在保持高表示能力的同时显著降低计算负载,突破“小规模MoE低效”认知,专为资源受限的边缘设备优化,支持实时交互场景。
LiquidAI推出轻量级AI模型系列Liquid Nanos,专为树莓派等边缘计算设备设计。该系列提供350M和1.2B两种参数版本,支持翻译、信息抽取、RAG、工具调用和数学推理五大应用场景,满足低功耗高性能需求,为开发者提供多样化边缘AI解决方案。
Liquid AI发布LFM2-VL系列视觉语言基础模型,推动多模态AI向轻量化、快速化和设备端部署发展。该系列包含450M和1.6B两款轻量级模型,前者适用于资源受限环境,后者支持单GPU部署。模型基于LFM2架构,整合了视觉与语言处理能力。
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
LFM2-Audio-1.5B是Liquid AI推出的首个端到端音频基础模型,专为低延迟和实时对话设计。该模型仅15亿参数,能够实现无缝的对话交互,其能力可与参数规模大得多的模型相媲美。
kurakurai
Luth-LFM2-700M 是基于 Liquid AI 的 LFM2-700M 模型进行法语微调的版本。该模型在 Luth-SFT 数据集上训练,显著提升了法语指令遵循、数学和常识推理能力,同时保持了原有的英语能力。
Luth-LFM2-350M 是与 Liquid AI 合作开发的法语优化语言模型,基于 LFM2-350M 在 Luth-SFT 数据集上进行法语微调。该模型在保持英语能力的同时,显著提升了法语指令遵循、数学推理和常识问答能力。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
unsloth
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
LFM2-700M 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M 是由 Liquid AI 开发的混合模型,专为边缘 AI 和设备端部署设计,具有高效训练和推理能力。
Liquidsoap MCP服务器为AI助手提供准确的Liquidsoap 2.4.0文档和代码生成支持,解决LLM因版本混淆导致的错误,确保脚本编写和问题诊断的可靠性。