Liquid AI 公司於2025年7月發佈第二代 Liquid Foundation Models(LFM2),採用創新的“liquid”架構,旨在成爲市場上最快的設備端基礎模型。其高效的訓練和推理能力使小模型能媲美雲端大型語言模型。LFM2 最初提供350M、700M 和1.2B 參數的密集檢查點版本。
Liquid AI推出LFM2-8B-A1B模型,採用稀疏激活MoE架構,總參數量8.3B但每token僅激活1.5B參數。該設計在保持高表示能力的同時顯著降低計算負載,突破“小規模MoE低效”認知,專爲資源受限的邊緣設備優化,支持實時交互場景。
LiquidAI推出輕量級AI模型系列Liquid Nanos,專爲樹莓派等邊緣計算設備設計。該系列提供350M和1.2B兩種參數版本,支持翻譯、信息抽取、RAG、工具調用和數學推理五大應用場景,滿足低功耗高性能需求,爲開發者提供多樣化邊緣AI解決方案。
Liquid AI發佈LFM2-VL系列視覺語言基礎模型,推動多模態AI向輕量化、快速化和設備端部署發展。該系列包含450M和1.6B兩款輕量級模型,前者適用於資源受限環境,後者支持單GPU部署。模型基於LFM2架構,整合了視覺與語言處理能力。
Anthropic
$105
輸入tokens/百萬
$525
輸出tokens/百萬
200
上下文長度
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
-
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
32
Deepseek
$4
$12
Tencent
$1
LiquidAI
LFM2-VL-3B是Liquid AI開發的多模態視覺語言模型,基於LFM2骨幹架構構建,具備強大的視覺理解和推理能力,特別在細粒度感知任務上表現出色。該模型能夠高效處理文本和圖像輸入,支持高達512×512分辨率的原生圖像處理。
Mungert
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署而設計,在質量、速度和內存效率方面樹立了新標準。該模型採用創新的混合Liquid架構,具有乘法門和短卷積,支持多語言處理。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署設計。該模型在質量、速度和內存效率方面樹立了新標準,特別適合在資源受限的環境中運行。
LFM2-Audio-1.5B是Liquid AI推出的首個端到端音頻基礎模型,專為低延遲和即時對話設計。該模型僅15億參數,能夠實現無縫的對話交互,其能力可與參數規模大得多的模型相媲美。
kurakurai
Luth-LFM2-700M 是基於 Liquid AI 的 LFM2-700M 模型進行法語微調的版本。該模型在 Luth-SFT 數據集上訓練,顯著提升了法語指令遵循、數學和常識推理能力,同時保持了原有的英語能力。
Luth-LFM2-350M 是與 Liquid AI 合作開發的法語優化語言模型,基於 LFM2-350M 在 Luth-SFT 數據集上進行法語微調。該模型在保持英語能力的同時,顯著提升了法語指令遵循、數學推理和常識問答能力。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署而設計,在質量、速度和內存效率方面樹立了新標準。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
unsloth
LFM2 是由 Liquid AI 開發的新一代混合模型,專為邊緣 AI 和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
LFM2-350M是由Liquid AI開發的第二代混合模型,專為邊緣AI和設備端部署設計。該模型在質量、速度和內存效率方面樹立了新標準,具有3.5億參數,支持多種語言,適用於邊緣計算場景。
LFM2-700M 是由 Liquid AI 開發的新一代混合模型,專為邊緣 AI 和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
LFM2-350M 是由 Liquid AI 開發的混合模型,專為邊緣 AI 和設備端部署設計,具有高效訓練和推理能力。
Liquidsoap MCP服務器為AI助手提供準確的Liquidsoap 2.4.0文檔和代碼生成支持,解決LLM因版本混淆導致的錯誤,確保腳本編寫和問題診斷的可靠性。