Liquid AI推出LFM2.5-1.2B-Thinking推理模型,擁有12億參數,專爲複雜邏輯推理和數學任務設計。該模型在端側部署上實現突破,僅佔用約900MB內存,可在現代手機上完全離線運行,將兩年前需數據中心支持的推理能力成功遷移至個人移動設備。
Liquid AI推出新一代小型基礎模型LFM2.5,專爲邊緣設備和本地部署設計。該系列包括基礎版和指令版,並擴展了日語、視覺語言及音頻語言變種。模型基於LFM2混合架構,針對CPU和NPU優化,實現快速高效推理。開源權重已發佈在Hugging Face平臺。
聖誕節當天,邊緣AI初創公司Liquid AI發佈開源模型LFM2-2.6B-Exp,僅26億參數,卻在多項基準測試中表現優異,指令跟隨能力甚至超越數百億參數的DeepSeek R1-0528,被贊爲“最強3B級模型”。該模型基於第二代LFM2基礎模型,通過純強化學習實現實驗性突破。
Liquid AI 公司於2025年7月發佈第二代 Liquid Foundation Models(LFM2),採用創新的“liquid”架構,旨在成爲市場上最快的設備端基礎模型。其高效的訓練和推理能力使小模型能媲美雲端大型語言模型。LFM2 最初提供350M、700M 和1.2B 參數的密集檢查點版本。
Anthropic
$105
輸入tokens/百萬
$525
輸出tokens/百萬
200
上下文長度
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
-
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
32
Deepseek
$4
$12
Tencent
$1
LiquidAI
LFM2-VL-3B是Liquid AI開發的多模態視覺語言模型,基於LFM2骨幹架構構建,具備強大的視覺理解和推理能力,特別在細粒度感知任務上表現出色。該模型能夠高效處理文本和圖像輸入,支持高達512×512分辨率的原生圖像處理。
Mungert
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署而設計,在質量、速度和內存效率方面樹立了新標準。該模型採用創新的混合Liquid架構,具有乘法門和短卷積,支持多語言處理。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署設計。該模型在質量、速度和內存效率方面樹立了新標準,特別適合在資源受限的環境中運行。
LFM2-Audio-1.5B是Liquid AI推出的首個端到端音頻基礎模型,專為低延遲和即時對話設計。該模型僅15億參數,能夠實現無縫的對話交互,其能力可與參數規模大得多的模型相媲美。
kurakurai
Luth-LFM2-700M 是基於 Liquid AI 的 LFM2-700M 模型進行法語微調的版本。該模型在 Luth-SFT 數據集上訓練,顯著提升了法語指令遵循、數學和常識推理能力,同時保持了原有的英語能力。
Luth-LFM2-350M 是與 Liquid AI 合作開發的法語優化語言模型,基於 LFM2-350M 在 Luth-SFT 數據集上進行法語微調。該模型在保持英語能力的同時,顯著提升了法語指令遵循、數學推理和常識問答能力。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署而設計,在質量、速度和內存效率方面樹立了新標準。
LFM2是由Liquid AI開發的新一代混合模型,專為邊緣AI和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
unsloth
LFM2 是由 Liquid AI 開發的新一代混合模型,專為邊緣 AI 和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
LFM2-350M是由Liquid AI開發的第二代混合模型,專為邊緣AI和設備端部署設計。該模型在質量、速度和內存效率方面樹立了新標準,具有3.5億參數,支持多種語言,適用於邊緣計算場景。
LFM2-700M 是由 Liquid AI 開發的新一代混合模型,專為邊緣 AI 和設備端部署設計,在質量、速度和內存效率方面樹立了新標準。
LFM2-350M 是由 Liquid AI 開發的混合模型,專為邊緣 AI 和設備端部署設計,具有高效訓練和推理能力。
Liquidsoap MCP服務器為AI助手提供準確的Liquidsoap 2.4.0文檔和代碼生成支持,解決LLM因版本混淆導致的錯誤,確保腳本編寫和問題診斷的可靠性。