Liquid AI推出LFM2-8B-A1B模型,採用稀疏激活MoE架構,總參數量8.3B但每token僅激活1.5B參數。該設計在保持高表示能力的同時顯著降低計算負載,突破“小規模MoE低效”認知,專爲資源受限的邊緣設備優化,支持實時交互場景。
mradermacher
這是afkfatih/LFM2-8B-A1B-TR模型的量化版本,提供多種GGUF量化格式。該模型是一個80億參數的多語言大語言模型,特別針對土耳其語進行了優化,支持包括英語、中文、阿拉伯語等9種語言。
nightmedia
LFM2-8B-A1B-qx86-hi-mlx是基於MLX格式的高效推理模型,從LiquidAI/LFM2-8B-A1B轉換而來。該模型採用混合專家架構,在推理任務中表現出卓越的效率,特別擅長複雜邏輯推理任務,同時支持多語言處理。
mlx-community
這是一個基於LiquidAI/LFM2-8B-A1B模型轉換的8位量化版本,專為Apple MLX框架優化。該模型是一個8B參數的混合專家模型,支持多語言文本生成任務。
LFM2-8B-A1B是針對蘋果硅芯片優化的8位量化MLX構建版本,採用專家混合(MoE)架構,總參數約80億,每個令牌激活約10億參數,支持設備端快速推理。