Liquid AIがLFM2-8B-A1Bモデルを発表。スパースMoEアーキテクチャを採用し、総パラメータ8.3Bながら1.5Bのみ活性化。エッジデバイス向けに最適化され、高効率なリアルタイム処理を実現。....
mradermacher
これはafkfatih/LFM2-8B-A1B-TRモデルの量子化バージョンで、さまざまなGGUF量子化形式を提供します。このモデルは80億パラメータの多言語大規模言語モデルで、特にトルコ語に最適化されており、英語、中国語、アラビア語など9種類の言語をサポートしています。
nightmedia
LFM2-8B-A1B-qx86-hi-mlxはMLX形式に基づく高効率推論モデルで、LiquidAI/LFM2-8B-A1Bから変換されました。このモデルはハイブリッドエキスパートアーキテクチャを採用し、推論タスクで卓越した効率を発揮し、特に複雑な論理推論タスクに長けており、同時に多言語処理をサポートします。
mlx-community
これはLiquidAI/LFM2-8B-A1Bモデルを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは80億パラメータのハイブリッドエキスパートモデルで、多言語テキスト生成タスクをサポートしています。
LFM2-8B-A1Bは、Appleシリコンチップ用に最適化された8ビット量子化のMLX構築バージョンで、エキスパート混合(MoE)アーキテクチャを採用し、総パラメータは約80億、各トークンのアクティブパラメータは約10億で、デバイス端での高速推論をサポートします。