Liquid AIがLFM2-VLシリーズの視覚言語基礎モデルを発表。450Mと1.6Bの2つの軽量モデルを提供し、リソース制約環境や単一GPU展開に対応。マルチモーダルAIの軽量化・高速化を推進。....
Liquid AIが低遅延・デバイス展開向けに最適化した視覚言語モデル「LFM2-VL」を発表。450Mと1.6Bの2バリエーションで、モバイル/PC/ウェアラブル向け。既存モデル比GPU推論速度2倍向上。....
LiquidAI
LFM2-VL-3BはLiquid AIが開発したマルチモーダル視覚言語モデルで、LFM2バックボーンアーキテクチャに基づいて構築されており、強力な視覚理解と推論能力を備えており、特に細粒度な感知タスクで優れた性能を発揮します。このモデルは、テキストと画像の入力を効率的に処理することができ、最大512×512解像度の原生画像処理をサポートしています。
bartowski
これはLiquidAIのLFM2-VL-1.6Bモデルの量子化バージョンで、llama.cppを使用してimatrix量子化処理を行い、複数の量子化レベルを選択でき、さまざまなハードウェア条件で視覚言語モデルを効率的に実行できます。