Liquid AI发布LFM2-VL系列视觉语言基础模型,推动多模态AI向轻量化、快速化和设备端部署发展。该系列包含450M和1.6B两款轻量级模型,前者适用于资源受限环境,后者支持单GPU部署。模型基于LFM2架构,整合了视觉与语言处理能力。
Liquid AI推出LFM2-VL视觉语言模型系列,专为低延迟和设备部署优化。包括450M和1.6B两个高效变体,适用于手机、笔记本、可穿戴设备等,兼顾速度与准确性。相比现有模型,GPU推理速度提升两倍,推动多模态AI应用发展。
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
bartowski
这是LiquidAI的LFM2-VL-1.6B模型的量化版本,使用llama.cpp进行imatrix量化处理,提供多种量化级别选择,能够在不同硬件条件下高效运行视觉语言模型。
sabaridsnfuji
日本收据视觉语言模型lfm2-450M是一款专门用于理解和处理日本收据的视觉语言模型。它基于LiquidAI的LFM2-VL-450M基础模型构建,能够分析收据图像,提取结构化信息,回答关于收据内容的问题,并以日语和英语提供详细描述。