面壁智能发布首款AI端侧开发板“松果派”,基于NVIDIA Jetson模组,集成麦克风、摄像头等多模态接口,适配自研MiniCPM系列模型,旨在让开发者便捷构建智能硬件。
面壁智能获数亿元融资,将用于端侧高效大模型研发与生态建设,巩固其在边缘智能领域的领先地位。作为国内端侧大模型先行者,公司已形成从理论到产品的技术闭环,核心产品MiniCPM“面壁小”系列表现突出。
开源AI社区发布多模态大语言模型MiniCPM-V4.5,专为智能手机和平板等端侧设备优化。该模型仅8亿参数,轻量化设计实现高效运行,在OpenCompass评估中获77.2分,性能领先同类开源模型,为移动端AI应用开辟新可能。
面壁智能联合清华大学发布端侧多模态大模型MiniCPM-V4.5,采用SigLIP2-400M视觉模块与MiniCPM4架构,以更小参数实现更强性能,显著提升边缘AI部署效率和应用广度,推动端侧多模态技术发展。
MiniCPM-o 2.6是一个强大的多模态大型语言模型,适用于视觉、语音和多模态直播。
MiniCPM-o 2.6:一款GPT-4o级别,可在手机上实现视觉、语音和多模态直播的MLLM。
高效能的第三代MiniCPM系列模型
高性能多模态语言模型,适用于图像和视频理解。
Mungert
MiniCPM4.1-8B GGUF是专为端侧设备设计的高效大语言模型,在模型架构、训练数据、训练算法和推理系统四个关键维度进行了系统创新,实现了极致的效率提升。支持65,536个标记的上下文长度和混合推理模式。
mlx-community
MiniCPM4.1-8B-8bit是基于MiniCPM4.1-8B模型转换的8位量化版本,专为MLX框架优化,提供高效的多模态语言处理能力
openbmb
MiniCPM4.1-8B-GGUF是MiniCPM4.1-8B模型的GGUF量化格式版本,专为端侧设备设计的高效大语言模型,采用80亿参数,支持融合思维,在典型端侧芯片上可实现超过5倍的生成加速。
MiniCPM4-8B是专为端侧设备设计的高效大语言模型,通过模型架构、训练数据、训练算法和推理系统四个维度的创新,实现了极致的效率提升。
MiniCPM4 是一款专为端侧设备设计的高效大语言模型,在相同规模下保持最优性能的同时实现了极致的效率提升,在典型端侧芯片上可实现超 5 倍的生成加速。
AyyYOO
MiniCPM4-8B-Q8_0-GGUF 是通过 llama.cpp 将 openbmb/MiniCPM4-8B 转换为 GGUF 格式的模型,适用于本地推理。
MiniCPM4是专为端侧设备设计的高效大语言模型,在相同规模下实现了极致的效率提升和最优性能。
MiniCPM4-MCP是一款开源的端侧大语言模型智能体模型,基于80亿参数的MiniCPM-4构建,能够通过MCP与各种工具和数据资源交互,解决广泛的现实世界任务。
MiniCPM4是专为端侧设备设计的高效大语言模型,通过系统创新在模型架构、训练数据、训练算法和推理系统四个关键维度实现极致的效率提升。
MiniCPM4是专为端侧设备设计的高效大语言模型,通过系统创新在模型架构、训练数据、训练算法和推理系统四个维度实现极致效率提升,在端侧芯片上可实现超5倍的生成加速。
AgentCPM-GUI是一款具备RFT增强推理能力的设备端图形界面代理,可操作中英文应用,基于80亿参数的MiniCPM-V构建。
MiniCPM-S-1B-sft 是一个基于激活稀疏化技术优化的1B参数规模语言模型,通过ProSparse方法实现高稀疏性推理加速,同时保持与原始模型相当的性能。
second-state
MiniCPM-o-2_6 是一个多模态转换模型,支持多种语言,适用于多种任务。
FriendliAI
MiniCPM-V 2.6是一款强大的多模态大语言模型,能够在手机等设备上高效运行,支持单图像、多图像和视频理解任务。
该模型在多个中文和英文数据集上进行了测试,包括语义文本相似度和分类任务。
MiniCPM-o 2.6的int4量化版本,显著降低GPU显存占用,支持多模态处理能力。
MiniCPM-o 2.6是一个多模态模型,支持视觉和语言任务,专为llama.cpp设计。
MiniCPM-o 2.6是一款手机端运行的GPT-4o级多模态大模型,支持视觉、语音与直播流处理
c01zaut
MiniCPM-V 2.6是支持单图、多图和视频理解的GPT-4V级别多模态大语言模型,专为RK3588 NPU优化
AI-Engine
MiniCPM-V-2_6的GGUF量化版本,基于llama.cpp实现高效图像文本转换