面壁スマートが初のAIエッジ開発ボード「ソルグパイ」を発表しました。NVIDIA Jetsonモジュールを基盤とし、マイクやカメラなどのマルチモーダルインターフェースを統合し、自社で開発したMiniCPMシリーズのモデルに適合させ、開発者がスマートハードウェアを簡単に構築できるようにするものです。
面壁智能が数億元の資金調達に成功し、エッジAI分野でのリーダーシップを強化するため、端末側効率的な大規模モデルの研究開発とエコシステム構築に充てられる。国内の端末側大規模モデルの先駆者として、理論から製品までの技術的循環を確立し、主力製品「MiniCPM」シリーズが高い評価を得ている。....
オープンソースAIコミュニティがスマートフォン向けに最適化したマルチモーダルLLM「MiniCPM-V4.5」を発表。8億パラメーターの軽量設計で高性能を実現。....
面壁智能と清華大学が共同で端末側マルチモーダルモデル「MiniCPM-V4.5」を発表。SigLIP2-400MビジュアルモジュールとMiniCPM4アーキテクチャを採用し、小規模パラメータで高性能を実現、エッジAIの展開効率と応用範囲を拡大。....
MiniCPM-o 2.6は、視覚、音声、マルチモーダルライブストリーミングに適した強力なマルチモーダル大規模言語モデルです。
MiniCPM-o 2.6:GPT-4oレベルの性能を備え、スマートフォン上でビジュアル、音声、マルチモーダルライブストリーミングを実現するMLLMです。
高性能な第3世代MiniCPMシリーズモデル
高性能多モーダル言語モデル。画像と動画の理解に最適です。
Mungert
MiniCPM4.1-8B GGUFはエッジデバイス向けに設計された高効率大規模言語モデルで、モデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で体系的な革新を行い、極限までの効率向上を実現しました。65,536個のトークンの文脈長と混合推論モードをサポートします。
mlx-community
MiniCPM4.1-8B-8bitは、MiniCPM4.1-8Bモデルを変換した8ビット量子化バージョンで、MLXフレームワーク用に最適化され、効率的なマルチモーダル言語処理能力を提供します。
openbmb
MiniCPM4.1-8B-GGUFはMiniCPM4.1-8BモデルのGGUF量子化形式のバージョンで、エッジデバイス向けに設計された効率的な大規模言語モデルです。80億のパラメータを持ち、融合思考をサポートし、典型的なエッジチップで5倍以上の生成速度向上を実現します。
MiniCPM4-8Bはエッジデバイス向けに設計された高効率大規模言語モデルで、モデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの次元での革新により、極致の効率向上を実現しています。
MiniCPM4は、エッジデバイス向けに設計された高効率な大規模言語モデルです。同じ規模のモデルで最高の性能を維持しながら、極限までの効率向上を実現し、典型的なエッジチップでは5倍以上の生成速度向上を達成します。
AyyYOO
MiniCPM4-8B-Q8_0-GGUFは、llama.cppを使用してopenbmb/MiniCPM4-8BをGGUF形式に変換したモデルで、ローカル推論に適しています。
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、同じ規模の中で極限までの効率向上と最適な性能を実現しています。
MiniCPM4-MCPはオープンソースのエッジサイド大規模言語モデルのインテリジェントエージェントモデルで、80億パラメータのMiniCPM - 4をベースに構築されており、MCPを通じて様々なツールやデータリソースとインタラクションし、幅広い現実世界のタスクを解決することができます。
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で極限までの効率向上を実現しています。
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの次元で極限までの効率向上を実現し、エッジチップ上で5倍以上の生成速度向上を達成します。
AgentCPM-GUIはRFT強化推論能力を備えたデバイスサイドのグラフィカルインターフェースエージェントで、中国語と英語のアプリを操作可能、80億パラメータのMiniCPM-Vを基に構築されています。
MiniCPM-S-1B-sftは、活性化スパース化技術で最適化された10億パラメータ規模の言語モデルで、ProSparseメソッドにより高スパース推論加速を実現しつつ、元のモデルと同等の性能を維持しています。
second-state
MiniCPM-o-2_6 はマルチモーダル変換モデルで、複数の言語をサポートし、様々なタスクに適しています。
FriendliAI
MiniCPM-V 2.6は強力なマルチモーダル大規模言語モデルで、スマートフォンなどのデバイスで高効率に動作し、単一画像、複数画像、動画の理解タスクをサポートします。
このモデルは、意味テキスト類似度や分類タスクを含む複数の中国語と英語のデータセットでテストされました。
MiniCPM-o 2.6のint4量子化バージョンで、GPUのVRAM使用量を大幅に削減し、マルチモーダル処理能力をサポートします。
MiniCPM-o 2.6はマルチモーダルモデルで、視覚と言語タスクをサポートし、llama.cpp向けに設計されています。
MiniCPM-o 2.6はスマートフォンで動作するGPT-4oレベルのマルチモーダル大規模モデルで、視覚、音声、ライブストリーム処理をサポート
c01zaut
MiniCPM-V 2.6は単一画像、複数画像、動画理解をサポートするGPT-4Vレベルのマルチモーダル大規模言語モデルで、RK3588 NPU向けに最適化されています
AI-Engine
MiniCPM-V-2_6のGGUF量子化バージョンで、llama.cppをベースに高効率な画像とテキストの変換を実現します。