面壁智能、清華大学、OpenBMBコミュニティがMiniCPM-V 4.6をリリース。わずか1.3Bパラメータ、6GBメモリで動作し、メモリコスト高騰の中、低メモリ・高速処理を実現、AI応用の新たな可能性を開拓。....
オープンソースAIコミュニティがスマートフォン向けに最適化したマルチモーダルLLM「MiniCPM-V4.5」を発表。8億パラメーターの軽量設計で高性能を実現。....
面壁智能と清華大学が共同で端末側マルチモーダルモデル「MiniCPM-V4.5」を発表。SigLIP2-400MビジュアルモジュールとMiniCPM4アーキテクチャを採用し、小規模パラメータで高性能を実現、エッジAIの展開効率と応用範囲を拡大。....
MiniCPM-V4.0は4.1億パラメータのAIモデルで、視覚理解に優れ、OpenCompassで69.0点を獲得。モバイル最適化され、iPhone16Pro Maxで高速動作。iOSアプリとガイド提供中。....
高性能多モーダル言語モデル。画像と動画の理解に最適です。
openbmb
AgentCPM-GUIはRFT強化推論能力を備えたデバイスサイドのグラフィカルインターフェースエージェントで、中国語と英語のアプリを操作可能、80億パラメータのMiniCPM-Vを基に構築されています。
FriendliAI
MiniCPM-V 2.6は強力なマルチモーダル大規模言語モデルで、スマートフォンなどのデバイスで高効率に動作し、単一画像、複数画像、動画の理解タスクをサポートします。
c01zaut
MiniCPM-V 2.6は単一画像、複数画像、動画理解をサポートするGPT-4Vレベルのマルチモーダル大規模言語モデルで、RK3588 NPU向けに最適化されています
AI-Engine
MiniCPM-V-2_6のGGUF量子化バージョンで、llama.cppをベースに高効率な画像とテキストの変換を実現します。
jchevallard
MiniCPM-V 2.6はMiniCPM-Vシリーズ最新かつ最強のマルチモーダル大規模モデルで、単一画像、複数画像、動画理解をサポートし、優れた性能と極限の効率性を備えています。
gaianet
MiniCPM-V-2_6 は視覚Q&Aモデルで、中国語と英語をサポートし、視覚関連のQ&Aタスクに特化しています。
MiniCPM-Vはモバイル端末向けのGPT-4Vレベルのマルチモーダル大規模言語モデルで、単一画像、複数画像、動画の理解をサポートし、視覚、光学文字認識などの機能を備えています。
MiniCPM-V 2.6はマルチモーダルな視覚言語モデルで、画像テキストからテキストへの変換をサポートし、多言語処理能力を備えています。
RhapsodyAI
OCR不要の視覚的文書埋め込みモデル。画像を通じて文書内容を理解し、表現ベクトルを生成可能。テキストおよび視覚的密集文書の検索に適しています。
MiniCPM-V 2.6はOpenBMBが提供するマルチモーダル大規模モデルで、単一画像、複数画像、動画理解タスクにおいてGPT-4Vを上回り、iPadでのリアルタイム動画理解をサポートします。
MiniCPM-V 2.0は効率的なエンドサイド展開に向けた強力なマルチモーダル大規模言語モデルで、SigLip-400MとMiniCPM-2.4Bを基盤に構築され、知覚器リサンプラーで接続されています。
MiniCPM-Vは、エンドデバイス展開に最適化された効率的で軽量なマルチモーダルモデルで、中英バイリンガルのインタラクションをサポートし、同規模のモデルを凌駕する性能を発揮します。