Ming-flash-omni プレビュー版は、Ling-Flash-2.0の疎なエキスパート混合(MoE)アーキテクチャに基づいて構築されたマルチモーダル大規模モデルで、総パラメータは100Bに達し、各トークンでは6Bのパラメータのみがアクティブ化されます。このモデルはMing-Omniをベースに全面的にアップグレードされ、マルチモーダル理解と生成能力において著しい向上が見られ、特に音声認識、画像生成、およびセグメンテーション編集において優れた性能を発揮します。
マルチモーダル
Diffusers英語