MoE-LLaVA
大規模視覚言語モデルに基づくエキスパート混合モデル
一般製品画像大規模モデルマルチモーダル学習
MoE-LLaVAは、大規模視覚言語モデルに基づくエキスパート混合モデルであり、マルチモーダル学習において優れた性能を発揮します。パラメータ数は少ないにもかかわらず、高い性能を示し、短時間でトレーニングを完了できます。Gradio Web UIとCLI推論に対応しており、モデルライブラリ、要件とインストール、トレーニングと検証、カスタマイズ、可視化、APIなどの機能を提供します。
MoE-LLaVA 最新のトラフィック状況
月間総訪問数
513197610
直帰率
36.07%
平均ページ/訪問
6.1
平均訪問時間
00:06:32