LanguageBind
UniWorldは、ビジュアル理解、生成、編集のための統一フレームワークで、20以上のビジュアルタスクで優れた性能を発揮します。
Video-LLaVAはオープンソースのマルチモーダルモデルで、マルチモーダル指令追従データで大規模言語モデルを微調整することで訓練され、交互する画像とビデオを生成することができます。
MoE-LLaVAはエキスパート混合アーキテクチャに基づく大規模視覚言語モデルで、スパース活性化パラメータにより効率的なマルチモーダル学習を実現
MoE-LLaVAはエキスパート混合アーキテクチャに基づく大規模視覚言語モデルで、スパース活性化パラメータにより効率的なマルチモーダル学習を実現します。
LanguageBindは、言語を通じてマルチモーダルの意味的アラインメントを実現する事前学習モデルで、ビデオ、オーディオ、深度、サーモグラフィーなどの様々なモダリティと言語をバインドし、クロスモーダルの理解と検索を可能にします。
LanguageBindは言語を中心としたマルチモーダル事前学習手法で、言語を異なるモダリティ間の絆として利用し、マルチモーダル意味アラインメントを実現します。
LanguageBindは、言語を異なるモーダル間の結びつきとして、意味論的アラインメントを実現する言語中心のマルチモーダル事前学習手法です。
LanguageBindは言語を中心としたマルチモーダル事前学習手法で、言語を異なるモダリティ間の絆として、ビデオ、赤外線、深度、音声など様々なモダリティの意味的アライメントを実現します。
LanguageBindは、言語ベースのセマンティックアラインメントを通じてビデオ-言語事前学習をNモーダルに拡張するマルチモーダルモデルで、ICLR 2024に採択されました。
Video-LLaVAは投影前アライメント学習により視覚表現を統一するマルチモーダルモデルで、画像と動画の視覚推論タスクを同時に処理できます。
LanguageBindは言語を中心としたマルチモーダル事前学習手法で、言語を異なるモダリティ間の絆として利用し、セマンティックアラインメントを実現します。
LanguageBindは言語を中心としたマルチモーダル事前学習手法で、言語を異なるモダリティ間の絆として、ビデオ、赤外線、深度、オーディオなど様々なモダリティの意味的アラインメントを実現します。
LanguageBindは、言語の意味的アライメントを通じてビデオ-言語事前学習をNモーダルに拡張するマルチモーダル事前学習フレームワークで、ICLR 2024に採録されました。
LanguageBindは言語を中心としたマルチモーダル事前学習手法で、言語意味アラインメントによりビデオ-言語事前学習をNモーダルに拡張し、高性能なマルチモーダル理解とアラインメントを実現しています。
LanguageBindは言語を紐帯としてマルチモーダルの意味的アラインメントを実現する事前学習フレームワークで、ビデオ、赤外線、深度、音声など様々なモダリティと言語の共同学習をサポートします。