この記事では、ソフトバンクが発表したSB Intuitionsについて解説します。このプロジェクトは、日本向けに日本語のLLM(大規模言語モデル)と生成AIを構築することを目的としています。日本語のAIアプリケーション開発において非常に重要であり、日本の市場ニーズに応える上で役立ちます。そのため、読者の皆様にぜひ読んでいただきたい記事です。
sbintuitions
Sarashina2.2-Vision-3BはSB Intuitionsによって訓練された日本の大型ビジュアル言語モデルで、Sarashina2.2-3B-InstructとSigLIP画像エンコーダーに基づいて構築され、強力な画像からテキストへの変換能力を備え、日本語と英語の多モーダル処理をサポートします。
Sarashina2-Vision-14BはSB Intuitionsによって開発された日本の大規模視覚言語モデルで、Sarashina2-13BとQwen2-VL-7Bの画像エンコーダーを組み合わせており、複数のベンチマークテストで優れた性能を示しています。
Sarashina2-Vision-8BはSB Intuitionsによってトレーニングされた日本の大規模視覚言語モデルで、Sarashina2-7BとQwen2-VL-7Bの画像エンコーダーを基にしており、複数のベンチマークテストで優れたパフォーマンスを発揮しています。
SB Intuitionsによって開発された日本語自己回帰型言語モデルで、日本語テキスト生成タスクに特化して最適化され、日本語評価基準で優れた性能を発揮します。
SB Intuitionsによって開発された日本語言語モデルで、日本語と英語のタスクで優れた性能を発揮し、自己回帰アーキテクチャを採用し、指示に従うタスクに特化して最適化されています。
SB Intuitions社が訓練した大規模言語モデルで、日本語と英語をサポートし、Llama2アーキテクチャに基づいています
SB Intuitionsによってトレーニングされた日本語/英語バイリンガル大規模言語モデル、Llama2アーキテクチャベース
SB Intuitionsによって訓練された日本語大規模言語モデルで、自然言語処理タスクをサポートします。