AIBase
ホーム
AIニュース
AIツール
AIモデル
MCP
AIサービス
AI計算力
AIチュートリアル
AIデータセット
JA

モデル

もっと見る

Switch Base 32

google

S

Switch Transformersは、専門家混合(Mixture of Experts, MoE)アーキテクチャに基づくマスク言語モデルで、T5アーキテクチャを改良し、疎なMLP層でフィードフォワード層を置き換え、32個の専門家ネットワークを含んでいます。このモデルは、訓練効率と微調整タスクの性能においてT5より優れており、自然言語処理関連のアプリケーションをサポートします。

自然言語処理TransformersTransformers英語
google
153
10

Fairseq Dense 6.7B

KoboldAI

F

これは、Artetxeらの論文『Efficient Large Scale Language Modeling with Mixtures of Experts』におけるオリジナルの密集型67億パラメータモデルのHugging Face transformers適合バージョンです。

自然言語処理TransformersTransformers英語
KoboldAI
123
3
AIBase
未来を力づける、あなたの人工知能ソリューションシンクタンク
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
ビジネス協力サイトマップ