先日、Meta社が公開したオープンソースの大規模言語モデルLlama-4-Maverickが、LMArenaのランキングで2位から32位に急落し、開発者から不正疑惑の声が上がっています。Metaが特別なバージョンを提出してランキングを操作した可能性が指摘されています。発端は4月6日、Metaが最新のLlama4(Scout、Maverick、Behemothの3バージョン)を発表したことでした。その中のLl...
RedHatAI
Llama-4-Maverick-17B-128E-Instruct-NVFP4は、FP4量子化処理を施された多言語大規模言語モデルで、Meta-Llama-3.1アーキテクチャに基づいており、商業および研究用途に特化して設計されています。このモデルは、重みと活性化をFP4データ型に量子化することで、ディスク容量とGPUメモリの要件を大幅に削減しながら、良好な性能を維持しています。
Llama-4アーキテクチャに基づく17Bパラメータの大規模言語モデルで、INT4重み量子化技術により最適化され、GPUメモリとディスク空間の必要量を75%削減し、多言語テキスト生成タスクをサポートし、vLLM推論フレームワークに効率的にデプロイできます。
Llama 4シリーズのネイティブマルチモーダルAIモデルで、テキストと画像の理解をサポートし、混合エキスパートアーキテクチャを採用し、商業および研究シーンに適しています。
Llama 4 MaverickはMetaが発表した170億パラメータの混合専門家アーキテクチャ(MoE)マルチモーダルモデルで、12言語と画像理解をサポートし、商業および研究用途に適しています。
unsloth
Unsloth動的Llama 4 GGUFモデルは、MetaのLlama 4シリーズをベースに開発された効率的なモデルで、多言語と画像理解をサポートし、混合エキスパートアーキテクチャを採用しており、商業および研究シーンに適しています。
mlx-community
Meta Llama 4モデルを基に変換された6ビット量子化バージョンで、多言語命令対話をサポートします。
katuni4ka
これはデバッグ用のミニチュアモデルで、ランダム初期化されており、meta-llamaのLlama-4-Maverick-17B-128E-Instructモデルに基づいて設定されています。
これはLlama-4-Maverick-17B-128E-Instructを変換した4ビット量子化バージョンで、MLXフレームワーク向けの多言語コマンド追従モデルです
meta-llama/Llama-4-Maverick-17B-128E-Instructから変換された4ビット量子化モデルで、多言語テキスト生成タスクをサポート
chutesai
Llama 4 MaverickはMetaが開発したネイティブマルチモーダルAIモデルで、ハイブリッドエキスパートアーキテクチャを採用し、テキストと画像の入力をサポートし、多言語のテキストとコードを出力します。
meta-llama
Llama 4 MaverickはMetaが開発したマルチモーダルAIモデルで、混合エキスパートアーキテクチャを採用し、テキストと画像の理解をサポート、170億の活性化パラメータと4000億の総パラメータを有しています。
Llama 4 MaverickはMetaが開発した170億パラメータのマルチモーダルAIモデルで、混合専門家アーキテクチャ(MoE)を採用し、多言語テキストと画像理解をサポート、128の専門家モジュールを備えています。
Llama 4シリーズはMetaが開発したマルチモーダルAIモデルで、テキストと画像のインタラクションをサポートし、混合エキスパートアーキテクチャ(MoE)を採用しており、テキストと画像理解において業界をリードする性能を発揮します。