Meta社の混合現実プロジェクト「Phoenix」は、当初の2026年下半期から2027年上半期に延期。ザッカーバーグCEOは持続可能な事業展開とユーザー体験向上のため、開発期間の延長を指示。....
Runway社の最新モデルGen-4.5が第三者の盲測プラットフォームVideo ArenaでグーグルのVeo3とOpenAIのSora2Proを下し、初めて小規模チームが頂点に立った大規模モデルとなった。CEOは「研究に集中し、迅速なイテレーション」の実現可能性を強調し、100人対兆円の資金力では、予算ではなく密度によって勝利することができると指摘した。このモデルは独自の時空間混合Transformer構造を採用しており、小規模チームがAI動画生成分野で大きな進歩を遂げたことを示している。
月の暗面が「Kimi Linear」を発表。混合線形アーキテクチャで、短長距離情報処理と強化学習において従来の全注意機構を上回る性能を実現。Kimi Delta Attentionがゲート機構を導入し、RNNのメモリ管理効率を向上。....
アリババグループがベイリン大モデルのRing-flash-linear-2.0-128Kをオープンソース化。超長文プログラミングに特化。混合線形アテンションとスパースMoEアーキテクチャを採用し、6.1Bパラメータのみを活性化することで40Bの密なモデルと同等の性能を達成。コード生成やスマートエージェント分野で最高水準の結果を実現し、長い文脈処理の問題を効率的に解決。
AIと3Dモデルを活用した、没入型混合現実学習プラットフォーム。魔法のような学習体験を提供します。
Meta Quest 3S、混合現実体験の新たな時代へ。
LoRA技術を用いて、写実的なイラストスタイルを融合した画像を生成します。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Anthropic
$105
$525
200
$0.7
$2.8
Alibaba
-
Moonshot
$4
$16
256
32
Tencent
$0.8
$2
$0.5
224
$3
$9
16
$8.75
$70
Bytedance
$0.3
$0.6
$6
$6.4
Huawei
$1.5
$1.6
Openai
$1050
128
Chatglm
Baidu
$1
64
magiccodingman
これはQwen3 VL 8Bモデルに基づく混合量子化バージョンで、MXFP4量子化技術を採用し、密集モデルで混合重みを使用しています。このモデルは、Q8に近い精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現し、効率と精度のバランスに優れた解決策です。
これはQwen3 VL 8Bモデルに基づく実験的な混合量子化バージョンで、MXFP4_MOE技術を高精度の重みと組み合わせ、Q8に近い精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しています。このモデルは混合量子化方法を探索し、精度の損失とパフォーマンスの間で良好なバランスを達成しています。
これは実験的な混合量子化モデルで、MXFP4_MOE混合重み技術を採用し、Q8に近い精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現します。モデルはMXFP4と高精度の埋め込み/出力重みの組み合わせを探索し、密集モデルで精度がほぼ損失しない最適化効果を達成しました。
これはQwen3 4B Instructモデルに基づく混合量子化バージョンで、MXFP4と混合重み技術を採用し、ほぼ無損失な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しています。
これはQwen3 4Bモデルに基づく混合量子化バージョンで、MXFP4_MOE混合重み技術を採用し、ほぼ無損な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しました。このモデルは、MXFP4と高精度の埋め込み/出力重みを精巧に組み合わせることで、Q8量子化に近い精度レベルを達成し、同時にQ4 - Q6レベルのスループットを備えています。
FlameF0X
i3 - 80Mは革新的な混合アーキテクチャの言語モデルで、畳み込み/循環層と全アテンション層の長所を組み合わせています。このモデルはRWKVスタイルの時間混合とMamba状態空間ダイナミクスを採用し、初期層では効率的なシーケンス処理を実現し、深層では標準的なマルチヘッドアテンションメカニズムを使用して複雑なパターン認識を行います。
mlfoundations-cua-dev
OLGAはQwen3-VL-30B-A3B-Instructをベースに構築されたオンライン強化学習位置特定エージェントで、33億のアクティブパラメータを持つエキスパート混合モデルを採用しています。既存のデータセット、新しいデータ収集、自動フィルタリング、およびオンライン強化学習による新しいデータレシピを組み合わせてトレーニングされ、オープンソースモデルで先進的な位置特定性能を実現しています。
mlx-community
IBM Granite-4.0-H-Tinyモデルの5ビット量子化バージョンで、Appleシリコンチップ用に最適化されています。Mamba-2とソフトアテンションの混合アーキテクチャを採用し、混合専門家モデル(MoE)を組み合わせることで、高品質を維持しながら効率的な推論を実現します。
unsloth
Qwen3-Next-80B-A3B-Instructは、アリババの通義千問チームによって開発された最新世代の大規模言語モデルです。革新的な混合注意力機構と高疎なエキスパート混合アーキテクチャを採用し、総パラメータ数を80Bに保ちながら3Bのパラメータのみを活性化させ、効率的なコンテキストモデリングと推論の高速化を実現しています。ネイティブで262Kのコンテキスト長をサポートし、1Mトークンまで拡張可能です。
Qwen
Qwen3-Next-80B-A3B-InstructはQwen3-Nextシリーズの基礎モデルで、革新的な混合注意力機構や高疎性のエキスパート混合層などの技術を通じて、長テキスト処理における効率的なモデリングと推論加速を実現し、複数のベンチマークテストで卓越した性能を発揮しています。
Mungert
MiniCPM4.1-8B GGUFはエッジデバイス向けに設計された高効率大規模言語モデルで、モデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で体系的な革新を行い、極限までの効率向上を実現しました。65,536個のトークンの文脈長と混合推論モードをサポートします。
nightmedia
これは実験的な量子化公式モデルで、元のGLM-4.5-AirモデルをMLX形式に変換し、混合精度量子化戦略(4 - 8ビット)を採用し、テキスト生成タスクに特化して最適化されており、現在も評価段階にあります。
jet-ai
Jet-Nemotron-4BはNVIDIAが開発した高効率混合アーキテクチャの言語モデルで、事後ニューラルアーキテクチャサーチとJetBlock線形注意力モジュールという2つの核心的な革新技術に基づいて構築されています。性能面では、Qwen3、Qwen2.5、Gemma3、Llama3.2などのオープンソースモデルを上回り、H100 GPU上で最大53.6倍の生成スループットの高速化を実現しています。
Jet-Nemotronは新型の混合アーキテクチャ言語モデルファミリーで、Qwen3、Qwen2.5、Gemma3、Llama3.2などの最先端のオープンソース全注意言語モデルを上回り、同時に著しい効率向上を実現します。H100 GPUでは生成スループットが最大53.6倍に加速されます。
cof139
これはGPT - OSSアーキテクチャに基づく6Bパラメータの混合専門家モデルで、剪定最適化により7つの専門家のみが残され、Q4_K_M量子化形式のGGUFバージョンです。このモデルは効率的な推論とテキスト生成タスクに特化しており、剪定と量子化技術によりより良い計算効率を実現しています。
sudeshmu
LLaMAアーキテクチャに基づき、MoR(混合再帰)技術を採用した3億6000万パラメータの言語モデルで、FineWeb - Edu重複排除データセットでファインチューニングされ、動的ルーティングメカニズムと再帰式KVキャッシュにより高効率なテキスト生成能力を実現します。
IntervitensInc
パングーPro MoEは、新型のグループ化混合エキスパートモデル(MoGE)に基づいて構築された言語モデルで、デバイス間の自然な負荷分散を実現し、強力な自然言語処理能力を持っています。
deepseek-community
DeepSeek-VLはDeepSeek AIチームによって開発されたオープンソースのビジュアル言語モデルで、テキストと画像情報を同時に処理し、文脈に関連した応答を生成することができます。このモデルは混合ビジュアルエンコーダを採用し、高解像度画像処理をサポートし、現実世界のビジュアル言語理解アプリケーションで優れた性能を発揮します。
QuantFactory
Qwen3は通義千問シリーズの大規模言語モデルの最新世代で、密モデルと混合専門家(MoE)モデルの包括的なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、コマンドフォロー、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
prithivMLmods
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、密モデルと混合エキスパート(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。