アント・バーリンがオープンソースで効率的な思考モデルをリリースし、推論コストを大幅に削減
アント・バーリンチームは、深度推論効率の向上を目的とした2つの効率的な思考モデルであるRing-flash-linear-2.0とRing-mini-linear-2.0をオープンソースでリリースしました。同時にFP8統合演算子および線形Attention推論統合演算子も公開され、大パラメータ、低アクティブ化の効率的な推論および超長文脈に対応しています。アーキテクチャの最適化と高性能な演算子の協調により、著しい性能向上を実現しました。