ディープシーク関連会社が大規模言語モデルのイノベーティブな配置特許を発表し、AI技術の新たな発展を推進
ディープシーク関連会社が大規模言語モデルの配置に関する特許を公開し、分散型アーキテクチャを革新的に採用:プレフィルおよびデコードフェーズを高性能コンピューティングと大容量メモリマシンにそれぞれ配置。この方法により負荷を均等化し、計算の無駄を減らし、遅延を著しく低減し、スループットを向上させることができる。特許はシステム拡張性とフォールトトレラント性の最適化を強調しており、MoE言語モデルであるディープシーク-V3は6710億パラメータを持ち、1トークンあたり370億パラメータをアクティブ化する。これにより、AI技術が各業界での実用化が促進される。コア的な突破点はハードウェアリソースの統合にある。