
この記事の公開URLは次のとおりです: [https://arxiv.org/pdf/2505.09343](https://arxiv.org/pdf/2505.09343)
この研究では、大規模言語モデル(LLMs)の急速な拡張が既存のハードウェアアーキテクチャの制限、例えばメモリ容量、計算能力、プロセッサ間通信の帯域幅に直面していることを示しています。DeepSeek-V3は2048枚のNVIDIA H800-GPUクラスターで訓練され、効率的な設計によりこれらの制約を克服し、コスト効率の高いトレーニングと推論を実現しました。
