アリババグループは業界初の高性能な拡散言語モデル推論フレームワークであるdInferをオープンソースで公開し、推論速度を著しく向上させました。ベンチマーキングテストによると、これはNVIDIAのFast-dLLMよりも10.7倍高速で、HumanEvalコード生成タスクにおいて単一の推論で1秒間に1011トークンを処理でき、技術の実用化を前進させています。
10月13日、アリグループが高性能拡散言語モデル推論フレームワークdInferをオープンソース化。NVIDIA Fast-dLLMより10.7倍高速で、HumanEvalタスクでは1011Tokens/秒を達成。拡散モデルが自己回帰モデルを初めて上回った。....