Google AIが拡散モデルの推論時間スケーリングの基本フレームワークを提案
ニューヨーク大学、マサチューセッツ工科大学、Googleの研究チームは最近、拡散モデルにおける推論時間のスケーリングにおけるボトルネック問題に対処することを目的とした革新的なフレームワークを発表しました。この画期的な研究は、従来の単純なノイズ除去ステップの増加という方法を超え、生成モデルの性能向上のための新たな道を切り開きます。このフレームワークは主に2つの次元から展開されます。1つは検証器からのフィードバックを利用すること、もう1つはより最適なノイズ候補を発見するためのアルゴリズムを実装することです。研究チームは、256×256解像度の事前学習済みSiT-XLモデルをベースに、250回の固定ノイズ除去ステップを維持しながら…