研究者らが大規模言語モデルの省電力トレーニング方法を発見、消費電力を30%削減
ミシガン大学による最近の研究で、大規模言語モデルのトレーニングにおける省電力方法が発見されました。この方法では、同じ時間でトレーニングを完了させながら、消費電力を30%削減できます。この方法は、2026年までに110万世帯の米国家庭への電力供給を賄うのに十分なエネルギーを節約できるとされています。研究者らは、最も長い時間を要する一連のサブタスクであるクリティカルパスを特定するPerseusというソフトウェアツールを開発しました。その後、Perseusは非クリティカルパスのプロセッサ速度を低下させ、すべてのタスクを同時に完了できるようにします。