Diffusion 模型也能“舉一反三”?阿里IC-LoRA給圖像生成模型增加情節記憶力能力
阿里巴巴通義實驗室最新研究表明,現有的文生圖 Diffusion Transformer 模型其實已經具備生成多張具有特定關係圖像的能力,只需稍加“點撥”就能“融會貫通”,生成高質量的多圖集。傳統的 Diffusion 模型更像是一個“死記硬背”的學生,需要用海量數據訓練,才能生成高質量的圖像。而有了 IC-LoRA 加持,它就變成了“觸類旁通”的學霸,只需要少量樣本就能學會新技能。這背後的原理說起來也不復雜,研究人員發現,現有的文生圖 Diffusion 模型其實已經具備一定的“上下文學習”能力,只