LPM1.0模型發佈,能通過單張參考圖實時生成人物說話、聆聽及唱歌視頻。其核心突破在於多模態處理,可同步整合文本、音頻與圖像,生成脣形精準同步、表情細膩且情緒過渡自然的動態畫面。該模型支持接入ChatGPT等主流語音AI,將傳統語音對話升級爲具備視覺反饋的實時交互。