谷歌MobileDiffusion实现手机0.2秒文生成图,创移动端速度新纪录

机器之心
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
一款名为3DV-TON(Textured3D-Guided Consistent Video Try-on via Diffusion Models)的创新技术正式亮相,通过扩散模型实现纹理3D引导的视频试穿体验。据AIbase了解,3DV-TON利用先进的3D几何与纹理建模,结合视频扩散模型,确保服装在动态视频中的一致性与真实感,为电商、时尚和虚拟现实领域带来突破性应用。相关细节已通过学术平台与社交媒体公开。核心功能:3D纹理引导与视频一致性3DV-TON通过整合3D建模与视频生成技术,解决了传统虚拟试穿中动态不一致与纹理失真的难题。AIbase梳理了其主要亮点:
Ostris团队发布Flex.2-preview,一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。据AIbase了解,该模型在基于线条、姿态和深度的控制生成能力上表现出色,支持通用控制与图像修补功能,延续了从Flux.1Schnell到OpenFlux.1、Flex.1-alpha的微调进化路径。Flex.2-preview已在Hugging Face开源,凭借Apache2.0许可证与灵活的工作流集成,迅速成为AI艺术创作社区的焦点。核心功能:通用控制与工作流无缝集成Flex.2-preview以其强大的控制能力与ComfyUI原生支持重新定义了文本到图像生成。AIbase梳理
Character.AI 近日宣布推出全新视频生成模型 AvatarFX,这一突破性技术能够将静态图片转化为具有真实感的可说话视频角色,赋予图像中的人物动态表情、唇部同步以及自然肢体动作。AvatarFX 的核心是其最先进的基于扩散模型的动态生成技术。该技术依托经过精心筛选的数据集进行训练,融合了创新的音频条件化、蒸馏和推理策略,使得用户能够以极高的速度生成高保真、时间一致性强的视频。无论是长序列的叙事,还是多个角色之间的对话,AvatarFX 都能够完美应对,带来令人惊艳的视觉体验
2025 年 4 月 21 日,Sand AI 发布开源视频生成模型 MAGI-1,以其创新的自回归扩散架构和卓越性能,迅速成为生成式 AI 领域的焦点。该模型采用 Apache 2.0 许可,代码、权重和推理工具已在 GitHub 和 Hugging Face 开放,为全球开发者提供强大创作工具。MAGI-1 基于扩散变换器架构,引入块因果注意力、并行注意力块、Sandwich 规范化等技术创新,通过分块生成(每块 24 帧)实现高效视频生成。其独特流水线设计支持并行处理,最多可同时生成四个块,大幅提升效率。模型通过快捷蒸馏技术,支持灵活的
在人工智能的不断发展中,扩散模型在推理能力上逐渐崭露头角,现如今,它们不再是自回归模型的 “跟随者”。近日,来自加州大学洛杉矶分校(UCLA)和 Meta 的研究者们联合推出了一种名为 d1的新框架,该框架结合了监督微调(SFT)和强化学习(RL),使扩散模型具备更强的推理能力,包括数学理解、逻辑推理等。这一创新的 d1框架通过两阶段的后训练策略来提升掩码大语言模型(dLLM)的性能。在第一阶段,模型通过高质量的推理轨迹进行监督微调,从而掌握基础知识和逻辑推理能力。接着
人工智能领域再添一颗耀眼新星!近日,华为诺亚方舟实验室与香港大学自然语言处理组(HKU NLP Group) 联合发布了名为 Dream7B 的全新语言模型。这款模型被誉为“迄今为止最强大的开源扩散大型语言模型”。Dream7B 的问世,不仅在性能上超越了现有的扩散语言模型,更在通用能力、数学、代码以及规划能力上,比肩甚至超越了同等规模的顶尖自回归(AR)语言模型。这一突破性的进展,预示着文本生成领域或将迎来新的技术范式。颠覆传统:扩散模型赋能更强语言理解与生成长期以来,以 GP
当代码的力量遇上艺术的灵感,新一代人工智能正在悄然改变创意世界的边界。近日,国产开源图像生成模型HiDream-I1震撼发布,凭借17亿参数的技术底蕴,这款由HiDream-ai团队倾力打造的AI"画匠"正迅速成为科技圈新宠。这款基于扩散模型技术的开源图像生成工具,能够将文本描述转化为高质量图像,在细节渲染和图像一致性方面展现出令人瞩目的实力。初步测试显示,HiDream-I1在色彩还原、边缘处理和构图完整性上表现不俗,特别是面对复杂场景和多样化风格时,依然能够生成清晰且富有艺
在人工智能绘画领域,扩散模型(Diffusion Model)正经历从基于Unet架构向基于Transformer架构(DiT)的转变。然而,DiT生态系统在插件支持、效率以及多条件控制等方面仍面临挑战。近日,由Xiaojiu-z领衔的团队推出了名为EasyControl的创新框架,旨在为DiT模型提供高效且灵活的条件控制能力,犹如为DiT模型装上了强大的“ControlNet”。EasyControl的核心优势EasyControl并非简单的模型叠加,而是一套经过精心设计的统一条件DiT框架。其核心优势在于通过引入轻量级的条件注入LoRA模块(Condition Injection LoRA mod
在人工智能视频生成领域,扩散模型以其卓越的性能备受瞩目。然而,其固有的迭代去噪特性导致生成过程耗时且计算成本高昂,成为制约其广泛应用的关键瓶颈。近日,来自B北京航空大学、香港大学和上海人工智能实验室的研究团队联合发布了一项名为 AccVideo 的创新技术。该方法通过一种新颖高效的蒸馏方法,并结合合成数据集,成功将视频扩散模型的生成速度提升了惊人的8.5倍。现有的视频扩散模型在生成高质量视频方面表现出色,但其迭代式的去噪过程需要大量的推理步骤。这意
2025年3月10日,一项名为 TrajectoryCrafter 的前沿技术正式亮相,引发了科技界和视频创作领域的广泛关注。这项基于扩散模型(diffusion models)的创新技术,能够从单一视角的单目视频中推断并生成全新的视角,为视频后期制作带来了革命性的可能性。TrajectoryCrafter 的核心在于其强大的视角重定向能力。传统的单目视频受限于单一相机视角,创作者往往无法在后期调整拍摄角度或运镜方式。而 TrajectoryCrafter 通过扩散模型的深度学习技术,能够分析视频内容并推演出三维空间信息,从而允许用户