开源Marigold模型:魔改Stable Diffusion的单目深度估计创新

AIGC开放社区
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
今日,字节跳动旗下AI原生集成开发环境(IDE)Trae宣布正式开源其核心组件Trae-Agent,为全球开发者带来全新智能编程体验。据官方推文(@Trae_ai)透露,开发者现可通过`git clone`和`cd trae-agent`快速获取并体验这一智能开发助手。Trae-Agent是字节跳动打造的智能开发工具,支持自然语言驱动的编程任务自动化,极大提升开发效率。其核心亮点包括:- **多模型支持**:兼容OpenAI、Anthropic等多种大语言模型,安装配置简便,灵活适配不同开发需求。- **强大功能集成**:内置文件编辑、脚本执行等工具,支
近日,法国AI实验室Kyutai宣布,其全新文本转语音模型 Kyutai TTS 正式开源,为全球开发者与研究者带来了一款高性能、低延迟的语音合成解决方案。这一突破性发布不仅推动了开源AI技术的发展,也为多语言语音交互应用开辟了新的可能性。AIbase为您独家解析这一技术亮点及其潜在影响。 超低延迟,实时交互新体验Kyutai TTS以其卓越的性能表现成为业界焦点。该模型支持 文本流式传输,能够在极短时间内生成自然流畅的语音。得益于强大的 L40S GPU 支持,Kyutai TTS能够同时处理多达32个请求,
近日,上海的 AI 独角兽公司 MiniMax 正式推出了全球首个开源大规模混合架构推理模型 ——MiniMax-M1。该模型一经推出,便迅速跻身权威评测榜单,成为全球开源模型的第二名,仅次于近期发布的 DeepSeek-R1-0528。这一里程碑式的成就让 MiniMax 创始人兼 CEO 闫俊杰在社交媒体上感慨:“第一次感觉到大山不是不能翻越。”MiniMax-M1的亮相不仅令人瞩目,其在技术细节上的表现更是出色。该模型在长文本处理和工具调用等方面显示出强大的优势,支持高达100万 token 的上下文输入能力,足以一次性处理
近日,英伟达与 CoreWeave 宣布,英伟达最新的人工智能图形处理器 Blackwell Ultra 芯片已在 CoreWeave 实现商业部署。这一消息无疑为 AI 技术的云计算服务注入了新的活力。戴尔也表示,CoreWeave 已经收到基于英伟达 GB300NVL72AI 系统的定制设备,这标志着 CoreWeave 成为首家安装基于 Blackwell Ultra 系统的云服务提供商。图源备注:图片由AI生成,图片授权服务商MidjourneyBlackwell Ultra 是英伟达推出的最新芯片,预计将在今年剩余的时间内批量出货。CoreWeave 所安装的系统采用了先进的液冷技术,包含72个 B
2025年7月4日,昆仑万维乘势而上,继续开源第二代奖励模型Skywork-Reward-V2系列。此系列共包含8个基于不同基座模型、参数规模从6亿到80亿不等的奖励模型,一经推出便在七大主流奖励模型评测榜单中全面夺魁,成为开源奖励模型领域的焦点。 奖励模型在从人类反馈中强化学习(RLHF)过程中起着关键作用。为打造新一代奖励模型,昆仑万维构建了包含4000万对偏好对比的混合数据集Skywork-SynPref-40M。在数据处理上,团队采用人机协同的两阶段流程,将人工标注的高质量与模型的规模化处理能力相结合。第一阶段,先构建未经验证的初始偏好池,借助
7月3日,法国AI研究机构Kyutai Labs宣布开源其最新文本转语音(TTS)技术——Kyutai TTS,为开发者与AI爱好者带来高效、实时的语音生成解决方案。Kyutai TTS以低延迟与高保真声音为亮点,支持文本流式传输,无需完整文本即可开始生成音频,特别适合实时交互场景。Kyutai TTS在性能上表现卓越。使用单块NVIDIA L40S GPU,该模型可同时处理32个请求,延迟仅为350毫秒。此外,系统不仅生成高质量音频,还能输出单词的精确时间戳,方便实时字幕生成或交互式应用,如Unmute平台的中断处理功能。在语言
近日,德国知名技术咨询公司 TNG 发布了 DeepSeek 的增强版 ——DeepSeek-TNG-R1T2-Chimera,标志着深度学习模型在推理效率和性能上的又一次重大突破。这一新版本不仅在推理效率上提升了200%,而且通过创新的 AoE 架构显著降低了推理成本。创新的 AoE 架构Chimera 版本是基于 DeepSeek 的 R1-0528、R1和 V3-0324三大模型的混合开发,采用了全新的 AoE(Adaptive Expert)架构。这一架构通过对混合专家(MoE)架构的细致优化,能够高效地利用模型参数,从而提升推理性能并节省 token 输出。在多项主流测试基准(如
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、字节跳动EX-4D震撼开源:单目视频秒变自由视角4D大片EX-4D是字节跳动PICO-MR团队推出的4D视频生成框架,能够从单目视频生成高质量、多视角的4D视频序列。该技术通过深度密闭网格(DW-Mesh)和轻量级适配架构,解决了传统视频生成技术在多视角生成中的挑战,并在性能指标上全面领先。【AiBase
字节跳动宣布开源VINCIE-3B,一款支持上下文连续图像编辑的3亿参数模型,基于其内部MM-DiT架构开发。这款模型突破了传统图像编辑的局限,首次实现从单一视频数据中学习上下文感知的图像编辑能力,无需依赖复杂的分割或修复模型生成训练数据。VINCIE-3B的发布为创意设计、影视后期及内容生成领域带来了全新的可能性。AIbase深入剖析其技术亮点、应用场景及行业影响。技术突破:从视频到上下文编辑传统图像编辑模型通常依赖任务特定的数据管道,需通过专家模型(如分割、修复)生成
Bilibili(B站)宣布其开源动漫视频生成模型AniSora迎来重大更新,正式发布AniSora V3。作为Index-AniSora项目的一部分,V3版本在原有基础上进一步优化了生成质量、动作流畅度和风格多样性,为动漫、漫画及VTuber内容创作者提供了更强大的工具。AIbase深入解读AniSora V3的技术突破、应用场景及行业影响。技术升级:更高质量与精准控制AniSora V3基于Bilibili此前开源的CogVideoX-5B和Wan2.1-14B模型,结合强化学习与人类反馈(RLHF)框架,显著提升了生成视频的视觉质量和动作一致性。其支持一键