继 DeepSeek R1之后,阿里云通义千问团队刚刚宣布推出其最新的开源模型
此次发布的 Qwen2.5-1M 系列包含两个开源模型:
继 DeepSeek R1之后,阿里云通义千问团队刚刚宣布推出其最新的开源模型
此次发布的 Qwen2.5-1M 系列包含两个开源模型:
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在今日举行的2025百度云智大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖宣布,百度智能云的百舸AI计算平台正式升级至5.0全新版本。此次升级旨在通过在网络、算力、推理系统以及训推一体系统四大方向上的全面能力提升,有效打破当前AI计算所面临的效率瓶颈。在网络方面,百舸AI计算平台5.0实现了更快的通信速度和更低的延迟,显著提升了模型的训练和推理效率。在算力方面,继今年4月Create2025百度AI开发者大会发布昆仑芯超节点后,升级后的百舸AI计算平台5.0正式在百度智
AIbase报道:阿里巴巴旗下的AI旗舰应用夸克近日正式启动了一项大规模“教育计划”,旨在向全国近2000万教师和5000万高校学生普及AI工具,大幅降低其使用门槛。该计划的核心内容是为教育工作者和学生提供免费的AI会员权限。具体措施包括:针对教师:通过认证的全国教师可在每年教师节期间,免费获赠夸克AI会员、扫描王会员和网盘会员。针对学生:大学生在认证后,可免费领取3个月的会员权限,后续还可享受专属的师生优惠。据估算,如果教师和学生单独订阅夸克提供的AI文档、录音转写
8月28日,腾讯混元宣布开源端到端视频音效生成模型HunyuanVideo-Foley,这一模型能够通过输入视频和文字为视频匹配电影级音效,为视频创作带来了新的突破。用户只需输入相应的文本描述,HunyuanVideo-Foley就能生成与画面精准匹配的音频,从而打破AI生成视频只能“看”不能“听”的局限,让无声AI视频成为历史。 HunyuanVideo-Foley的出现解决了现有音频生成技术面临的三大痛点。首先,它通过构建大规模高质量TV2A(文本-视频-音频)数据集,提升了模型的泛化能力,使其能够适配人物、动物、自然景观、卡通动画等各类视频,并生成与画面精准匹配的音频。其次,该模型采用创新的双流多模态扩
腾讯近日发布了 Youtu-agent,这是一个灵活且高性能的框架,旨在构建、运行和评估自主智能体。该框架不仅在基准测试中表现出色,还提供了强大的智能体能力,如数据分析、文件处理和深入研究,所有这些功能都基于开源模型。Youtu-agent 的主要特点之一是其经过验证的性能。在 WebWalkerQA 基准测试中,该框架使用 DeepSeek-V3系列模型达到了71.47% 的准确率,而在 GAIA 基准测试中,达到了72.8% 的准确率,显示出开源模型的强大潜力。通过优化框架,Youtu-agent 实现了低成本、便捷的部署,无需依
8月27日,爱诗科技公司宣布PixVerse V5模型全球同步上线,同时拍我AI(PixVerse)全球用户规模突破1亿。 在V5的研发过程中,团队始终围绕用户实际需求,致力于提升AI视频创作的用户体验。内测期间,不同背景的用户通过V5模型创作出了令人惊喜的作品,如体育生生成的“库里”翻跟头视频、广告导演制作的汽车广告素材、员工随手生成的“解气案例”、coser生成的鬼怪烟火表演以及中学生制作
近日,NVIDIA 的研究团队宣布发布 Jet-Nemotron,这是一系列全新的语言模型(包含2亿和4亿参数的版本),其生成速度比当前最领先的全注意力语言模型高出53.6倍,并在准确性上达到了甚至超过了这些模型的水平。这一突破不是通过从头开始重新训练模型实现的,而是采用了一种名为 “后神经架构搜索”(PostNAS)的新技术对现有预训练模型进行了改造。随着现代语言模型的广泛应用,如 Qwen3、Llama3.2和 Gemma3等,这些模型虽然在准确性和灵活性上设立了新的标杆,但其 O (n²) 的自注意力机制造
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://app.aibase.com/zh1、谷歌推出全新的Gemini 2.5 Flash图像编辑模型谷歌DeepMind推出的Gemini 2.5 Flash图像编辑模型在精准编辑和创意实现方面表现出色,支持角色一致性、局部文字编辑、风格迁移和现实推理等功能,为用户提供了强大的图像处理工具。【AiBase提要:】✨ Gemini 2.5 Flash 提供了更精准的图像编辑体验,允许
近日,字节的新AI视频模型Waver1.0正式发布,这是一款集多种功能于一体的视频生成模型,具有更强大的能力。Waver1.0支持文本到视频和图像到视频的转换,为用户提供了一种全新的创作体验。该模型在视频生成的质量和效果上,显著优于现有的开源和闭源模型。在模型性能方面,Waver1.0在 Waver-Bench1.0和 Hermes Motion Testset 上的表现非常突出。在运动质量、视觉质量和提示跟随性等方面,经过人工评估,Waver1.0均显示出其优越性。Waver1.0还具备多镜头叙事的能力,能够生成多镜头的连贯叙事视频
在开发者的积极反馈下,文心快码近日发布了一系列新功能,旨在提升个人开发体验和企业级协作效率。这些新能力包括 Zulu-CLI 的引入、企业版自定义模型的支持、一键设置自动执行、复用相同终端以及本地代码库知识增强索引的支持等,让开发者的工作流程更加顺畅。首先,Zulu-CLI 的推出使得开发者可以在终端中使用其强大的智能编码能力。通过自然语言命令,开发者无需离开熟悉的命令行界面,即可实现各种编码需求。为了顺利使用 Zulu-CLI,开发者需要确保环境符合要求,并根据各自
根据分析公司 Counterpoint Research 发布的一份新报告,人工智能的迅速发展正在推动全球半导体市场迎来前所未有的增长。该报告预测,随着代理 AI 和物理 AI 的兴起,全球芯片市场的收入预计将在未来数年内突破1万亿美元。这一数字几乎是当前市场规模的两倍,预计到2024年,市场收入将达到6560亿美元。图源备注:图片由AI生成,图片授权服务商Midjourney报告指出,当前我们正处于人工智能基础设施开发的第二阶段。在这一阶段,应用程序如对话式人工智能、语义搜索和多媒体内容生成等正在