字节跳动与南洋理工大学联合推出开源框架StoryMem,通过创新的“视觉记忆”机制,将单镜头视频扩散模型升级为多镜头长视频生成工具,能自动生成超过1分钟、镜头切换自然、角色场景连贯的叙事视频,推动开源AI视频技术向电影级叙事迈进。
南洋理工大学推出首个全面评测大型语言模型处理电子病历能力的基准EHRStruct,涵盖11项核心任务、2200个样本,旨在评估模型在医疗数据理解、信息提取等方面的表现,推动医疗AI发展。
商汤科技与南洋理工大学联合推出原生多模态架构NEO,并开源2B与9B模型。该架构摒弃传统三段式设计,从注意力机制到语义映射全面重构,实现“像素到Token”的连续映射,数据需求仅为行业平均的十分之一。
商汤科技与南洋理工大学S-Lab联合发布开源多模态模型NEO,通过架构创新实现视觉语言深层统一。该模型仅需3.9亿图像文本数据(为同类模型1/10),即可达到顶尖视觉感知性能,无需海量数据或额外视觉编码器,在效率与通用性上取得突破。
THUdyh
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态语言模型,基于Qwen2.5架构,支持文本、图像、视频和音频输入,输出文本内容。
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态语言模型,基于Qwen2.5架构,支持处理图像、视频、音频和文本输入,并输出文本。
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态大语言模型,基于Qwen2.5架构,支持处理文本、图像、视频和音频输入,并生成文本输出。