巨人网络AI Lab联合清华大学、西北工业大学发布三项音视频多模态生成技术:YingVideo-MV(音乐驱动视频生成)、YingMusic-SVC(零样本歌声转换)和YingMusic-Singer(歌声合成)。这些技术将开源,其中YingVideo-MV仅需音乐和人物图像即可生成视频。
清华大学发布首份AI教育应用指导原则,系统规范校园AI使用,覆盖教学、科研等核心场景。文件分总则、教学、学位论文三部分,强调“积极而审慎”立场,旨在全局引导AI合理应用。
清华大学发布《人工智能教育应用指导原则》,系统规范校园AI使用,涵盖教学、学术研究等核心场景。内容分为总则、教学篇、学位论文及实践成果篇三部分,强调积极引导与分层管理,旨在促进AI在教育领域的合理应用。
清华大学在《自然・机器智能》发表研究,提出“能力密度”新概念,挑战传统AI评估标准。研究强调不应仅关注模型参数数量,而应重视每个参数的智能水平,质疑“模型越大能力越强”的规模法则。
开源视频生成模型,支持10秒视频和更高分辨率。
tensorblock
LongWriter-Zero-32B是由清华大学知识工程实验室开发的32B参数大语言模型,专门针对长文本写作任务优化。本仓库提供该模型的GGUF量化格式文件,支持多种量化级别,适用于不同的硬件配置和使用场景。
zai-org
CogView4-6B是清华大学开发的高性能文本到图像生成模型,基于GLM-4-9B基础模型构建,支持高分辨率图像生成,在多项基准测试中表现优异,特别在中文文本准确性方面表现突出。
THUdyh
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态语言模型,基于Qwen2.5架构,支持文本、图像、视频和音频输入,输出文本内容。
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态语言模型,基于Qwen2.5架构,支持处理图像、视频、音频和文本输入,并输出文本。
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态大语言模型,基于Qwen2.5架构,支持处理文本、图像、视频和音频输入,并生成文本输出。
openbmb
MiniCPM-重排序器是由面壁智能与清华大学自然语言处理实验室、东北大学信息检索小组联合研发的中英双语文本重排序模型,具备卓越的中英文及跨语言重排序能力。
jameslahm
YOLOv10 是一个实时端到端目标检测模型,由清华大学团队开发,基于 YOLO 系列的最新改进版本。
YOLOv10 是清华大学提出的实时端到端目标检测模型,具有高效和精准的特点。
YOLOv10是清华大学提出的实时端到端目标检测模型,在速度和精度上均有显著提升。
YOLOv10是清华大学提出的实时端到端目标检测模型,具有高效和准确的特点。
onnx-community
YOLOv10是清华大学MIG实验室开发的实时端到端目标检测模型,提供高效的检测性能和轻量级部署能力。
YOLOv10是清华大学MIG实验室开发的高效实时目标检测模型,提供端到端检测能力。
MiniCPM是面壁智能与清华大学自然语言处理实验室联合研发的端侧大语言模型系列,核心模型仅含12亿非词嵌入参数,在多项评测中超越更大规模的开源模型。
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开发的端侧大语言模型,非词嵌入参数量仅24亿(2.4B),支持128k上下文窗口。
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开源的一系列端侧大语言模型,核心语言模型MiniCPM-2B仅含24亿非词嵌入参数。
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。
deeplang-ai
深言科技联合清华大学NLP实验室开源的中英双语大语言模型,基于数万亿token高质量数据预训练,具备8K上下文窗口处理能力
BubbleSheep
这是一个基于Helsinki-NLP/opus-mt-en-zh预训练模型微调的英中翻译模型,使用清华大学开放中文词库(THUOCL)数据集进行微调。
GKLMIP
这是一个针对高棉语(Khmer)的预训练模型,由清华大学团队开发。