宇树科技创始人王兴兴近日表示,率先将大模型与机器人硬件深度融合的企业将引领全球AI发展,其技术突破意义重大,甚至“足以获得诺贝尔奖”。他认为,大模型与机器人的结合是衡量AI公司是否达到世界顶级水平的关键标志。
昆仑天工发布音乐大模型Mureka V8,核心基于MusiCoT技术体系升级。该模型通过深层建模音乐结构、段落逻辑与表达意图,实现更接近人类创作逻辑的旋律发展与情绪铺陈,显著提升音乐性、编曲完成度、人声表达及音质质感。
MiniMax发布新一代音乐大模型Music2.5,通过技术创新显著提升AI音乐的专业性与听感。模型重点突破两大核心技术:段落级强控制,精准把握音乐结构,使乐曲逻辑更严密;物理级高保真,大幅提升音频质量。
昆仑万维发布Mureka V8音乐大模型,在旋律流畅性、人声表现力、编曲结构及情绪渲染上达到行业顶尖水平,实测表现超越Suno。同时启动Mureka Studio工具内测,推动AI技术赋能专业音乐创作。
高效的视觉编码技术,提升视觉语言模型性能。
首个融合区块扩散和专家混合技术的高效推理语言模型
基于支付宝的生活场景,通过领先的大模型技术,为企业快速构建专业级智能体。
OmniParser V2 是一种将任何 LLM 转化为计算机使用代理的技术。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
QuantStack
本项目是基于Flux架构的文本到图像模型Nepotism的量化版本,采用SVDQuant技术进行优化。提供了INT4和FP4两种量化格式,分别适用于不同世代的GPU硬件,在保持图像生成质量的同时显著减少模型大小和内存占用。
noctrex
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
这是Huihui-gpt-oss-20b-BF16-abliterated-v2模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型通过量化技术减小了模型大小,同时保持了良好的生成性能。
本项目是对Qwen3-VL-235B-A22B-Thinking模型进行MXFP4_MOE量化处理,旨在提供更高效的图像文本到文本转换能力。该版本来自unloth,已将上下文大小从256k扩展到1M,通过特定的量化技术优化模型在不同场景下的性能表现。
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlx是一个采用混合专家架构和Deckard混合精度量化技术的大语言模型,具有800亿参数和1M标记的上下文长度。该模型在科学技术推理和长文本处理方面表现卓越,相比指令模型在认知基准测试中提升20-35%。
基于Flux.1的文本到图像模型的量化版本,采用SVDQ量化技术,提供INT4和FP4两种精度,适用于不同GPU配置的用户,在保持图像质量的同时显著减少模型大小和内存占用。
nvidia
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QAD 是 NVIDIA 推出的自回归视觉语言模型,基于优化的 Transformer 架构,能够同时处理图像和文本输入。该模型采用 FP4 量化技术,在保持性能的同时显著减少模型大小和推理成本,适用于多种多模态应用场景。
这是Ling-flash-2.0模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该版本通过MXFP4_MOE量化技术,在保持模型性能的同时显著减小了模型大小,提高了推理效率。
Qwen
Qwen3-VL-32B-Thinking-FP8是Qwen系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度fp8量化技术,性能指标与原始BF16模型几乎相同。该模型具备出色的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的智能体交互能力。
mradermacher
本项目是基于TECHNOPRAVIN01/Qwen2.5-14B-Valor模型的静态量化版本,提供多种量化类型以满足不同硬件条件下的使用需求。该模型通过量化技术减小了模型大小,同时保持了较好的性能表现。
Qwen3-Nemotron-32B-RLBFF是基于Qwen/Qwen3-32B微调的大语言模型,通过强化学习反馈技术显著提升了模型在默认思维模式下生成回复的质量。该模型在多个基准测试中表现出色,同时保持较低的推理成本。
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
MCP开发框架是一个用于创建与大语言模型交互自定义工具的强大框架,提供文件处理、网页内容获取等功能,支持PDF、Word、Excel等多种格式,具有智能识别、高效处理和内存优化等技术特点。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化技术实现2倍速度提升和80%内存节省。
一个极简的微信文章阅读器MCP服务,通过浏览器模拟和内容提取技术,让大模型能够获取并分析微信公众号文章内容。
ChuckNorris MCP服务器是一个专为大型语言模型设计的增强提示工具,采用动态模式适应技术来绕过安全限制,主要用于安全研究和评估目的。
MCP开发框架是一个用于与大语言模型交互的强大工具集,提供文件处理(PDF/Word/Excel)、网页内容获取等功能,支持Cursor IDE扩展,具有智能文件识别、高效处理和内存优化等技术特点。
Unsloth MCP Server是一个用于高效微调大语言模型的服务,基于Unsloth库实现2倍加速和80%内存节省,支持多种模型和量化技术。
BRAINS OS是一个基于现代云原生技术的AI操作系统,专为管理大型语言模型和专用AI代理设计,提供可视化工作流编辑、统一命令系统和安全部署框架。
该项目实现了一个基于MCP协议的CRM-AI服务中间层,提供数据安全处理、智能对话管理和潜在客户分析功能,通过匿名化技术和令牌系统保护敏感数据,同时支持与大型语言模型的集成。
HUDU MCP Server是一个与HUDU技术文档和客户信息管理系统集成的模型上下文协议服务器,允许大型语言模型通过API交互获取客户账户信息、知识库文章、资产数据等。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。