OpenAI与AWS签署价值380亿美元、为期七年的合作协议,将获得数十万台英伟达GPU计算资源,托管于亚马逊全球数据中心。此举强化了OpenAI在AI领域的基础设施布局,超越传统云服务租赁模式。
英伟达与德国电信将投资10亿欧元在德国建设大型数据中心,预计2026年第一季度运营。该项目旨在增强欧洲AI基础设施,以提升与美国和中国的技术竞争力。该中心将成为欧洲最大规模,推动当地AI生态系统发展。
微软Azure ND GB300v6虚拟机在Llama270B模型上创下每秒110万token推理速度新纪录。该成就基于与英伟达的深度合作,采用配备72个Blackwell Ultra GPU和36个Grace CPU的NVIDIA GB300NVL72系统,突显微软在规模化AI运算领域的专业实力。
现代汽车与英伟达深化合作,共建基于Blackwell架构的AI工厂。双方在CES上宣布联合开发自动驾驶、智能工厂及机器人技术项目,获韩国政府支持,并将在2025年APEC韩国峰会上详述。
bartowski
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
lmstudio-community
这是英伟达OpenReasoning Nemotron 14B的量化版本,由bartowski基于llama.cpp提供GGUF量化。
这是英伟达OpenReasoning Nemotron 7B模型的GGUF量化版本,专门用于文本生成任务。该模型通过LM Studio社区模型亮点计划提供,支持高效的推理和部署。
英伟达推出的高性能7B参数语言模型,专注于数学和代码推理任务,支持128k上下文长度。
基于英伟达AceReason-Nemotron-7B的GGUF量化版本,专注于数学与代码推理,支持128k tokens长上下文
基于英伟达AceReason-Nemotron-14B的GGUF量化版本,专注于数学与代码推理任务,支持128k tokens长上下文
DevQuasar
Cosmos-Reason1-7B是英伟达发布的7B参数规模的基础模型,专注于图文转文本任务。
由英伟达发布的4B参数规模大语言模型,支持128k tokens上下文长度,专为推理、对话及RAG等任务优化
nvidia
Nemotron-H-56B-Base-8K是英伟达开发的大型语言模型,采用混合Mamba-Transformer架构,支持8K上下文长度和多语言文本生成。
英伟达Isaac GR00T N1是全球首个面向通用人形机器人推理与技能的开源基础模型,具有20亿参数规模。
基于英伟达AceInstruct-7B模型的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于代码、数学和通用领域任务。
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
Raj-Maharajwala
基于英伟达Llama 3 - ChatQA的保险领域特定语言模型的GGUF量化版本,针对保险相关的查询和对话进行了微调。
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
Nemotron-Mini-4B-Instruct是英伟达开发的专为角色扮演、检索增强生成和函数调用优化的响应生成模型,基于Minitron-4B-Base微调,支持4096个token的上下文长度。